Модерация контента в Twitter и соцсетях: сравнительный анализ

Чем отличается модерация контента в массовых соцсетях и гонимых новичках?…

Чем отличается модерация контента в массовых соцсетях и гонимых новичках?

В данной статье посмотрим, кто лучше модерирует контент в мире соцсетей. Явных лидеров и аутсайдеров не рассматриваем, ограничимся крепкими середняками и относительными новичками. Twitter vs. Telegram, Discord, Mastodon.

I.

Чем больше соцсеть, тем эффективнее распространяются в ней сомнительные виды контента.

Алгоритмы дистрибуции контента в массовых соцсетях (Facebook, Instagram, Twitter) оптимизированы для массовых охватов. Но алгоритмы сами не распространяют контент — для этого нужны вовлеченные пользователи.

А связка вовлечённых пользователей и эффективных алгоритмов дистрибуции приводит к характерному перекосу: охваты контента, который имеет доказательную базу, редко превышают 1000 пользователей. Но фейковые новости, теории заговора, сенсационный шок-контент часто охватывают аудитории больше 1000 человек, до 100 000 пользователей в случае особенно противоречивых видов контента. Это данные исследования дистрибуции новостей в Twitter, в закрытых группах Facebook сомнительный контент распространяется более агрессивно — количество пользователей Twitter не так велико, чтобы в этой соцсети можно было создавать информационные пузыри, которые процветают в Facebook.

Правила политики модерации Twitter прописаны настолько широко, настолько непрозрачно, что Twitter не может объяснить эти правила даже сенаторам США. #itscomplicated

Но даже запрещенный правилами контент разрешено постить в Twitter, если пометить этот тип контента, как образовательный или документальный. Например, в 2013 году Twitter-аккаунты, связанные с ИГИЛ, воспользовались этой лазейкой, чтобы постить видео террористических атак. Террористов фолловили целые редакции мировых СМИ, простые люди, независимые журналисты, представители спецслужб и правительственных организаций. Twitter понял, что терроризм генерирует вовлечение даже среди профессионалов: журналисты, разведчики и специалисты по Ближнему Востоку переписывались в личке с террористами, чтобы лучше понять их мотивы.

Модераторам Twitter понадобилось три года, чтобы научиться блокировать аккаунты террористов. Аккаунты, которые с первых дней публиковали кадры  обезглавливаний и публичными казней военнопленных, боестолкновений в городе и авиаударов по мирным жителям. С 2015 года пошли массовые баны связанных с ИГИЛ аккаунтов. Однако, примерно четверть аккаунтов террористов остается в эфире до сих пор — американские спецслужбы объясняют это тем, что такие аккаунты нужны для образовательных целей.

Важно: не стоит обольщаться охватами в Twitter. Когда соцсеть поощряет ваш контент, она делает это не потому, что он хорош. Просто соцсеть научилась зарабатывать на вашем контенте, который генерирует вовлечение пользователей. Векторы желаний, интересов, целей Twitter и вашего контента случайно пересеклись, временно совпали. Ничего личного.

Что-то похожее на модерацию в соцсетях начало появляться после 2020 года: основным технокомпаниям приходится много общаться с комиссиями антимонопольных прокуроров, сенаторами, издателями. Все эти люди хотят знать, кто и как модерирует контент в соцсетях и соцсети вынуждены открывать свои тайны. Например, Facebook не перестал нанимать филиппинских модераторов, но создал Facebook Oversight Board, контролирующий орган, который будет рассматривать все спорные моменты модерации. А Twitter запустил программу добровольного модерирования Birdwatch с 25 января 2021 года.

Насколько эффективной будет модерация Birdwatch судить трудно. Команда Twitter решила отдать модерацию в руки резидентов США, которые не были замечены в нарушении правил соцсети, что может пойти не так?

Модерация контента в Telegram

Никто не знает точное число команды модераторов мессенджера. Пока только редкие каналы проходят проверку в ручном режиме. Блокируют каналы спорадически, по жалобе — чаще всего за экстремизм, накрутки показов, за детское порно в публичных каналах. Модерации контента на уровне платформы нет, разрешено многое из того, что процветает в закрытых группах Facebook. Администраторы каналов имеют возможность банить подписчиков в чатах: в Telegram развито модерирование локального уровня.

Администраторам каналов доступны бесплатные и платные боты для модерирования чатов (chatkeeper, angrymoderbot, shieldy). Боты-модераторы могут похвастать несложными фильтрами по ключевым словам, триггерам, стоп-словам, простыми решениями по автоматизации отправки предупреждений и сбору аналитики.

По сравнению с Twitter, телеграм-каналы исламских радикалов удаляются быстро, решительно. Серые, полулегальные сферы (инфобизнес, крипта, сливы/пробивы, договорные матчи и ставки) мирно сосуществуют с полностью белыми каналами.

Техподдержка Telegram живо реагирует на жалобы — если новый канал резко прибавляет по несколько десятков тысяч подписчиков в сутки, то на него могут повесить плашку [SCAM] до выяснения подробностей.

Подозрительный канал имени Дональда Трампа резко набрал популярность в середине января. Но модераторы Telegram проверили его и осадили. Результат: плашка фейкового канала, пессимизация охватов.

А вот telegram-канал сына Трампа, здесь все в порядке.

Модерация контента в Discord

Популярный мессенджер/соцсеть для геймеров Discord превыше всего ставит безопасность своих пользователей. После череды скандалов (child groomers, спам, угоны и сливы данных кредитных карточек) модерацией в Discord заинтересовались журналисты, представители спецслужб. В 2018 году создатели соцсети инвестировали много ресурсов и времени в команду юристов, которая помогла им написать новые правила модерации.

Но даже новые правила, новые фильтры, строгий отбор модераторов, новая прозрачность и регулярные отчеты по борьбе с киберпреступностью не закрыли всех уязвимостей Discord. Простота создания чатов, условная анонимность участников привлекают большое количество хакеров — с каждым годом модераторам только добавляется работы. В 2019-2020 годах модераторы этой соцсети забанили 5 миллионов аккаунтов и 90 миллионов единиц сомнительного контента/спама.

Модерация контента в Mastodon

Создатели Mastodon модерируют всего три вида контента на уровне соцсети: расистский, экстремистский, трансфобный. Широкие правила модерации оставляют свободу выбора за администраторами сообществ и пользователями.

Mastodon поощряет локальную и удаленную модерацию: сообщества в этой соцсети находятся на разных серверах и называются instances. Такая кластеризация позволяет строить устойчивые сообщества, защищаться от массовых атак вроде нашествия неонаци из соцсети Gab. Администраторы разных сообществ могут обмениваться опытом, защищать права своих пользователей, предупреждать друг друга и вырабатывать совместные правила реагирования на нетипичные случаи.

Mastodon позволяет админам самим решать, каким правилам следовать на их сервере и с кем они будут общаться в своих сообществах. Аккаунт может уйти в бан на одном сообществе и продолжить общение на всех остальных серверах и сообществах. Или создать свой сервер со своими правилами. Блокировку и удаление аккаунта Mastodon на отдельном сервере можно оспорить через 30 дней — это критическая мера для повторяющихся нарушений.

***

Глобальные соцсети (Twitter) и локальные конкуренты (Telegram, Discord, Mastodon) практически не отличаются качеством модерации контента. И те и другие плохо справляются с модерированием противоречивой, опасной информации.

Защитные фильтры алгоритмов Twitter легко обходятся пакистанскими школьниками, которые играючи двигают любой заказ в тренды. Решение проблем с модерированием Twitter и Facebook хотят искать в аутсорсинге модерации контента внешним подрядчикам вроде Birdwatch и Oversight Board.

Модерация контента в мессенджерах, в новых соцсетях децентрализована. Сравнительно небольшие аудитории Telegram, Discord, Mastodon упрощают работу модераторам. Явные случаи мошенничества здесь наказываются в ручном режиме, а регулирование спорных моментов оставляют на усмотрение администраторов/модераторов сообществ и каналов.

Таким образом, в соцсетях наметился общий тренд на децентрализацию принятия решений по модерации контента. Большие и маленькие соцсети одинаково стремятся к локальной, контекстуальной проверке контента, потому что опытным пользователям обмануть автоматические фильтры соцсетей не составляет труда.


Антон Киселев, Client Service Director платформы SocialJet
Илья Покидышев, Account Manager платформы SocialJet

Есть вопросы?

Оставьте заявку с помощью формы ниже, и мы свяжемся
с вами и обсудим все ваши вопросы.


    Нажимая на кнопку, вы даете согласие
    на обработку персональных данных
    и соглашаетесь c политикой конфиденциальности

    Помогу вам разобраться, как работает сервис, подобрать удобный тариф и отвечу на все вопросы.