Кажется, слишком часто мы видим новости о совершении того или иного вопиющего правонарушения на том или ином сайте социальной сети, включая незаконные публикации или прямую трансляцию насильственного контента. Легко удивиться, как в наш технологически продвинутый век такие вещи могут проскользнуть сквозь щели.
Но дело в том, что эффективно модерировать сайты социальных сетей практически невозможно. Почему? Есть несколько причин.
Некоторые сайты социальных сетей все еще находятся в стадии становления или являются более нишевыми. Тем не менее, основные сайты социальных сетей имеют обширную базу пользователей. Крупнейшие сайты имеют от сотен миллионов до миллиардов пользователей. Естественно, любую платформу такого размера трудно отслеживать.
Большинство крупных социальных сетей справляются с этим с помощью комбинации отчетов сообщества, алгоритмов (несовершенно), обученных обнаруживать вредоносный контент, и нескольких модераторов-людей. Хотя член сообщества или ИИ может обнаруживать и сообщать вредоносную информацию, последнее слово остается за человеком (или группой людей). И многие сайты предлагают процесс апелляции.
Сайты социальных сетей не просто огромны с точки зрения их пользовательской базы. В разных штатах и разных странах действуют разные законы, касающиеся того, о каком контенте нужно сообщать и как.
Таким образом, компании социальных сетей, работающие в разных географических регионах, часто должны иметь разные политики для разных пользователей. Это включает в себя различные политики в отношении дезинформации и конфиденциальности. Фактически, Twitter пришлось согласиться на определенные условия, чтобы его разблокировали в Нигерии.
Более того, социальные сети — это глобальное явление, но оно не всегда происходит в «глобальных» языках. Это может привести к тому, что компании, работающие в социальных сетях, будут изо всех сил пытаться найти модераторов контента, которые говорят на региональных языках, чтобы предоставлять услуги по всему миру, не оставляя этих пользователей уязвимыми для злоумышленников.
Хорошим примером является владелец Facebook Meta. Недавно компания была подал в суд бывший модератор контента в Найроби который утверждает, что модераторы контента в этой области введены в заблуждение, взяв на себя эту роль.
3. Модераторы идут по натянутому канату
Большинство пользователей социальных сетей хотят двух вещей: они хотят чувствовать себя в безопасности и хотят чувствовать себя свободными. Найти баланс между этими двумя желаниями — непростая задача модератора контента.
Отклонитесь слишком далеко в сторону, и пользователи почувствуют, что их охраняют. Отклонитесь слишком далеко на другую сторону, и пользователи почувствуют себя брошенными. Один из способов, которым некоторые сайты социальных сетей обходят это, — это модераторы сообщества.
Модераторы сообщества помогают заявить, что модерация делается из страсти к продвижению конструктивный дискурс, не допускающий вредного содержания, а не из желания контролировать или подавлять пользователи. Эта модель сложна в масштабе, хотя на разных платформах она работает по-разному.
Парлер вернулся в онлайн после корректировки своей политики модерации в соответствии с политикой третьих лиц. У них есть что-то вроде системы жюри сообщества, которая более или менее вступает в игру только после того, как уже было сообщено о потенциально проблемной публикации. Приоритизация пользовательских отчетов — еще один способ, которым Parler помогает облегчить нагрузку на своих модераторов.
4. Модераторы должны придерживаться динамичной линии
Модераторы контента также работают в том, что может показаться морально серой зоной. Даже на платформах с более свободным мнением о модерации есть правила, запрещающие потенциально опасный или насильственный контент. Некоторые сообщения явно вредны или содержат насилие, в то время как другие могут показаться вредными или опасными одним пользователям (или модераторам), но не другим.
Многие платформы также имеют правила, запрещающие другие виды деятельности, такие как продажа товаров или услуг. Это может быть еще более сложной областью для навигации, особенно с учетом размера и охвата некоторых сайтов.
Учитывать что делают модераторы сообщества Reddit. Всякий раз, когда пользователи присоединяются к новому сообществу, им немедленно отправляются правила для этого сообщества. Эти правила также размещены сбоку на каждой странице сообщества. Это позволяет каждому сообществу иметь подмножество правил, адаптированных для него, а не общие правила для всего сайта.
Идея сабреддитов также помогает Reddit широко использовать модераторов сообщества. Модераторам поручено модерировать свой субреддит, а не пытаться патрулировать весь сайт.
Наконец, социальные сети развиваются очень быстро. Когда вы слышите о проблемном посте, это может быть уже после того, как оригинальный автор удалил его. В случае, если о сообщении не сообщили, пока оно было в прямом эфире, ответить на него постфактум может быть сложно.
В одном случае в 2015 году в полицию поступило сообщение в социальной сети YikYak с использованием измененной версии исходного сообщения, которое уже было удалено. То, что могло бы быть решено модераторами онлайн-контента внутри компании, превратилось в затяжную юридическую драму, которая расстроила все сообщество.
Многие сайты социальных сетей, включая Facebook, имеют политики сохранения подозрительных постов в случае, если на них необходимо ссылаться в складывающихся ситуациях, в том числе со стороны правоохранительных органов.
Но такие функции, как прямая трансляция, означают, что контент появляется по мере его появления, что алгоритмы могут пропустить, пока не станет слишком поздно.
Бросьте монетку своему модератору
Если вы видите в Интернете что-то, что вас беспокоит, воспользуйтесь предоставленными каналами, чтобы сообщить об этом. Старайтесь не расстраиваться и не подозревать, потому что модерировать социальные сети сложно. То же самое происходит, если вы или сообщение сообщается. Вероятно, это благонамеренный шаг, чтобы обезопасить пользователей социальных сетей.