Секретные гайдлайны Facebook о насилии и порнографии
“Пристрелите наконец Трампа” расценивается, как прямая угроза в адрес чиновника, но фраза “сдохни уже наконец” — просто грубая лексика.
Как и подобает крупнейшей в мире социальной сети, Facebook имеет чёткие инструкции по модерации пользовательского контента. The Guardian удалось раздобыть эти методички с правилами, чем журналисты и поделились с общественностью. Откуда у журналистов такая информация, источник не разглашает.
Каждый раз, когда в в сети появляется контент подозрительного содержания, модераторы сидят возле “ красной” кнопки и принимают решение — нарушает ли пост правила социальной сети или не нарушает. Именно этот процесс значительно замедляет реакцию модераторов и именно поэтому некоторый контент долгое время висит на страницах пользователей, до тех пор, пока люди в ручном режиме не протестируют его по своим внутренним писаным правилам. С другой стороны, самому модератору нужно принять решение за считанные секунды, а если посмотреть на количество правил, то удивляешься, как вообще это все можно запомнить и анализировать на ходу.
На серии презентаций упоминаются самые разные ситуации — от разжигания вражды до терроризма. Все они предназначены для модераторов, которым пришлось столкнуться с постами, содержащими элементы насилия, угроз, порнографии, детского насилия и зоофилии.
В материалах подробно описываются действия модераторов на конкретных примерах. Знаете ли вы, когда изображение наготы не считается порнографией? Ответ: если фото является новостным либо известным. Подобные ситуации описаны и по поводу насилия и многого другого.
Разбирается и работа с угрозами. Например, “Пристрелите наконец Трампа” расценивается как прямая угроза в адрес чиновника, но фраза “сдохни уже наконец” — лишь использованием “грубой лексики для выражения несогласия”.
Facebook также пытается всячески оградить несовершеннолетних от сцен насилия и жестокости, поэтому по решению модераторов подобный контент скрывают от взора детей, а совершеннолетним дают выбор, хотят ли они это видеть.
Интересно то, что некоторые сцены зоофилии социальная сеть намеренно пропускает, чтобы привлечь внимание к проблеме.
Всего над этим трудятся 4500 контент-менеджеров, но в ближайшее время компания планирует нанять ещё 3000 сотрудников — все они ежедневно сталкиваются с миллионами жалоб. Работа довольно стрессовая, ведь иногда на принятие решения у сотрудника есть всего десять секунд.
The Guardian даже запустили интерактивный тест на готовность работать контент-менеджером.
Сложность возникают и в культурных различиях пользователей. Вот, что об этом говорит Моника Биккерт, руководитель отдела глобальной контентной политики Facebook:
“Разные люди имеют разные мнения насчёт того, чем можно делиться”.
Все гайды занимают тысячи слайдов и у них есть свои сторонники и противники, поддерживающие свободу слова.
Работа ведётся очень скрупулёзная и этот пример показывает насколько серьёзно люди в Facebook относятся в понятие «контент» и ставят его превыше всего, иногда превыше человеческих понятий о приличии и допустимости. К примеру, некоторые сцены с насилием модератор Facebook не будет полностью «выпиливать» из новостной ленты, а ограничит показ такой информации для несовершеннолетних, а взрослым пользователям даст возможность отказаться от показа подобного контента в дальнейшем, но сам контент не будет удалён из социальной сети.
Представьте себя на месте модератора Facebook, смогли бы вы спокойно пропускать в сеть контент с сомнительным содержанием, ради наглядного примера для публики? Считаете ли вы фразу «Давайте пинать толстых детей» призывом к действию вне зависимости от контекста? Работёнка не из простых.
Интересно узнать, как происходит подобный процесс в социальной сети ВКонтакте, ведь у нас другой менталитет, другие законы, другая «свобода слова».