«Запретить нельзя разрешить»: как бороться с токсичным контентом на YouTube?

Как далеко может зайти человек ради хайповых роликов.

Вопрос о том, можно и нужно ли убирать опасные видео из интернета, зреет уже долгое время, но отвечают на него все по-разному.

Очередным поводом для новой волны обсуждений стал инцидент в новозеландских мечетях, где в результате стрельбы погибло не менее 50 человек. Нападение на мечеть «Аль-Нур» на свою страницу в Facebook транслировал сам нападавший, австралиец Брентон Таррант.

До того, как видеотрансляцию заблокировали, её успели посмотреть более 4000 человек.

В связи с трагедией в Facebook пообещали поработать над ограничениями для прямых трансляций, чтобы избежать подобных ситуаций в будущем.

Австралийское правительство пошло ещё дальше и уже приняло строгие меры. В соответствии с ними владельцы веб-платформ, где опубликованы ролики со сценами жестокости и насилия, будут наказаны по высшей строгости закона.

Скотт Моррисон встретился с руководителями социальных сетей в Австралии на прошлой неделе

В законопроекте говорится, что владельцев платформы ждут взыскания, если они не успеют достаточно быстро удалить «отвратительный материал с применением насилия». К такому контенту относятся: террористические акты, убийства, изнасилования, пытки и похищения людей.

Речь идёт о штрафах до 10,5 млн австралийских долларов (около 7,5 млн долларов США) или 10 % годового оборота. Также руководителям компаний или «тем, кто предоставляет интернет-услугу», может грозить реальный тюремный срок до трёх лет. Неслабо.

Никто не против?

Инициатором этого закона стал премьер-министр Австралии Скотт Моррисон. При этом он сам считает, что в данный момент закон «некорректен» и требует правок.

Эксперты по правовым вопросам обращают внимание на то, что закон в нынешней его форме может привести к ужесточению цензуры в интернете, а также мешает распространять информацию, которую всё-таки необходимо показывать обществу. Однако вносить правки раньше выборов в Австралии никто не будет.

А что там с YouTube?

Как сообщает Bloomberg, у руководителей YouTube отношение к присутствию токсичного контента на их платформе диаметрально противоположное, поскольку ключевым понятием и бизнес-целью здесь является вовлечённость. Что это значит?

В последние годы многие сотрудники YouTube и Google (которой YouTube принадлежит), выражали обеспокоенность по поводу массы дезинформирующего, экстремистского и токсичного контента, который распространяется посредством крупнейшего в мире видеосайта. Несмотря на эти опасения, корпоративное руководство YouTube не может или не желает принимать меры по этим внутренним вопросам из-за боязни последствий.

Марк Берген

Автор Bloomberg

Сложные вопросы с контентом

YouTube не даёт комментариев, но в заявлении, предоставленном Bloomberg, основной задачей компании названо решение сложных проблем с контентом. Как компания это регулирует? Вот некоторые из мер, принятых для решения проблемы токсичного контента:

  1. Обновление системы рекомендаций для предотвращения распространения дезинформации. Данный механизм призван добавить меру «социальной ответственности» в алгоритм рекомендаций, который содержит информацию о соотношении «лайков» и «дизлайков» на видео. А также о том, сколько раз люди им поделились;
  2. Улучшение работы с новостными источниками путём добавления ссылок на результаты Новостей Google в результатах поиска YouTube, а также размещение «авторитетных» источников из авторитетных СМИ в своих разделах новостей;
  3. Кроме того, в самой Google количество сотрудников, ответственных за публикуемое содержимое, увеличили до 10 000 человек;
  4. Ещё YouTube инвестирует в развитие ИИ для более быстрого поиска и удаления контента, который нарушает политику платформы;
  5. Политика компании постоянно пересматривается и обновляется (только в 2018 году вышло более 30 обновлений);
  6. И на десерт: было удалено более 8,8 миллиона каналов за нарушение правил платформы.

Тем не менее многие считают данные меры недостаточными.

Миллиард часов просмотров в день

Изначально целью руководства YouTube было создание и развитие свободного сайта, способного заинтересовать людей в просмотре и хостинге любительских видео. В то время платформа являлась убыточной, однако проблемы со спорным контентом были уже тогда.

По причине резкой популярности роликов, пропагандирующих анорексию, штатные модераторы сразу начали активно блокировать видео. Заодно они выставляли ограничения по возрасту и проводили прочие меры по избавлению от нежелательного контента.

Фото: Sean Gallup

Политика компании изменилась, когда в 2012 году YouTube пришла к другой концепции. Чем выше трафик на сайте, тем больше откручивается рекламы.

Тогда лучшими инструментами для продвижения новой идеи стали автовоспроизведение и система подбора рекомендаций для каждого конкретного пользователя.

Управлявший в то время YouTube Салар Камангар поставил перед сотрудниками компании амбициозную задачу: получить миллиард просмотров в день.

На этот уровень YouTube вышла уже под управлением Сьюзен Войжитски в октябре 2016 года.

Нейронная сеть, отвечающая за алгоритм подбора видео для рекомендаций и автовоспроизведения на YouTube, была описана в том же году. И, надо заметить, со своей целью — удержанием людей на сайте — она отлично справляется. Проблема в том, что распознать при этом дезинформирующие или содержащие насилие видео система может не всегда.

Мнение Wylsacom

На эту тему выходил ролик на канале, где Валентин делится мыслями и опытом о том, как выжить на просторах злобного российского YouTube.

Психология отношений в реальной жизни — штука очень непростая, а уж как разобраться с незнакомыми людьми в интернете — вообще загадка. Но что делать с тем контентом, который появляется на площадке YouTube, почему крупнейший сервис не особо стремится изменить положение?

YouTube не интересуется тем, что происходит, если это не касается рекламных денег. Так было с детским контентом, так было с экстремистским контентом. Это не теория заговора, просто там такое безразличное отношение к роликам, пока не ударило по заработку.

Валентин Wylsacom

«Пограничный контент»

Основная часть спорного контента на YouTube не нарушает правил платформы, и в январе 2019 года для таких видео появилась отдельная категория под названием «пограничный контент»: такие ролики не удаляются с площадки, но в рекомендации они больше не попадают. Несмотря на это, многие считают данные меры недостаточными, и вот почему.

Одним из ярких примеров можно назвать канал iHealthTube.com, который лондонская антиэкстремистская фирма Moonshot CVE определила как один из самых влиятельных генераторов антипрививочных теорий на YouTube. К слову, в популярных видео iHealthTube.com есть ролик и не о вакцинах. Это семиминутный клип под названием: «Любой рак можно вылечить за несколько недель». И хотя YouTube заявляет, что больше не рекомендует такие видео для зрителей, это не помешало ролику набрать более 7 миллионов просмотров.

Стоит признать, что проблемы со спорным контентом на YouTube до сих пор нельзя назвать решёнными полностью. Более того, есть риск, что при недостаточном контроле со стороны руководства платформы эту роль на себя попытаются примерить правительства разных стран, как это уже случилось в Австралии. Только вряд ли подобный подход приведёт к чему-то кроме ужесточения цензуры в интернете.

Получается, что истина, как всегда, лежит где-то посередине, и до неё ещё предстоит добраться. Или нет? Что думаете на этот счёт, как быть с цензурой и нормами морали?