Apple отказалась от сканирования фото в iCloud для выявления жестокого обращения с детьми — Wylsacom

Apple отказалась от сканирования фото в iCloud для выявления жестокого обращения с детьми

Идею очень сильно раскритиковали.

Разбитый iPhone 14 Plus. Фото: Илья Кичаев / Wylsacom Media

В ходе интервью с автором The Wall Street Journal Джоанной Стерн, старший вице-президент Apple по разработке ПО Крейг Федериги сообщил, что стало с планом компании сканировать фото в iCloud на SCAM (Child Sexual Abuse Material), то есть материалы, иллюстрирующие сексуальное насилие над детьми. Компания отказалась от этой идеи.

Что за план?

Программа была анонсирована в августе 2021 года. Тогда заявили, что анализироваться будут не фотографии, а их хеш. Для человека это будет просто набор символов вроде ioshdfh9iiklsdh86312jnb23e23091341j123412. Перевести эти символы обратно в изображение не получится, но для ИИ их будет достаточно, чтобы понять, что именно изображено на фото — дерево или же что-то незаконное.

Предполагалось, что ИИ будет сопоставлять хеш изображений с хешами, предоставленными Национальным центром пропавших без вести и эксплуатируемых детей (NCMEC). После того как будет достигнуто некое пороговое значение, являющееся свидетельством высокой точности, Apple вручную будет интерпретировать содержимое ваучеров безопасности. В случае подтверждения учётная запись в iCloud будет заблокирована, а отчёт будет отправлен в NCMEC, которая сотрудничает с правоохранительными органами США.

Критика

Несмотря на вроде как благие цели, инициативу Apple резко раскритиковали. Это не только нарушение конфиденциальности пользователей, но и возможность использовать систему не по назначению.

Один из вариантов развития событий представил криптограф Мэттью Грин. Он подчеркнул, что современные ИИ дают большой процент ложных срабатываний. Однако ситуация может оказаться куда хуже: предположим, придёт к Apple авторитарное правительство и предоставит выбор — уходи с нашего рынка или дай нам доступ к этой системе. И тут уже могут начаться поиски не детской порнографии, а того, что угрожает этому самому авторитарному правительству с последующей нейтрализацией владельцев айфонов.

Была ещё одна сторона, которая считала, что вообще непонятно, с чего Apple решила взвалить на себя такую ношу.

Развитие событий

В итоге Apple приостановила внедрение этой функции. И если до декабря 2021 года о ней кто-то вспоминал, то в нынешнем году из-за всего случившего о ней успели позабыть. Пока не случилось неожиданное: Крейг Федериги вдруг сказал, что работа над системой остановлена.

Сексуальное насилие над детьми можно предотвратить до того, как оно произойдёт. Вот куда мы вкладываем нашу энергию для продвижения вперёд.

Крейг Федериги

Старший вице-президент Apple по разработке ПО

Крейг говорит об анонсированной в конце 2021 года функции iMessage. Она будет посылать уведомление родителям ребёнка, если тот будет пытаться отправить своё обнажённое фото.

Эта функция iMessage начала работать с 7 декабря. Пока её испытывают на ограниченном числе пользователей в США, а затем развернут по всему миру в 2023 году. Это нововведение реализовали одновременно с запуском сквозного шифрования многих элементов экосистемы Apple, включая резервные копии и сообщения:

Предложения магазинов
  • Аноним

    да дайте мне номер тима кука, я буду сам ему скидывать свои нюдесы

  • Аноним

    Авторитарное правительство:) В самих США будто Эппл не дает доступ:)

  • Аноним

    Кидай мне, я передам🤗

Комментарии для сайта Cackle