Apple отказалась от сканирования фото в iPhone на наличие сексуального насилия над детьми — Wylsacom

Apple отказалась от сканирования фото в iPhone на наличие сексуального насилия над детьми

Упоминание технологии пропало с сайта.

Иллюстрация: Светлана Чувилёва / Wylsacom Media

Летом Apple объявила о разработке новой технологии сканирования хеша фотографий на наличие сексуального насилия над детьми. Предполагалось, что сканирование будет происходить с помощью нейросети.

Apple столкнулась с критикой со стороны пользователей и многих компаний. Были вопросы про то, как система будет определять возраст человека на фото, что произойдёт, если сторонняя компания завладеет данными, и так далее.

От релиза функции в сентябре отказались и принялись дорабатывать систему. Но похоже, что запуск функции так и не состоится.

С сайта пропали все ссылки и упоминания технологии. Представители Apple подтвердили, что отложили релиз функции на неопределённый срок:

Мы решили потратить ещё больше времени, чтобы собрать информацию и внести улучшения в технологию, основываясь на отзывах пользователей, правозащитников и исследователей. Это решение лучше, чем выпускать важную функцию для безопасности детей «сырой».

Шейн Бауэр

Представитель Apple

В первой бете iOS 15.2 даже было упоминание функции, но до финальной сборки она не добралась.

Крейг Федериги, вице-президент по разработке программного обеспечения Apple, в интервью рассказал, что функцию плохо анонсировали, из-за чего многие пользователи до конца не поняли принципа её работы.

Предложения магазинов
  • Аноним

    Я тебе не верю, Эппл

  • Аноним

    Почему я читаю твой коммент голосом Лепса😅

  • Аноним

    Выходит они поддерживают насилие над детьми.

Комментарии для сайта Cackle