Apple отказалась от сканирования фото в iPhone на наличие сексуального насилия над детьми
Упоминание технологии пропало с сайта.
Летом Apple объявила о разработке новой технологии сканирования хеша фотографий на наличие сексуального насилия над детьми. Предполагалось, что сканирование будет происходить с помощью нейросети.
Apple столкнулась с критикой со стороны пользователей и многих компаний. Были вопросы про то, как система будет определять возраст человека на фото, что произойдёт, если сторонняя компания завладеет данными, и так далее.
От релиза функции в сентябре отказались и принялись дорабатывать систему. Но похоже, что запуск функции так и не состоится.
С сайта пропали все ссылки и упоминания технологии. Представители Apple подтвердили, что отложили релиз функции на неопределённый срок:
Мы решили потратить ещё больше времени, чтобы собрать информацию и внести улучшения в технологию, основываясь на отзывах пользователей, правозащитников и исследователей. Это решение лучше, чем выпускать важную функцию для безопасности детей «сырой».
Представитель Apple
В первой бете iOS 15.2 даже было упоминание функции, но до финальной сборки она не добралась.
Крейг Федериги, вице-президент по разработке программного обеспечения Apple, в интервью рассказал, что функцию плохо анонсировали, из-за чего многие пользователи до конца не поняли принципа её работы.