Apple отказалась от внедрения системы сканирования детского порно в iCloud в iOS 15
Вероятно, функция появится позже после доработки.
В августе Apple объявила, что будет сканировать хеши фотографий в iCloud на момент совпадения с уже существующим контентом, где изображено сексуальное насилие над детьми. Тема очень сложная, Apple её кое-как описала, лишь запутав всех.
Инициативу Apple критиковали, кажется, все. Главным лейтмотивом было следующее: почему этим занимается компания, а не правоохранительные органы?
Прислушавшись к критике, сегодня Apple сообщила, что откладывает внедрение этой функции для того, чтобы доработать её. При этом компания не поясняет, когда собирается её выпустить в релиз и что именно требует доработки.
Как система должна была работать?
В США есть «Национальный центр пропавших без вести и эксплуатируемых детей» (NCMEC). Эта частная организация занимается в том числе расследованием случаев сексуального насилия над детьми. У неё есть база с хешем изображений, признанными незаконными.
Что такое хеш изображений?
Это набор символов, понятный машинам. Очень условно хеш иллюстрации выглядит так: h24Klsa6hpas6y3I91POSj7, но только значительно длиннее. Декодировать хеш назад в изображение не получится.
То есть тут важно понять: как таковых изображений уже нет, а набор символов невозможно использовать в противозаконных действиях.
Что хотела сделать Apple?
Apple хотела превращать изображения, залитые в iCloud, в аналогичный хеш и сверять полученные данные с базой NCMEC. В случае если было больше тридцати совпадений, к анализу фотографий приступал человек.
Тут важно отметить именно то, что сами по себе фотографии не будут анализироваться ни машиной, ни человеком.