Похоже, что Apple забыла про функцию сканирования запрещенных фото на iPhone

Прошло больше года с тех пор, как Apple представила функцию, которая автоматически обнаруживает фотографии на iPhone, содержащие сцены с жестоким обращением с детьми (CSAM).

Изначально Apple планировала добавить функцию в iOS 15 к концу 2021 году. Но в итоге компания отложила её запуск после того, как подверглась критике со стороны пользователей, экспертов по безопасности и правозащитных организаций.

В декабре 2021 года Apple удалила все упоминания функции со своего сайта, но представитель компании сообщил, что планы не изменились. С тех пор Apple не комментировала запуск функции.

В тему: Бояться не надо? Разбираем, как Apple будет сканировать ваши фото на айфоне, искать запрещёнку и даже докладывать в органы

Apple собиралась сканировать только фотографии, выгружаемые в iCloud. Все операции должны были осуществляться на iPhone. Для сканирования каждый снимок хэшировался, а затем система сравнивала его код с фотографиями, которые содержат сцены с жестоким обращением с детьми.

При многочисленных совпадениях проверять изображения должен был специальный человек. Если бы он подтвердил наличие незаконных фото, то Apple передала бы данные о владельце iPhone в некоммерческую организацию, которая работает в сотрудничестве с правоохранительными органами США. [Macrumors]

Источник: iphones.ru

Читайте также  Apple разрабатывает умный многооконный режим для iPad. Для него понадобится трекпад и клавиатура
iduvbank