В компании решили в ближайшие месяцы собрать информацию и внести улучшения перед выпуском системы для безопасности детей.
Американская корпорация Apple откладывает выпуск инструментов для проверки iPhone на наличие изображений с детской порнографией. В компании опасаются, что новое программное обеспечение может подвергнуть пользователей более масштабным рискам в сфере защиты персональных данных, сообщает Apple Insider.
В сообщении техногиганта говорится, что это реакция на критику ее плана, о котором было объявлено ранее.
В Apple планировали запустить систему, распознающую изображения с детским запрещенным контентом и оповещающую, если такие снимки были загружены в облачный сервис iCloud через обновление программного обеспечения iPhone.
Apple утверждает, что программа не нарушает законодательство о защите персональных данных и что компания нашла способ анализировать только тот контент, который подпадает под понятие запрещенного.
При этом утверждается, что не загруженный в облачный сервис такой контент система маркировать не будет.
Тем не менее, беря во внимание отзывы пользователей, экспертов и правозащитных организаций, в компании "решили взять дополнительное время в течение ближайших месяцев, чтобы собрать информацию и внести улучшения перед тем, как выпустить инструменты для безопасности детей".
Когда станут доступны эти обновления, в Apple не уточнили.
О том, что Apple запускает мониторинг устройств для борьбы с детской порнографией, стало известно в августе. Отмечается, что новая система получила название neuralMatch. Она будет подавать сигнал оператору в случае подозрения на наличие "незаконных изображений". Это решение вызвало критику. Поэтому в компании заявили, что система будет сканировать iCloud и сообщения и отмечать только тех пользователей, у которых нашли хотя бы 30 фото с насилием над детьми. Только после этого Apple сможет провести проверку пользователя и сообщить о нарушениях властям.