В Apple отложили идею сканировать изображения в iPhone
Суббота, 4 сентября 2021, 07:47
Apple отложила планы сканировать изображения пользователей на предмет материалов о сексуальном насилии над детьми перед загрузкой их в облако.
Источник: The Guardian
Детали: Как отмечается, подобное решение следует за негативной реакцией со стороны групп конфиденциальности.
В компании заявили, что "основываясь на отзывах клиентов, правозащитных групп, исследователей и других лиц, мы решили в ближайшие месяцы выделить дополнительное время, чтобы собрать информацию и внести улучшения, прежде чем выпускать эти критически важные функции безопасности детей".
Предыстория:
- В августе появилась информация, что Apple просканирует изображения и зашифрованные сообщения в iPhone в США на предмет сексуального насилия над детьми.
- Как сообщалось, последние изменения появятся в этом году как часть обновлений операционного программного обеспечения для iPhone, Mac и Apple Watch.
- Для этого должны использовать инструмент neuralMatch. Он предназначен для обнаружения известных изображений сексуального насилия над детьми и будет сканировать изображения перед их загрузкой в iCloud. Если neuralMatch найдет совпадение, изображения пересмотрит человек. В случае подтверждения наличия детской порнографии учетную запись отключат и сообщат в Национальный центр пропавших без вести и эксплуатируемых детей. Система обнаружения отмечать только те изображения, которые уже есть в базе данных центра известной детской порнографии.
- Также Apple планирует сканировать зашифрованные сообщения пользователей на предмет откровенного сексуального содержания в качестве меры безопасности для детей.