Apple объявила о планах сканировать ваш контент iCloud на наличие материалов сексуального насилия над детьми (CSAM) в августе 2021 года, чтобы защитить детей от жестокого обращения со стороны хищников.
Компания планировала запустить новую функцию обнаружения CSAM в iCloud Photos, которая будет сканировать такой контент и сообщать Apple о соответствующих изображениях, сохраняя при этом конфиденциальность пользователей.
Однако новая функция была встречена неоднозначно. Спустя год после первоначального объявления Apple официально отказывается от своего плана по сканированию iCloud Photos для CSAM.
Apple отказывается от плана по сканированию iCloud на наличие материалов о жестоком обращении с детьми
Согласно отчету ПРОВОДНОЙ, Apple отказывается от своего плана по сканированию вашего iCloud на предмет содержания жестокого обращения с детьми. Инструмент будет сканировать фотографии, хранящиеся в iCloud, чтобы найти те, которые соответствуют известным изображениям CSAM, определенным организациями по защите детей. Затем он может сообщить об этих изображениях, потому что владение изображениями CSAM является незаконным в большинстве юрисдикций, включая США.
Почему Apple отменила свой план по сканированию фотографий iCloud
После первоначального объявления в 2021 году Apple столкнулась с негативной реакцией со стороны клиентов, групп и отдельных лиц, выступающих за цифровую конфиденциальность и безопасность во всем мире. iPhone обычно обеспечивает большую безопасность, чем устройства Android, и многие восприняли это как шаг назад. Хотя это была победа для организаций по защите детей, более 90 политических групп написали открытое письмо в Apple позже в том же месяце, призывая компанию отменить план.
В письме утверждалось, что, хотя инструмент предназначен для защитить детей от жестокого обращения, его можно использовать для цензуры свободы слова и угрозы конфиденциальности и безопасности пользователей. Из-за растущего давления Apple приостановила свои планы по запуску, чтобы собрать отзывы и внести необходимые коррективы в функцию. Тем не менее, отзывы не одобряли план Apple по сканированию iCloud Photos, поэтому компания официально отказывается от этих планов навсегда.
В заявлении для WIRED компания сказала:
"У нас есть... решили не продвигать наш ранее предложенный инструмент обнаружения CSAM для фотографий iCloud. Дети могут быть защищены без компаний, просматривающих личные данные, и мы будем продолжать работать с правительствами, защитниками прав детей и другие компании, чтобы помочь защитить молодых людей, сохранить их право на неприкосновенность частной жизни и сделать Интернет более безопасным местом для детей и для нас. все."
Новый план Apple по защите детей
Apple перенаправляет свои усилия на улучшение функций безопасности связи, анонсированных в августе 2021 года и запущенных в декабре того же года.
Безопасность при общении не является обязательной и может использоваться родителями и опекунами для защиты детей от отправки и получения изображений сексуального характера в iMessage. Функция автоматически размывает такие фотографии, и ребенок будет предупрежден об опасностях. Он также предупреждает всех, кто попытается выполнить поиск CSAM на устройствах Apple.
Поскольку планы по запуску инструмента обнаружения CSAM отменены, компания надеется на дальнейшее улучшение этой функции и расширение ее на другие коммуникационные приложения.