В августе 2021 года Apple объявила о своих планах сканировать iPhone на предмет изображений сексуального насилия над детьми. Этот шаг вызвал аплодисменты со стороны групп по защите детей, но вызвал опасения среди экспертов по конфиденциальности и безопасности, что эта функция может быть использована не по назначению.

Изначально Apple планировала включить в iOS 15 технологию сканирования материалов о сексуальном насилии над детьми (CSAM); вместо этого он на неопределенный срок отложил развертывание функции, чтобы получить отзывы до ее полного выпуска.

Так почему же функция обнаружения CSAM стала предметом жарких споров и что заставило Apple отложить ее развертывание?

Что делает функция сканирования фотографий Apple?

Apple объявила о внедрении функции сканирования фотографий в надежде бороться с сексуальным насилием над детьми. Все фотографии на устройствах пользователей Apple будут сканироваться на предмет педофилии с использованием алгоритма «NueralHash», созданного Apple.

Кроме того, любые устройства Apple, используемые детьми, будут иметь функцию безопасности, которая автоматически размытие изображений для взрослых, если они получены ребенком, и пользователь будет дважды предупрежден, если попытается открыть их.

instagram viewer

Помимо минимизации воздействия контента для взрослых, если родители регистрируют устройства, принадлежащие их детям, для дополнительная безопасность, родители будут уведомлены в случае, если ребенок получит явный контент от кого-либо онлайн.

Подробнее: Что нужно знать о средствах защиты детей от Apple

Что касается взрослых, использующих Siri для поиска всего, что сексуализирует детей, Siri не будет выполнять этот поиск и вместо этого предлагать другие альтернативы.

Данные с любого устройства, содержащего 10 или более фотографий, которые алгоритмы сочтут подозрительными, будут расшифрованы и подвергнуты проверке человеком.

Если эти или другие фотографии на устройстве совпадают с чем-либо из базы данных, предоставленной Национальный центр пропавших без вести и эксплуатируемых детей, об этом будет сообщено властям, и учетная запись пользователя будет приостановлена.

Основные проблемы, связанные с функцией сканирования фотографий

Функция обнаружения CSAM должна была появиться с запуском iOS 15 в сентябре 2021 года, но на первый взгляд широко распространенного протеста, Apple решила потратить больше времени, чтобы собрать отзывы и внести улучшения в этот характерная черта. Вот это Полное заявление Apple о задержке:

«В прошлом месяце мы объявили о планах по созданию функций, призванных помочь защитить детей от хищников, которые использовать средства коммуникации для вербовки и эксплуатации их, а также ограничения распространения сексуального насилия над детьми Материал.

Основываясь на отзывах клиентов, правозащитных групп, исследователей и других лиц, мы решили уделить дополнительное время ближайшие месяцы для сбора информации и внесения улучшений, прежде чем выпускать эти критически важные вопросы безопасности детей Особенности".

Почти половина проблем, связанных с функцией сканирования фотографий Apple, связана с конфиденциальностью; остальные аргументы включают вероятную неточность алгоритмов и возможное неправильное использование системы или ее лазеек.

Разобьем его на четыре части.

Возможное злоупотребление

Знание о том, что любой материал, соответствующий детской порнографии или известным изображениям сексуального насилия над детьми, внесет устройство в список «подозрительных», может привести киберпреступников в движение.

Они могут намеренно бомбардировать человека неприемлемым контентом через iMessage, WhatsApp или любым другим способом и заблокировать его учетную запись.

Apple заверила, что пользователи могут подать апелляцию в случае, если их учетные записи были приостановлены из-за недоразумений.

Инсайдерское злоупотребление

Несмотря на то, что эта функция разработана для благотворительных целей, она может обернуться для некоторых людей полной катастрофой, если их устройства зарегистрированы в системе родственниками, заинтересованными в отслеживании их общения, с их ведома или без такового.

Даже если этого не произойдет, Apple создала бэкдор, чтобы сделать данные пользователей доступными в конце дня. Теперь это вопрос мотивации и решимости людей получить доступ к личной информации других людей.

Связанный: Что такое бэкдор и для чего он нужен?

Это не только способствует серьезному нарушению конфиденциальности, но и открывает путь для оскорбительных, токсичных или контролирующих действий. родственников, опекунов, друзей, любовников, опекунов и бывших, чтобы и дальше вторгаться в чье-то личное пространство или ограничивать их Свобода.

С одной стороны, он предназначен для борьбы с сексуальным насилием над детьми; с другой стороны, его можно использовать для дальнейшего увековечения других видов злоупотреблений.

Государственный надзор

Apple всегда позиционировала себя как бренд, более заботящийся о конфиденциальности, чем его конкуренты. Но сейчас он может оказаться на скользкой дорожке, когда придется выполнять нескончаемые требования прозрачности в данные пользователей правительствами.

Система, созданная для обнаружения педофилийского контента, может использоваться для обнаружения любого контента на телефонах. Это означает, что правительства с культовым менталитетом могут контролировать пользователей на более личном уровне, если они получат это в свои руки.

Вмешательство государства в вашу повседневную и личную жизнь - подавляющее или нет, но может нервировать и является вторжением в вашу частную жизнь. Идея о том, что вам нужно беспокоиться о таких вторжениях только в том случае, если вы сделали что-то не так, является ошибочным мышлением и не видит вышеупомянутого скользкого пути.

Ложные тревоги

Одна из самых больших проблем при использовании алгоритмов сопоставления изображений с базой данных - ложные срабатывания. Алгоритмы хеширования могут ошибочно идентифицировать две фотографии как совпадающие, даже если они не совпадают. Эти ошибки, называемые «коллизиями», вызывают особую тревогу в контексте материалов о сексуальном насилии над детьми.

Исследователи обнаружили несколько коллизий в NeuralHash после того, как Apple объявила, что будет использовать алгоритм для сканирования изображений. Apple ответила на вопросы о ложных срабатываниях, указав, что результат будет проверен человеком в конце, поэтому людям не нужно беспокоиться об этом.

Пауза CSAM от Apple постоянна?

У предлагаемой Apple функции есть много плюсов и минусов. Каждый из них настоящий и выдерживает вес. Пока неясно, какие именно изменения Apple может внести в функцию сканирования CSAM, чтобы удовлетворить своих критиков.

Это может ограничить сканирование общими альбомами iCloud вместо того, чтобы задействовать устройства пользователей. Маловероятно, что Apple полностью откажется от этих планов, поскольку компания обычно не склонна уступать своим планам.

Тем не менее, из широко распространенной негативной реакции и сдерживания Apple своих планов становится ясно, что компаниям следует с самого начала привлекать исследовательское сообщество, особенно для непроверенных технология.

ДелитьсяТвитнутьЭл. адрес
Безопасность в Интернете: 50+ советов по обеспечению безопасности ваших детей в Интернете

Дети - главная мишень для сетевых хищников и кибер-хулиганов. Эти полезные советы могут научить родителей, как обезопасить себя в Интернете.

Читать далее

Похожие темы
  • Безопасность
  • Айфон
  • Конфиденциальность на смартфоне
  • яблоко
  • Конфиденциальность в Интернете
  • Наблюдение
Об авторе
Фавад Али (Опубликовано 19 статей)

Фавад - инженер по информационным технологиям и коммуникациям, начинающий предприниматель и писатель. Он начал писать контент в 2017 году и с тех пор работал с двумя агентствами цифрового маркетинга и многочисленными клиентами B2B и B2C. Он пишет о безопасности и технологиях в MUO с целью обучать, развлекать и вовлекать аудиторию.

Ещё от Fawad Ali

Подписывайтесь на нашу новостную рассылку

Подпишитесь на нашу рассылку технических советов, обзоров, бесплатных электронных книг и эксклюзивных предложений!

Нажмите здесь, чтобы подписаться