Дипфейки и видео, созданные искусственным интеллектом, никуда не денутся. Но за последние несколько лет их количество и качество выросли, что заставляет многих людей беспокоиться о национальной безопасности и конфиденциальности.

Тем не менее, как бы сильно анонимные онлайн-пользователи ни пытались сделать свое поддельное видео реалистичным, они никогда не могли пройти мимо передового программного обеспечения для распознавания лиц. До сих пор.

Обмануть API распознавания лиц

Исследователи из Университета Сунгюнкван в Сувоне, Южная Корея, проверил качество текущей технологии дипфейка. Они протестировали API Amazon и Microsoft с использованием программного обеспечения с открытым исходным кодом и широко используемого программного обеспечения для создания видео Deepfake, чтобы увидеть, насколько хорошо они работают.

Исследователи использовали лица голливудских знаменитостей. Для создания надежных дипфейков программе требуется много качественных изображений из разных ракурсы одних и тех же лиц, которые гораздо проще заполучить знаменитостей, чем обычных люди.

Исследователи также решили использовать API Microsoft и Amazon в качестве эталонов для своего исследования, поскольку обе компании предлагают услуги распознавания лиц знаменитостей. Они использовали общедоступные наборы данных и создали чуть более 8000 дипфейков. Из каждого дипфейк-видео они извлекли несколько снимков лица и отправили их в рассматриваемые API.

С помощью Microsoft Azure Cognitive Services исследователи смогли обмануть систему в 78% случаев, используя дипфейки. Результаты Amazon были немного лучше: 68% представленных лиц были идентифицированы как настоящие.

А как насчет детекторов Deepfake?

Детекторы дипфейков работают примерно так же, как дипфейки. Детекторы - это программное обеспечение, которое было обучено с использованием моделей машинного обучения тому, как обнаруживать deepfake-видео.

Но вместо того, чтобы сосредоточиться на создании гиперреалистичного видео, чтобы обмануть детекторы, дипфейки теперь могут включать в себя состязательные примеры в каждом кадре, чтобы сбить с толку систему ИИ. Фактически, вероятность успеха дипфейк-атак этого типа варьируется. от 78 до 99 процентов.

Становится хуже

Deepfakes - это приложение для машинного обучения. Чтобы создать хоть какое-то убедительное изображение, вам понадобятся сотни изображений лица одного и того же человека под разными углами и отображающими различные эмоции.

Из-за потребности в огромных объемах данных можно было бы подумать, что риску подвержены только люди с большим присутствием в Интернете, такие как знаменитости и политики. Но это уже не так.

По данным Deeptrace, количество дипфейков в Интернете увеличилось на 330 процентов менее чем за год - с октября 2019 года по июнь 2020 года. Не говоря уже о том, что программное обеспечение и алгоритмы, которые используют создатели дипфейков, становятся все более мощными, более доступными и доступными.

Кто подвергается риску дипфейков?

Когда дипфейки впервые стали мейнстримом, заботы были о конфиденциальности и национальной безопасности. Люди опасались, что видеозаписям политиков и официальных государственных служащих больше нельзя будет доверять.

Но хотя было бы безответственно игнорировать угрозу безопасности дипфейков, многочисленные опросы показали, что создатели дипфейков пока не так сильно заинтересованы в нарушении политики. Большинство онлайн-видео дипфейков можно разделить на две категории: смешные видео с интервью со знаменитостями и фильмы и порнографические материалы.

Хотя недавнее исследование проводилось с использованием лиц знаменитостей, чтобы убедиться, что дипфейки высокого качества, чтобы обмануть API, это не значит, что вы не можете делать дипфейки с меньшим количеством данных. Конечно, у них может не быть шанса обмануть передовые системы распознавания лиц, но они могут быть достаточно убедительными, чтобы обмануть других людей.

В настоящее время дипфейки любого человека в обществе можно убедительно сделать. Все, что им нужно, - это несколько ваших фотографий и, возможно, видео, в котором вы появляетесь. В результате дипфейк может быть низкого качества, но все же выполним и может нанести ущерб.

Будущее все еще неизвестно

Есть много противоречивых прогнозов относительно состояния дипфейков, поскольку они никуда не денутся.

Некоторые ожидают апокалиптического кибер-будущего, в котором нельзя доверять никаким видеозаписям, которые попадаются в сети. Другие настроены более оптимистично, сравнивая дипфейки с анимацией и заявляя, что у них может быть будущее в производстве контента.

ДелитьсяТвитнутьЭлектронное письмо
Как защитить себя от видео Deepfake

Дипфейки становятся все более распространенными. Вот как они могут угрожать вашей конфиденциальности в Интернете и как избежать попадания в них.

Читать далее

Похожие темы
  • Безопасность
  • Интернет
  • Распознавание лица
  • Конфиденциальность в Интернете
  • Интернет-безопасность
Об авторе
Анина От (Опубликовано 52 статей)

Анина - внештатный писатель по технологиям и интернет-безопасности в MakeUseOf. Она начала писать о кибербезопасности 3 года назад в надежде сделать ее более доступной для обычного человека. Увлекается изучением новых вещей и большой ботаник в области астрономии.

Ещё от Anina Ot

Подписывайтесь на нашу новостную рассылку

Подпишитесь на нашу рассылку, чтобы получать технические советы, обзоры, бесплатные электронные книги и эксклюзивные предложения!

Нажмите здесь, чтобы подписаться