Искусственный интеллект и машинное обучение могут творить чудеса, от создания произведений искусства до автоматизации административных задач. Но они также представляют собой риск, поскольку они могут расширить возможности злоумышленников с помощью таких трюков, как дипфейк.

По мере развития этой конкретной технологии было бы неплохо узнать, как на самом деле работают дипфейки и кто захочет их использовать — как законно, так и нелегально.

Почему важно понимать, как и почему используются дипфейки

Основное применение технологии дипфейков в основном связано с забавными, порнографическими или кинематографическими материалами, но исследование показало, что Deepfakes может обмануть распознавание лиц. Уже одно это является причиной для беспокойства и настороженности.

Чем больше технология используется в повседневной жизни и масштабных проектах, тем лучше ее разработчики учатся создавать бесшовные поддельные видео людей, будь то знаменитости или члены семьи.

Понимание как защитить себя от дипфейковых видео

является обязательным сейчас, учитывая, как охотно отрасли используют преимущества технологии, особенно в сфере развлечений.

Голливуд использовал его в нескольких проектах задолго до Дипфейковая запись AGT от Metaphysic, которая показала миру, насколько быстрым и эффективным может быть создание дипфейков. Вот что включает в себя этот процесс.

Как работают дипфейки?

С точки зрения того, что стоит за дипфейками, подсказка кроется в названии: глубокое обучение, наука об искусственных нейронных сетях (ИНС). Что они делают для алгоритмов дипфейка, так это поглощают данные, извлекают из них уроки и создают новые данные в виде выражений лица или всего лица, наложенного на ваше.

Разработчики программного обеспечения для дипфейков обычно используют один из двух типов ИНС: автоэнкодеры или генеративно-состязательные сети (ГАН).

Автоэнкодеры учатся воспроизводить массивы данных, которые им подают, в основном фотографии лиц и выражений, и воссоздавать запрошенные наборы данных. Однако они редко являются точными копиями.

GAN, с другой стороны, имеют более интеллектуальную систему, которая включает в себя генератор и дискриминатор. Первый воспроизводит данные, которые он узнал, в дипфейки, которые затем должны обмануть второго.

Дискриминатор сравнивает творения генератора с реальными изображениями и определяет их эффективность. Лучшие дипфейки, конечно, те, которые идеально имитируют поведение человека.

Итак, как же создаются дипфейки с помощью этой технологии? Алгоритмы, лежащие в основе таких приложений, как Рефейс и DeepFaceLab постоянно учиться на данных, проходящих через них, чтобы они могли эффективно корректировать черты лица и выражения или накладывать одно лицо на другое.

Программное обеспечение представляет собой видеоредактор, специально разработанный для управления лицами. Некоторые приложения сложнее других, но в целом вы можете делать что угодно: от увеличения или уменьшения возраста кого-то до редактирования себя в фильмах.

Но у технологии все же есть недостатки. Создание дипфейка может быть сложнее, чем как делают фальшивые живые видео, но его можно так же просто обнаружить, как и false.

Как распознать дипфейк

Поскольку дипфейки в основном создаются машинами, черты или манеры цифрового лица не всегда выглядят естественными. Также могут быть ошибки в настройке видео. Другими словами, вы можете отличить поддельные кадры, если знаете, что искать.

Вот несколько предвестников:

  • Неестественное моргание: Машинное обучение часто упускает из виду моргание или делает его неуклюжим.
  • Размытые или нестабильные функции: чьи-то волосы, рот или подбородок могут быть слегка размыты или двигаться странным, часто преувеличенным образом.
  • Отсутствие или искажение эмоций: Плохие дипфейки бесстрастны или плохо имитируют эмоции.
  • Неловкий язык тела: если человек на видео двигает головой или телом искаженными или бессвязными движениями, это может быть дипфейком.
  • Неправильные цвета и освещение: Обесцвечивание, необъяснимые огни и тени — верные признаки поддельного видео.
  • Несовместимые объекты: при настройке видео программное обеспечение для дипфейков может допускать ошибки, например изменять форму одежды, украшений и предметов фона.
  • Плохой звук: Дипфейки могут искажать речь и звуки в видео.

Сделать большую часть способы обнаружения дипфейков узнав, для чего обычно делаются такие видео, и обращая пристальное внимание на детали в кадрах, которые вы видите в Интернете, — по возможности замедлите их.

Кроме того, разрабатывается все больше и больше инструментов, таких как Microsoft Authenticator и Sensity Криминалистическое обнаружение дипфейков, которые анализируют видео на минутном уровне.

Кто использует дипфейки?

Кинематографисты все чаще используют дипфейки, чтобы состарить или заменить лица актеров, как в «Звездных войнах». Художникам удается оживить портреты, заставить их говорить и петь.

Маркетологи экспериментируют с технологией deepfake для рекламного контента, который не требует найма актеров. Такие компании, как WPP, также применяют его в своих обучающих видео.

Технари, как правило, создают забавные видеоролики, в которых они меняются лицами с друзьями или накладывают одного актера на другого в популярных фильмах. Сильвестр Сталлоне взял на себя роль «Один дома», а Джокер Хита Леджера появился в «Истории рыцаря».

К сожалению, если вы исследуете, для чего еще используется технология дипфейков, вы обнаружите множество вредоносных случаев. Создатели дипфейков любят распространять дезинформацию и оскорбительные сообщения, а также нацеливаться на знаменитостей и помещать их в фильмы для взрослых. Людей даже шантажируют фейковыми кадрами.

В своем нынешнем необузданном виде дипфейк является синонимом риска для прав людей на неприкосновенность частной жизни, безопасности, и даже авторское право, например, когда алгоритм явно использует фото или произведение искусства не публично доступный.

Вот почему страны и бренды не сдаются. По состоянию на 2021 год, согласно Карта Инициативы по кибергражданским правам из законов о дипфейках в США, четыре штата в настоящее время принимают жесткие меры в отношении опубликованных дипфейковых видео, которые изображают кого-то явным или иным образом вредным образом.

Китай также предпринимает шаги по криминализации дипфейков, которые наносят вред людям и обществу, будь то нарушение прав личности или распространение фейковых новостей. Даже Мета объявлена в 2020 году эти вводящие в заблуждение, сфальсифицированные видео не приветствовались.

В дополнение к регулированию, официальные органы во всем мире стремятся к лучшему обнаружению и предотвращению дипфейковых преступлений. Отчет Института Ратенау о том, как европейская политика должна обращаться с дипфейками, поддерживает программное обеспечение с такими инструментами, как распознавание речи и лица, определение живости голоса и анализ черт лица.

Узнайте, как работают дипфейки, чтобы ввести вас в заблуждение

К лучшему или к худшему, дипфейки уже стали мейнстримом. Итак, наслаждайтесь забавными и вдохновляющими видео, готовясь к борьбе с любыми вредоносными программами.

В конце концов, что такое дипфейк, как не инструмент, предназначенный для того, чтобы обмануть вас? Если вы знаете, что искать и как реагировать, у него меньше власти над вами.

Например, вы сможете обнаруживать дипфейки в социальных сетях наряду с фальшивыми новостями и учетными записями и избегать дезинформации, попыток фишинга и многого другого. По мере совершенствования технологии обнаружения и предотвращения дипфейков вам будет оказываться дополнительная поддержка.