С технологией дипфейков интересно поиграть, но ее потенциал для нанесения значительного вреда. Вот что может принести будущее дипфейков.

Раньше признаки дипфейкового изображения было легко заметить, но генеративный ИИ заставляет нас подвергать сомнению практически все, что мы видим и слышим сейчас. С каждой выпущенной новой моделью ИИ контрольные признаки поддельного изображения уменьшаются, и, чтобы добавить к путаницы, теперь вы можете создавать дипфейковые видео, голосовые клоны ваших близких и фабриковать фальшивые статьи простыми секунды.

Чтобы не быть обманутым дипфейками ИИ, стоит знать, какую опасность они представляют.

Эволюция дипфейков

Дипфейк показывает человека, делающего то, чего никогда не было в реальной жизни. Это полностью подделка. Мы смеемся над дипфейками, когда они распространяются в Интернете в качестве мема или шутки, но мало кто находит забавным, когда они используются, чтобы вводить нас в заблуждение.

В прошлом дипфейки создавались путем взятия существующей фотографии и ее изменения в программном обеспечении для редактирования изображений, таком как Photoshop. Но что отличает дипфейк ИИ, так это то, что его можно создать с нуля с использованием алгоритмов глубокого обучения.

instagram viewer

словарь Merriam-Webster определяет дипфейк как:

Изображение или запись, которые были убедительно изменены и сфабрикованы, чтобы представить кого-то в ложном свете как делающего или говорящего что-то, чего на самом деле не было сделано или сказано.

Но с развитием технологий искусственного интеллекта это определение начинает выглядеть устаревшим. С использованием инструментов искусственного интеллекта дипфейки теперь включают изображения, текст, видео и клонирование голоса. Иногда используются все четыре режима генерации ИИ одновременно.

Поскольку это автоматизированный процесс, который невероятно быстр и дешев в использовании, это идеальный инструмент для штамповки глубокие подделки со скоростью, которую мы никогда раньше не видели — и все это без необходимости знать что-то о том, как редактировать фотографии, видео или аудио.

Большие опасности дипфейков ИИ

Хозяин Генераторы ИИ-видео уже существуют, наряду с большим количеством Генераторы голоса ИИ. Бросьте в большая языковая модель, такая как GPT-4 и у вас есть рецепт создания самых правдоподобных дипфейков, которые мы когда-либо видели в современной истории.

Осведомленность о различных видах дипфейков ИИ и о том, как их можно использовать, чтобы обмануть вас, — это один из способов не попасть в заблуждение. Вот лишь несколько серьезных примеров того, как технология дипфейков ИИ представляет реальную угрозу.

1. Кража личных данных ИИ

Возможно, вы их видели. Среди первых по-настоящему вирусных дипфейков ИИ, распространившихся по всему миру, были изображения арестованного Дональда Трампа и Папы Франциска в белом пуховике.

В то время как кто-то кажется невинным переосмыслением того, что известный религиозный деятель мог бы надеть в холодный день в Риме; другое изображение, показывающее политическую фигуру в серьезной ситуации с законом, имеет гораздо более серьезные последствия, если считать его реальным.

До сих пор люди в основном нацеливались на знаменитостей, политических деятелей и других известных личностей при создании дипфейков ИИ. Отчасти это связано с тем, что у известных людей есть много фотографий в Интернете, которые, вероятно, в первую очередь помогли обучить модель.

В случае генератора изображений с искусственным интеллектом, такого как Midjourney, который используется как в дипфейках Трампа, так и в Папе Римском, пользователю просто нужно ввести текст, описывающий то, что он хочет увидеть. Ключевые слова можно использовать для указания художественного стиля, такого как фотография или фотореализм, а результаты можно точно настроить, увеличив разрешение.

Вы можете так же легко научиться использовать Midjourney и проверьте это сами, но по очевидным моральным и юридическим причинам вам следует избегать публичной публикации этих изображений.

К сожалению, будучи обычным, малоизвестным человеком, вы также не гарантируете, что вы защищены от дипфейков ИИ.

Проблема заключается в ключевой функции, предлагаемой генераторами изображений ИИ: возможность загружать собственное изображение и манипулировать им с помощью ИИ. И такой инструмент Перекраска в ДАЛЛ-Е 2 может расширить существующее изображение за его границы, введя текстовое приглашение и описав, что еще вы хотели бы сгенерировать.

Если бы это сделал кто-то другой с вашими фотографиями, опасности могло бы быть значительно больше, чем дипфейк Папы в белом пиджаке — его могут использовать где угодно, притворяясь вами. Хотя большинство людей обычно используют ИИ с добрыми намерениями, существует очень мало ограничений, мешающих людям использовать его для причинения вреда, особенно в случаях кражи личных данных.

2. Мошенничество с использованием Deepfake Voice Clone

С помощью ИИ дипфейки пересекли черту, к которой большинство из нас не были готовы: поддельные голосовые клоны. С небольшим количеством оригинального звука — возможно, из видео TikTok, которое вы когда-то опубликовали, или видео YouTube, в котором вы появляетесь, — модель ИИ может воспроизвести ваш единственный и неповторимый голос.

Это одновременно сверхъестественно и пугающе — представить себе, что вы получаете телефонный звонок, который звучит так же, как член семьи, друг или коллега. Клоны дипфейковых голосов вызывают достаточно серьезную озабоченность, поэтому Федеральная торговая комиссия (ФТК) вынес об этом предупреждение.

Не доверяйте голосу. Позвоните человеку, который якобы связался с вами, и проверьте историю. Используйте номер телефона, который, как вы знаете, принадлежит им. Если вы не можете связаться с любимым человеком, попробуйте связаться с ним через другого члена семьи или его друзей.

Об этом сообщила газета «Вашингтон пост». случай супружеской пары в возрасте 70 лет, которой позвонил кто-то, говоривший так же, как их внук. Он сидел в тюрьме и срочно нуждался в деньгах для внесения залога. Не имея других причин сомневаться в том, с кем они разговаривали, они пошли дальше и передали деньги мошеннику.

В опасности не только старшее поколение, Об этом сообщает The Guardian. еще один пример менеджера банка, который одобрил транзакцию на 35 миллионов долларов после серии «глубоких фальшивых звонков» от кого-то, кого они считали директором банка.

3. Массовые фейковые новости

Большие языковые модели, такие как ЧатGPT очень, очень хорошо создают текст, который звучит так же, как человеческий, и в настоящее время у нас нет эффективных инструментов, чтобы определить разницу. В чужих руках создание фейковых новостей и теорий заговора будет стоить дешево, а их разоблачение займет больше времени.

Распространение дезинформации, конечно, не новость, а исследовательская работа. опубликовано на arXiv в январе 2023 года объясняет, что проблема заключается в том, насколько легко увеличить объем выпускаемой продукции с помощью инструментов ИИ. Они называют это «кампаниями влияния, созданными ИИ», которые, по их словам, могут, например, использоваться политиками для аутсорсинга своих политических кампаний.

Объединение более чем одного источника, созданного ИИ, создает дипфейк высокого уровня. Например, модель ИИ может создать хорошо написанную и убедительную новость, которая будет сопровождать поддельное изображение ареста Дональда Трампа. Это придает ему больше легитимности, чем если бы изображение было опубликовано само по себе.

Фальшивые новости не ограничиваются изображениями и текстом, разработки в области генерации видео с помощью ИИ означают, что мы наблюдаем появление большего количества видео с дипфейками. Вот один из снимков Роберта Дауни-младшего, привитый к видео Илона Маска, опубликованному Ютуб-канал Deepfakery.

Создать дипфейк можно так же просто, как загрузить приложение. Вы можете использовать такое приложение, как TokkingHeads превращает неподвижные изображения в анимированные аватары, что позволяет загружать собственное изображение и звук, чтобы создать впечатление, что человек говорит.

По большей части это интересно и весело, но есть и потенциальные проблемы. Это показывает нам, насколько легко использовать чье-либо изображение, чтобы создать впечатление, будто этот человек произнес слова, которых никогда не произносил.

Не дайте себя обмануть дипфейку с искусственным интеллектом

Дипфейки можно быстро развернуть с очень небольшими затратами и с низким уровнем знаний или требуемой вычислительной мощности. Они могут принимать форму сгенерированного изображения, голосового клона или комбинации изображений, аудио и текста, сгенерированных искусственным интеллектом.

Раньше создание дипфейков было намного сложнее и трудоемче, но теперь, когда существует множество приложений ИИ, почти каждый имеет доступ к инструментам, используемым для создания дипфейков. Поскольку технология дипфейков ИИ становится все более продвинутой, стоит внимательно следить за опасностями, которые она представляет.