Фейковые новости, дипфейки, вводящие в заблуждение изображения: все это можно создать с помощью искусственного интеллекта. Вот как ИИ означает распространение дезинформации.
Искусственный интеллект (ИИ) теперь играет роль в различных аспектах нашей жизни. В частности, значительно выросли инструменты генеративного ИИ, такие как ChatGPT и другие. Это означает, что в будущем будет много контента, созданного ИИ.
Однако генеративный ИИ также создает риск дезинформации, создаваемой ИИ. Его особенности облегчают оппортунистическим лицам распространение ложной информации. Итак, давайте рассмотрим, как генеративный ИИ используется для дезинформации.
Потенциальные риски генеративного ИИ для распространения дезинформации
Генеративный ИИ представляет множество угроз для людей, таких как отнятие рабочих мест, усиление слежки и кибератаки. И проблемы безопасности с ИИ станут еще хуже. Но есть еще одна проблема: люди могут использовать его для распространения лжи. Мошенники могут использовать генеративный ИИ для распространения фальшивых новостей с помощью визуального, слухового или текстового контента.
Ложные новости можно разделить на три типа:
- Дезинформация: Непреднамеренно неверная или ложная информация.
- Дезинформация: преднамеренное использование манипулятивной или вводящей в заблуждение информации.
- Неверная информация: Вводящие в заблуждение новости или преувеличенная версия правды.
Когда в сочетании с технологией дипфейк, генеративные инструменты искусственного интеллекта могут создавать контент, который выглядит и звучит реалистично, например изображения, видео, аудиоклипы и документы. Существует множество возможностей для создания поддельного контента, поэтому, зная как защитить себя от дипфейковых видео это важно.
Распространители фейковых новостей могут генерировать контент в больших количествах, что облегчает его распространение среди масс через социальные сети. Целенаправленная дезинформация может использоваться для оказания влияния на политические кампании, что потенциально может повлиять на выборы. Кроме того, использование инструментов генерации текста и изображений с помощью ИИ вызывает опасения относительно законов об авторском праве, как сообщает Исследовательская служба Конгресса: определение права собственности на контент, созданный этими инструментами, становится сложной задачей.
Как закон будет бороться с распространением фейковых новостей с помощью генеративного ИИ? Кто будет нести ответственность за распространение ложной информации — пользователи, разработчики или сами инструменты?
4 способа использования генеративного ИИ для распространения дезинформации
Чтобы оставаться в безопасности в Интернете, каждый должен понимать риски, связанные с распространением дезинформации с помощью генеративного ИИ, поскольку он может принимать самые разные формы. Вот несколько способов, которыми его можно использовать для манипулирования людьми.
1. Создание поддельного контента в Интернете
Создание поддельного контента с использованием генеративного ИИ — распространенная стратегия, используемая теми, кто распространяет ложные новости. Они используют популярные инструменты генеративного ИИ, такие как ChatGPT, DALL-E, Bard, Midjourney и другие, для создания различных типов контента. Например, ChatGPT может помочь создателям контента разными способами.. Но он также может генерировать сообщения в социальных сетях или новостные статьи, которые могут ввести людей в заблуждение.
Чтобы доказать это, я побудил ChatGPT написать выдуманную статью об аресте президента США Джо Байдена по обвинению в коррупции. Мы также попросили его включить заявления соответствующих органов, чтобы сделать его более правдоподобным.
Вот вымышленная статья, которую придумал ChatGPT:
Удивительно, но вывод оказался весьма убедительным. В него были включены имена и высказывания авторитетных деятелей, чтобы сделать статью более убедительной. Это показывает, как любой может использовать такие инструменты для создания ложных новостей и легко распространять их в Интернете.
2. Использование чат-ботов для влияния на мнение людей
Чат-боты, основанные на генеративных моделях искусственного интеллекта, могут использовать различные тактики, чтобы влиять на мнение людей, в том числе:
- Эмоциональная манипуляция: ИИ может использовать модели эмоционального интеллекта, чтобы использовать эмоциональные триггеры и предубеждения для формирования ваших взглядов.
- Эхо-камеры и предвзятость подтверждения: Чат-боты могут укреплять существующие убеждения, создавая эхо-камеры, подтверждающие ваши предубеждения. Если вы уже придерживаетесь определенной точки зрения, ИИ может укрепить ее, предоставив информацию, которая соответствует вашему мнению.
- Социальное доказательство и эффект побеждающей стороны: ИИ может манипулировать общественным мнением, создавая социальные доказательства. Это может иметь серьезные последствия, поскольку может привести к тому, что люди будут подчиняться популярным мнениям или следовать за толпой.
- Целевая персонализация: чат-боты имеют доступ к огромному количеству данных, которые они могут собирать для создания персонализированных профилей. Это позволяет им настраивать контент в соответствии с вашими предпочтениями. Благодаря целенаправленной персонализации ИИ может убеждать людей или еще больше укреплять их мнение.
Все эти примеры иллюстрируют, как можно использовать чат-ботов, чтобы вводить людей в заблуждение.
3. Создание ИИ DeepFake
Кто-то может использовать дипфейки для создания фальшивых видеороликов, на которых человек говорит или делает то, чего никогда не делал. Они могут использовать такие инструменты для социальной инженерии или проведения клеветнических кампаний против других. Более того, в сегодняшней культуре мемов дипфейки могут служить инструментом киберзапугивания в социальных сетях.
Кроме того, политические противники могут использовать дипфейковые аудио и видео, чтобы запятнать репутацию своих противников, манипулируя общественными настроениями с помощью ИИ. Так Создаваемые искусственным интеллектом дипфейки представляют собой многочисленные угрозы в будущем. По данным 2023 г. Отчет Рейтер, рост технологий искусственного интеллекта может повлиять на выборы в Америке в 2024 году. В отчете подчеркивается доступность таких инструментов, как Midjourney и DALL-E, которые могут легко создавать сфабрикованный контент и влиять на коллективное мнение людей.
Тогда крайне важно уметь идентифицировать видео, созданные дипфейками и отличать их от оригиналов.
4. Клонирование человеческих голосов
Генеративный ИИ, наряду с технологией дипфейка, позволяет манипулировать чьей-то речью. Технология Deepfake быстро развивается и предлагает множество инструментов, которые могут воспроизвести чей-либо голос. Это позволяет злоумышленникам выдавать себя за других и обманывать ничего не подозревающих людей. Один из таких примеров использование дипфейковой музыки.
Возможно, вы сталкивались с такими инструментами, как Напоминать ИИ, Озвучить, Обманул тебяи другие, которые могут имитировать голоса знаменитостей. Хотя эти звуковые инструменты ИИ могут быть интересными, они представляют значительный риск. Мошенники могут использовать методы клонирования голоса для различных мошеннических схем, что приводит к финансовым потерям.
Мошенники могут использовать дипфейковые голоса, чтобы выдавать себя за ваших близких и звонить вам, притворяясь, что они в беде. С синтетическим звуком, который звучит убедительно, они могут убедить вас срочно отправить деньги, в результате чего вы станете жертвой их мошенничества. Инцидент, о котором сообщил Вашингтон пост в марте 2023 года иллюстрирует эту проблему: мошенники использовали дипфейковые голоса, чтобы убедить людей, что их внуки находятся в тюрьме и нуждаются в деньгах...
Как обнаружить дезинформацию, распространяемую искусственным интеллектом
Борьба с распространением дезинформации, которому способствует ИИ, является актуальной проблемой в современном мире. Так как же обнаружить ложную информацию, созданную искусственным интеллектом?
- Относитесь к онлайн-контенту скептически. Если вы столкнулись с чем-то, что кажется манипулятивным или невероятным, проверьте это путем перекрестной проверки.
- Прежде чем доверять новостной статье или сообщению в социальной сети, убедитесь, что они получены из авторитетного источника.
- Следите за индикаторами дипфейков, такими как неестественное моргание или движения лица, плохое качество звука, искаженные или размытые изображения и отсутствие искренних эмоций в речи.
- Используйте сайты проверки фактов для проверки точности информации.
Следуя этим шагам, вы сможете идентифицировать и защитить себя от дезинформации, создаваемой искусственным интеллектом.
Остерегайтесь распространения дезинформации с помощью ИИ
Генеративное программное обеспечение сыграло решающую роль в развитии ИИ. Тем не менее, они также могут быть значительным источником дезинформации в обществе. Эти доступные инструменты позволили любому создавать различные типы контента с использованием сложных моделей искусственного интеллекта; их способность генерировать контент в больших количествах и включать дипфейки делает их еще более опасными.
Важно, чтобы вы знали о проблемах дезинформации в эпоху ИИ. Понимание того, как можно использовать ИИ для распространения фейковых новостей, — это первый шаг к защите от дезинформации.