Такие читатели, как вы, помогают поддерживать MUO. Когда вы совершаете покупку по ссылкам на нашем сайте, мы можем получать партнерскую комиссию. Читать далее.

Искусственный интеллект (ИИ) может изменить саму природу нашего общества. И если инструменты искусственного интеллекта, которые у нас есть в настоящее время, указывают на то, что нас ждет впереди, нам есть на что рассчитывать.

Нам тоже есть, чего опасаться. А именно, использование ИИ в качестве оружия киберпреступниками и другими субъектами угроз. Это не теоретическая проблема, и даже генераторы изображений ИИ не застрахованы от злоупотреблений.

Что такое генераторы изображений AI? Как они работают?

Если вы когда-либо использовали генератор изображений ИИ, вы довольно хорошо представляете, для чего они нужны. Даже если вы никогда не использовали его, вы, скорее всего, сталкивались с изображениями, созданными искусственным интеллектом, в социальных сетях и других местах. Популярное сегодня программное обеспечение работает по очень простому принципу: пользователь вводит текст, а ИИ генерирует изображение на основе этого текста.

instagram viewer

То, что происходит под капотом, намного сложнее. ИИ стал намного лучше в последние годы, и большинство генераторы преобразования текста в изображение в настоящее время существуют так называемые диффузионные модели. Это означает, что они «обучаются» в течение длительного периода времени на огромном количестве текста и изображений, что делает их творения такими впечатляющими и потрясающе реалистичными.

Что делает эти инструменты искусственного интеллекта еще более впечатляющими, так это тот факт, что они не просто изменяют существующие изображения или объединяют тысячи изображений в одно, но также создают новые, оригинальные изображения с нуля. Чем больше людей используют эти генераторы текста в изображения, тем больше информации они получают и тем лучше становятся их творения.

Некоторые из самых известных Генераторы изображений с искусственным интеллектом Dream by WOMBO, DALL-E, Stable Diffusion, Midjourney, DeepAI, Fotor и Craiyon. Новые появляются слева и справа, а технологические гиганты, в том числе Google, выпускают свои собственные, поэтому мы можем только догадываться о том, что принесет будущее.

4 способа, которыми субъекты угроз используют генераторы изображений ИИ в качестве оружия

Как и почти все технологии, генераторы изображений ИИ могут быть использованы злоумышленниками. На самом деле, они уже используются во всевозможных гнусных целях. Но какие именно виды мошенничества и кибератак может осуществить преступник с помощью генераторов изображений ИИ?

1. Социальная инженерия

Одна очевидная вещь, которую злоумышленники могут сделать с помощью генераторов изображений ИИ, — это заниматься социальной инженерией; например, создавать поддельные профили в социальных сетях. Некоторые из этих программ могут создавать невероятно реалистичные изображения, которые выглядят как настоящие фотографии реальных людей, и мошенники могут использовать эти поддельные профили в социальных сетях для ловли рыбы.

В отличие от фотографий реальных людей, фотографии, созданные ИИ, нельзя обнаружить с помощью обратного поиска изображений, и злоумышленнику не нужно работать с ограниченное количество фотографий для обмана своей цели — с помощью ИИ они могут создавать столько фотографий, сколько захотят, создавая убедительную онлайн-личность из царапать.

Но есть реальные примеры злоумышленников, использующих генераторы изображений ИИ для мошенничества. В апреле 2022 г. TechTalks Блогер Бен Дикинсон получил электронное письмо от юридической фирмы, в котором утверждалось, что он использовал изображение без разрешения. Юристы отправили по электронной почте уведомление о нарушении авторских прав DMCA, в котором сообщалось Дикинсону, что ему нужно установить обратную связь с их клиентом или удалить изображение.

Дикинсон погуглила юридическую фирму и нашла официальный сайт. Все это казалось совершенно законным; на сайте даже были фотографии 18 адвокатов с их биографиями и полномочиями. Но ничего из этого не было настоящим. Все фотографии были сгенерированы искусственным интеллектом, и были разосланы уведомления о предполагаемом нарушении авторских прав. кем-то, кто хочет вымогать обратные ссылки у ничего не подозревающих блоггеров, как часть неэтичного, черного шапка SEO (поисковая оптимизация) стратегия.

2. Мошенничество с благотворительностью

Когда в феврале 2023 года в Турции и Сирии произошло разрушительное землетрясение, миллионы людей во всем мире выразили свою солидарность с пострадавшими, пожертвовав одежду, еду и деньги.

Согласно отчету из BBC, мошенники воспользовались этим, используя ИИ для создания реалистичных изображений и сбора пожертвований. Один мошенник показал сгенерированные ИИ изображения руин в TikTok Live, прося у своих зрителей пожертвования. Другой опубликовал сгенерированное ИИ изображение греческого пожарного, спасающего раненого ребенка из руин, и попросил своих подписчиков сделать пожертвования в биткойнах.

Можно только представить, какие благотворительные мошенничества преступники будут проводить с помощью ИИ в будущем, но можно с уверенностью предположить, что они будут только лучше злоупотреблять этим программным обеспечением.

3. Дипфейки и дезинформация

Правительства, группы активистов и аналитические центры уже давно предупреждают о опасность дипфейков. Генераторы изображений ИИ добавляют к этой проблеме еще один компонент, учитывая, насколько реалистичны их творения. На самом деле, в Великобритании есть даже комедийное шоу под названием Deep Fake Neighbor Wars, которое находит юмор в неожиданных парах знаменитостей. Что помешает дезинформатору создать фейковый образ и продвигать его в социальных сетях с помощью ботов?

Это может иметь последствия в реальной жизни, как это почти произошло в марте 2022 года, когда в сети распространилось фейковое видео, на котором президент Украины Владимир Зеленский призывает украинцев сдаться. энергетический ядерный реактор. Но это только один пример, потому что возможности почти безграничны, и существует бесчисленное множество способов субъект угрозы может нанести ущерб чьей-либо репутации, продвигать ложную информацию или распространять фальшивые новости с помощью ИИ.

4. Рекламное мошенничество

ТрендМикро В 2022 году исследователи обнаружили, что мошенники использовали контент, созданный ИИ, для создания вводящей в заблуждение рекламы и продвижения сомнительных продуктов. Они создали изображения, которые предлагали популярным знаменитостям использовать определенные продукты, и запускали рекламные кампании на основе этих изображений.

Например, в одном объявлении о «возможности финансового консультирования» фигурировал миллиардер Илон Маск, основатель и генеральный директор Tesla. Конечно, Маск никогда не одобрял рассматриваемый продукт, но кадры, созданные искусственным интеллектом, создавали такое впечатление, предположительно заманивая ничего не подозревающих зрителей кликать по рекламе.

ИИ и кибербезопасность: сложная проблема, которую необходимо решить

В будущем государственным регулирующим органам и экспертам по кибербезопасности, вероятно, придется работать вместе, чтобы противостоять возникающей угрозе киберпреступности с использованием ИИ. Но как мы можем регулировать ИИ и защищать обычных людей, не подавляя инновации и не ограничивая цифровые свободы? Этот вопрос будет актуален в ближайшие годы.

Пока не будет ответа, делайте все возможное, чтобы защитить себя: тщательно проверяйте любую информацию, которую вы видите в Интернете, избегайте сомнительные веб-сайты, используйте безопасное программное обеспечение, обновляйте свои устройства и учитесь использовать искусственный интеллект для преимущество.