Искусственный интеллект (ИИ) может изменить саму природу нашего общества. И если инструменты искусственного интеллекта, которые у нас есть в настоящее время, указывают на то, что нас ждет впереди, нам есть на что рассчитывать.
Нам тоже есть, чего опасаться. А именно, использование ИИ в качестве оружия киберпреступниками и другими субъектами угроз. Это не теоретическая проблема, и даже генераторы изображений ИИ не застрахованы от злоупотреблений.
Что такое генераторы изображений AI? Как они работают?
Если вы когда-либо использовали генератор изображений ИИ, вы довольно хорошо представляете, для чего они нужны. Даже если вы никогда не использовали его, вы, скорее всего, сталкивались с изображениями, созданными искусственным интеллектом, в социальных сетях и других местах. Популярное сегодня программное обеспечение работает по очень простому принципу: пользователь вводит текст, а ИИ генерирует изображение на основе этого текста.
То, что происходит под капотом, намного сложнее. ИИ стал намного лучше в последние годы, и большинство генераторы преобразования текста в изображение в настоящее время существуют так называемые диффузионные модели. Это означает, что они «обучаются» в течение длительного периода времени на огромном количестве текста и изображений, что делает их творения такими впечатляющими и потрясающе реалистичными.
Что делает эти инструменты искусственного интеллекта еще более впечатляющими, так это тот факт, что они не просто изменяют существующие изображения или объединяют тысячи изображений в одно, но также создают новые, оригинальные изображения с нуля. Чем больше людей используют эти генераторы текста в изображения, тем больше информации они получают и тем лучше становятся их творения.
Некоторые из самых известных Генераторы изображений с искусственным интеллектом Dream by WOMBO, DALL-E, Stable Diffusion, Midjourney, DeepAI, Fotor и Craiyon. Новые появляются слева и справа, а технологические гиганты, в том числе Google, выпускают свои собственные, поэтому мы можем только догадываться о том, что принесет будущее.
4 способа, которыми субъекты угроз используют генераторы изображений ИИ в качестве оружия
Как и почти все технологии, генераторы изображений ИИ могут быть использованы злоумышленниками. На самом деле, они уже используются во всевозможных гнусных целях. Но какие именно виды мошенничества и кибератак может осуществить преступник с помощью генераторов изображений ИИ?
1. Социальная инженерия
Одна очевидная вещь, которую злоумышленники могут сделать с помощью генераторов изображений ИИ, — это заниматься социальной инженерией; например, создавать поддельные профили в социальных сетях. Некоторые из этих программ могут создавать невероятно реалистичные изображения, которые выглядят как настоящие фотографии реальных людей, и мошенники могут использовать эти поддельные профили в социальных сетях для ловли рыбы.
В отличие от фотографий реальных людей, фотографии, созданные ИИ, нельзя обнаружить с помощью обратного поиска изображений, и злоумышленнику не нужно работать с ограниченное количество фотографий для обмана своей цели — с помощью ИИ они могут создавать столько фотографий, сколько захотят, создавая убедительную онлайн-личность из царапать.
Но есть реальные примеры злоумышленников, использующих генераторы изображений ИИ для мошенничества. В апреле 2022 г. TechTalks Блогер Бен Дикинсон получил электронное письмо от юридической фирмы, в котором утверждалось, что он использовал изображение без разрешения. Юристы отправили по электронной почте уведомление о нарушении авторских прав DMCA, в котором сообщалось Дикинсону, что ему нужно установить обратную связь с их клиентом или удалить изображение.
Дикинсон погуглила юридическую фирму и нашла официальный сайт. Все это казалось совершенно законным; на сайте даже были фотографии 18 адвокатов с их биографиями и полномочиями. Но ничего из этого не было настоящим. Все фотографии были сгенерированы искусственным интеллектом, и были разосланы уведомления о предполагаемом нарушении авторских прав. кем-то, кто хочет вымогать обратные ссылки у ничего не подозревающих блоггеров, как часть неэтичного, черного шапка SEO (поисковая оптимизация) стратегия.
2. Мошенничество с благотворительностью
Когда в феврале 2023 года в Турции и Сирии произошло разрушительное землетрясение, миллионы людей во всем мире выразили свою солидарность с пострадавшими, пожертвовав одежду, еду и деньги.
Согласно отчету из BBC, мошенники воспользовались этим, используя ИИ для создания реалистичных изображений и сбора пожертвований. Один мошенник показал сгенерированные ИИ изображения руин в TikTok Live, прося у своих зрителей пожертвования. Другой опубликовал сгенерированное ИИ изображение греческого пожарного, спасающего раненого ребенка из руин, и попросил своих подписчиков сделать пожертвования в биткойнах.
Можно только представить, какие благотворительные мошенничества преступники будут проводить с помощью ИИ в будущем, но можно с уверенностью предположить, что они будут только лучше злоупотреблять этим программным обеспечением.
3. Дипфейки и дезинформация
Правительства, группы активистов и аналитические центры уже давно предупреждают о опасность дипфейков. Генераторы изображений ИИ добавляют к этой проблеме еще один компонент, учитывая, насколько реалистичны их творения. На самом деле, в Великобритании есть даже комедийное шоу под названием Deep Fake Neighbor Wars, которое находит юмор в неожиданных парах знаменитостей. Что помешает дезинформатору создать фейковый образ и продвигать его в социальных сетях с помощью ботов?
Это может иметь последствия в реальной жизни, как это почти произошло в марте 2022 года, когда в сети распространилось фейковое видео, на котором президент Украины Владимир Зеленский призывает украинцев сдаться. энергетический ядерный реактор. Но это только один пример, потому что возможности почти безграничны, и существует бесчисленное множество способов субъект угрозы может нанести ущерб чьей-либо репутации, продвигать ложную информацию или распространять фальшивые новости с помощью ИИ.
4. Рекламное мошенничество
ТрендМикро В 2022 году исследователи обнаружили, что мошенники использовали контент, созданный ИИ, для создания вводящей в заблуждение рекламы и продвижения сомнительных продуктов. Они создали изображения, которые предлагали популярным знаменитостям использовать определенные продукты, и запускали рекламные кампании на основе этих изображений.
Например, в одном объявлении о «возможности финансового консультирования» фигурировал миллиардер Илон Маск, основатель и генеральный директор Tesla. Конечно, Маск никогда не одобрял рассматриваемый продукт, но кадры, созданные искусственным интеллектом, создавали такое впечатление, предположительно заманивая ничего не подозревающих зрителей кликать по рекламе.
ИИ и кибербезопасность: сложная проблема, которую необходимо решить
В будущем государственным регулирующим органам и экспертам по кибербезопасности, вероятно, придется работать вместе, чтобы противостоять возникающей угрозе киберпреступности с использованием ИИ. Но как мы можем регулировать ИИ и защищать обычных людей, не подавляя инновации и не ограничивая цифровые свободы? Этот вопрос будет актуален в ближайшие годы.
Пока не будет ответа, делайте все возможное, чтобы защитить себя: тщательно проверяйте любую информацию, которую вы видите в Интернете, избегайте сомнительные веб-сайты, используйте безопасное программное обеспечение, обновляйте свои устройства и учитесь использовать искусственный интеллект для преимущество.