Генеративный ИИ — это палка о двух концах, используемая для нападения и защиты от киберпреступности.
Генеративный искусственный интеллект (ИИ) в последнее время находится в центре внимания. Чат-бот ChatGPT на базе ИИ и другие системы с поддержкой обработки естественного языка, такие как VALL-E, сделали генеративный ИИ доступным для широкой публики и раскрыли его преимущества и вредные последствия.
Одна из основных проблем, связанных с генеративным ИИ, заключается в том, что его можно использовать для обновления вредоносных эксплойтов и разработки более изощренных кибератак. Итак, как хакеры используют генеративный ИИ в своих атаках и что это значит для будущего кибербезопасности?
Что такое генеративный ИИ и как он работает?
Как следует из названия, генеративный ИИ — это тип ИИ, способный генерировать новый контент — изображения, текст, аудио и синтетические данные.
Одним из известных примеров является ChatGPT, чат-бот на базе искусственного интеллекта, с которым вы можете вести человеческую беседу и получить несколько превосходных рекомендаций фильмов — если вы не можете придумать более значимой миссии для отправки ChatGPT на.
Позвольте дать вам одну-две идеи — вы могли бы заставить ChatGPT написать все эти сложные электронные письма для вас, использовать ChatGPT как инструмент перевода, и даже превратите ChatGPT в помощника по планированию здорового питания. В общем, за считанные секунды этот чат-бот может придумать, казалось бы, новый, убедительный контент и преподнести его в довольно политкорректной форме.
Однако генеративный ИИ пока не может быть творческим, как человек. Это связано с тем, что он использует неконтролируемые и полуконтролируемые алгоритмы машинного обучения для обработки огромного количества данных и создания пользовательских выходных данных.
Например, если вы хотите заказать картину, похожую на Пикассо, у генеративного ИИ, такого как DALL-E 2, вам придется ввести ваше описание в специально отведенном поле — скажем, «Герника Пикассо, но с котятами» — и задержитесь на пару секунды. За это время ИИ применит все специфические черты стиля художника, которые он изучил ранее, добавит котят на всякий случай, и придумать что-нибудь оригинальное — у нас получилась та картинка, которую вы чуть-чуть видите выше.
Как хакеры используют генеративный ИИ в своих атаках?
Плохих парней всегда привлекали хорошие алгоритмы. Поэтому неудивительно, что они используют генеративный ИИ для усиления своих атак. Используя методы машинного обучения, такие как обучение с подкреплением и генеративные состязательные сети, киберпреступники могут придумывать новые, более изощренные кибератаки, способные пробить стандартные киберзащиты.
Одним из примеров такого извращения является «передовой» чат-бот OpenAI. ChatGPT используется киберпреступниками для написания вредоносных программ. В начале ChatGPT казался забавой и игрой, но теперь он выставлен как одна из главных угроз безопасности и конфиденциальности. Если вам нравится общаться с ChatGPT, разумно следить за что киберпреступники могут делать с ChatGPT.
Короче говоря, ChatGPT и другие генеративные инструменты искусственного интеллекта упростили жизнь киберпреступникам и усложнили работу специалистов по безопасности. Некоторые из способов, которыми субъекты киберугроз используют ИИ в своих атаках, включают:
- Создание лучшего и более сложного вредоносного ПО: В руках хакеров генеративный ИИ может использоваться для создания труднообнаруживаемых штаммов вредоносных программ и выполнения атак. В сочетании с моделями искусственного интеллекта вредоносное ПО может маскировать свои намерения до тех пор, пока не выполнит свою злонамеренную цель.
- Написание персонализированных фишинговых писем с использованием искусственного интеллекта.: с помощью генеративного искусственного интеллекта фишинговые электронные письма больше не имеют контрольных признаков мошенничества, таких как неправильное написание, плохая грамматика и отсутствие контекста. Кроме того, с помощью ИИ, такого как ChatGPT, злоумышленники могут проводить фишинговые атаки с беспрецедентной скоростью и масштабом.
- Генерация глубоких поддельных данных: поскольку он может создавать убедительные имитации человеческой деятельности, например письма, речи и изображений — генеративный ИИ можно использовать в мошеннических действиях, таких как кража личных данных, финансовое мошенничество и дезинформация.
- Взлом CAPTCHA и подбор пароля: CAPTCHA, используемая сайтами и сетями для выявления ботов, пытающихся получить несанкционированный доступ, теперь может быть обойдена хакерами. Используя машинное обучение, они также могут выполнять другие повторяющиеся задачи, такие как подбор пароля и атаки методом грубой силы.
- Саботаж машинного обучения при обнаружении киберугроз: если система безопасности перегружена слишком большим количеством ложных срабатываний, хакер может застать ее врасплох реальной кибератакой.
Как мы можем бороться с угрозой генеративного ИИ?
По мере того, как кибератаки будут становиться все более изощренными, а их последствия все более серьезными, традиционные системы безопасности будут превращаться в вещи ушедшей эпохи. Благодаря способности учиться на предыдущих атаках и адаптироваться, ИИ является бесценным активом как для киберпреступников, так и для их противников.
Использование ИИ в кибербезопасности имеет ряд серьезных преимуществ, таких как более быстрое обнаружение угроз, идентификация угроз и реагирование на угрозы, поэтому правильным ответом кажется борьба с огнем. Прежде чем киберпреступники узнают, как наносить сокрушительные удары по отдельным лицам и компаниям по всему миру. Во всем мире специалисты по кибербезопасности должны научить свои системы на базе ИИ защищать себя от этих угроз. атаки.
Однако не все зависит от ИИ. В конце концов, мы также можем усилить нашу собственную безопасность и конфиденциальность с помощью проверенных методов, таких как многофакторная аутентификация (MFA), биометрическая технология, использование менеджера паролей, использование лучшие зашифрованные инструменты для совместной работы, и старый добрый здравый смысл.
Борьба с ИИ с помощью ИИ
Итак, станем ли мы свидетелями войн за кибербезопасность ИИ в ближайшем будущем? Ну, мы надеемся, что нет. Однако по мере того, как ИИ продолжает развиваться и становится доступным для всех — как для киберпреступников, так и для специалистов по кибербезопасности, — в ближайшие годы роль ИИ и МО будет возрастать.