Чат-боты и им подобные могут показаться хорошим развлечением, но они также полезны для хакеров. Вот почему нам всем нужно знать об угрозе безопасности, связанной с искусственным интеллектом.
ИИ значительно продвинулся за последние несколько лет. Сложные языковые модели позволяют создавать полноценные романы, кодировать базовые веб-сайты и анализировать математические задачи.
Хотя генеративный ИИ впечатляет, он также представляет угрозу безопасности. Некоторые люди просто используют чат-ботов, чтобы списывать на экзаменах, но другие используют их напрямую для киберпреступлений. Вот восемь причин, по которым эти проблемы сохранятся, а не только несмотря на достижения ИИ, но потому что из них тоже.
1. Чат-боты с искусственным интеллектом с открытым исходным кодом раскрывают внутренние коды
Все больше компаний, занимающихся ИИ, предоставляют системы с открытым исходным кодом. Они открыто делятся своими языковыми моделями, а не держат их закрытыми или проприетарными. Возьмите Мету в качестве примера. В отличие от Google, Microsoft и OpenAI, он позволяет миллионам пользователей получать доступ к своей языковой модели.
ЛАМА.Хотя коды с открытым исходным кодом могут способствовать развитию ИИ, это также рискованно. У OpenAI уже есть проблемы с управлением ChatGPT, его проприетарный чат-бот, так что представьте, что мошенники могут сделать со свободным программным обеспечением. Они полностью контролируют эти проекты.
Даже если Meta вдруг откажется от своей языковой модели, десятки других лабораторий ИИ уже выпустили свои коды. Давайте посмотрим на HuggingChat. Поскольку его разработчик HuggingFace гордится прозрачностью, он отображает свои наборы данных, языковую модель и предыдущие версии.
2. Джейлбрейк подсказывает Trick LLM
ИИ по своей сути аморален. Он не понимает, что правильно, а что нет — даже продвинутые системы следуют инструкциям по обучению, руководствам и наборам данных. Они просто распознают закономерности.
Для борьбы с незаконными действиями разработчики контролируют функциональность и ограничения, устанавливая ограничения. Системы искусственного интеллекта по-прежнему получают доступ к вредоносной информации. Но правила безопасности не позволяют им делиться ими с пользователями.
Давайте посмотрим на ChatGPT. Хотя он отвечает на общие вопросы о троянах, процесс их разработки не обсуждается.
Тем не менее, ограничения не являются надежными. Пользователи обходят ограничения, перефразируя подсказки, используя запутанный язык и составляя подробные инструкции.
Прочитайте ниже Подсказка о джейлбрейке ChatGPT. Он обманом заставляет ChatGPT использовать грубые выражения и делать необоснованные прогнозы — оба действия нарушают рекомендации OpenAI.
Вот ChatGPT со смелым, но ложным утверждением.
3. ИИ жертвует безопасностью ради универсальности
Разработчики ИИ отдают предпочтение универсальности, а не безопасности. Они тратят свои ресурсы на обучение платформ для выполнения более разнообразного круга задач, в конечном итоге снимая ограничения. В конце концов, на рынке приветствуются функциональные чат-боты.
Давайте сравнить ChatGPT и Bing Chat, например. Хотя Bing предлагает более сложную языковую модель, которая извлекает данные в режиме реального времени, пользователи по-прежнему предпочитают более универсальный вариант — ChatGPT. Жесткие ограничения Bing запрещают многие задачи. Кроме того, ChatGPT имеет гибкую платформу, которая выдает совершенно разные результаты в зависимости от ваших запросов.
Вот ролевая игра ChatGPT в качестве вымышленного персонажа.
А вот Bing Chat отказывается изображать из себя «аморального» человека.
Коды с открытым исходным кодом позволяют стартапам присоединиться к гонке ИИ. Они интегрируют их в свои приложения вместо того, чтобы создавать языковые модели с нуля, экономя огромные ресурсы. Даже независимые программисты экспериментируют с открытым исходным кодом.
Опять же, непатентованное программное обеспечение помогает развивать ИИ, но массовый выпуск плохо обученных, но сложных систем приносит больше вреда, чем пользы. Мошенники быстро воспользуются уязвимостями. Они могут даже обучать незащищенные инструменты ИИ выполнять незаконные действия.
Несмотря на эти риски, технологические компании будут продолжать выпускать нестабильные бета-версии платформ, управляемых искусственным интеллектом. Гонка ИИ вознаграждает за скорость. Скорее всего, они исправят ошибки позже, чем отложат запуск новых продуктов.
5. Генеративный ИИ имеет низкие барьеры для входа
Инструменты ИИ снижают входные барьеры для преступлений. Киберпреступники составляют спам-письма, пишут вредоносный код и создают фишинговые ссылки, используя их. Им даже не нужен технический опыт. Поскольку ИИ уже имеет доступ к обширным наборам данных, пользователям просто нужно обмануть его, чтобы получить вредоносную и опасную информацию.
OpenAI никогда не разрабатывал ChatGPT для незаконных действий. У него даже есть инструкции против них. Еще мошенники почти мгновенно получили вредоносное ПО, кодирующее ChatGPT и писать фишинговые письма.
Хотя OpenAI быстро решил проблему, он подчеркивает важность системного регулирования и управления рисками. ИИ взрослеет быстрее, чем кто-либо ожидал. Даже технологические лидеры опасаются, что эта сверхинтеллектуальная технология может нанести огромный ущерб, оказавшись не в тех руках.
6. ИИ все еще развивается
ИИ все еще развивается. Пока использование ИИ в кибернетике восходит к 1940 г., современные системы машинного обучения и языковые модели появились совсем недавно. Их нельзя сравнивать с первыми реализациями ИИ. Даже относительно продвинутые инструменты, такие как Siri и Alexa, меркнут по сравнению с чат-ботами на базе LLM.
Хотя экспериментальные функции могут быть инновационными, они также создают новые проблемы. Громкие сбои с технологиями машинного обучения варьируются от ошибочных результатов поиска Google до предвзятых чат-ботов, выплевывающих расовые оскорбления.
Конечно, разработчики могут исправить эти проблемы. Только учтите, что мошенники без колебаний воспользуются даже безобидными на первый взгляд ошибками — некоторые повреждения необратимы. Так что будьте осторожны при изучении новых платформ.
7. Многие еще не понимают ИИ
Хотя широкая публика имеет доступ к сложным языковым моделям и системам, лишь немногие знают, как они работают. Люди должны перестать относиться к ИИ как к игрушке. Те же чат-боты, которые генерируют мемы и отвечают на вопросы, также массово кодируют вирусы.
К сожалению, централизованное обучение ИИ нереально. Мировые технологические лидеры сосредоточены на выпуске систем на основе ИИ, а не на бесплатных образовательных ресурсах. В результате пользователи получают доступ к надежным, мощным инструментам, которые они едва понимают. Общественность не может идти в ногу с гонкой ИИ.
Возьмите ChatGPT в качестве примера. Киберпреступники злоупотребляют его популярностью, обманывая жертв шпионское ПО, замаскированное под приложения ChatGPT. Ни один из этих вариантов не исходит от OpenAI.
8. Хакеры в черной шляпе могут получить больше, чем хакеры в белой шляпе
Черные хакеры обычно имеют получить больше, чем этические хакеры. Да, тестирование на проникновение для мировых технологических лидеров хорошо оплачивается, но только процент специалистов по кибербезопасности получает эту работу. Большинство из них работают внештатно в Интернете. Платформы, такие как ХакерУан и Багкрауд заплатите несколько сотен баксов за распространенные ошибки.
Кроме того, мошенники зарабатывают десятки тысяч, используя ненадежность. Они могут шантажировать компании утечкой конфиденциальных данных или совершением кражи удостоверений личности с помощью украденных данных. Личная информация (PII).
Каждое учреждение, маленькое или большое, должно правильно внедрять системы ИИ. Вопреки распространенному мнению, хакеры выходят за рамки технологических стартапов и малого и среднего бизнеса. Некоторые из самых исторические утечки данных за последнее десятилетие вовлекают Facebook, Yahoo! и даже правительство США.
Защитите себя от угроз безопасности, связанных с искусственным интеллектом
Учитывая эти моменты, стоит ли вообще избегать ИИ? Конечно, нет. ИИ по своей сути аморален; все риски безопасности исходят от людей, которые их фактически используют. И они найдут способы использовать системы ИИ, независимо от того, насколько далеко они будут развиваться.
Вместо того чтобы бояться угроз кибербезопасности, связанных с искусственным интеллектом, поймите, как вы можете их предотвратить. Не беспокойтесь: простые меры безопасности имеют большое значение. Осторожность с сомнительными приложениями ИИ, избегание странных гиперссылок и скептическое отношение к контенту ИИ уже позволяют бороться с несколькими рисками.