ChatGPT может быть полезным инструментом, независимо от того, хорошие у вас намерения или плохие. Это означает, что если вы хотите заниматься мошенничеством, ChatGPT может помочь.

Хотя многие цифровые аборигены хвалят ChatGPT, некоторые опасаются, что он приносит больше вреда, чем пользы. Новостные сообщения о мошенниках, угоняющих ИИ, циркулируют в Интернете, усиливая беспокойство среди скептиков. Они даже считают ChatGPT опасным инструментом.

Чат-боты с искусственным интеллектом не идеальны, но вам не нужно полностью их избегать. Вот все, что вы должны знать о том, как мошенники злоупотребляют ChatGPT, и что вы можете сделать, чтобы остановить их.

Будет ли ChatGPT подвергать риску вашу личную информацию?

Большинство опасений по поводу безопасности интерфейса ChatGPT связаны со слухами и непроверенными отчетами. В конце концов, платформа была запущена только в ноябре 2022 года. Для новых пользователей естественно неправильное представление о конфиденциальности и безопасности незнакомых инструментов.

В соответствии с Условия использования OpenAI, вот как ChatGPT обрабатывает следующие данные:

Личная информация

Ходят слухи, что ChatGPT продает личная информация (ПИИ).

Платформа была запущена OpenAI, авторитетной исследовательской лабораторией ИИ, финансируемой технологическими инвесторами, такими как Microsoft и Илон Маск. ChatGPT должен использовать данные клиентов только для предоставления услуг, указанных в политика конфиденциальности.

Более того, ChatGPT запрашивает минимум информации. Вы можете создать учетную запись, указав только свое имя и адрес электронной почты.

Разговоры

OpenAI обеспечивает безопасность разговоров ChatGPT, но оставляет за собой право отслеживать их. Инструкторы по ИИ постоянно ищут области для улучшения. Поскольку платформа содержит обширные, но ограниченные наборы данных, устранение ошибок, багов и уязвимостей требует общесистемных обновлений.

Однако OpenAI может отслеживать конвои только в исследовательских целях. Распространение или продажа их третьим лицам нарушает собственные условия использования.

Публичная информация

Согласно BBC, OpenAI обучил ChaGPT на 300 миллиардах слов. Он собирает данные с общедоступных веб-страниц, таких как платформы социальных сетей, бизнес-сайты и разделы комментариев. Если вы не вышли из сети и не стерли свой цифровой след, у ChatGPT, скорее всего, есть ваша информация.

Какие угрозы безопасности представляет ChatGPT?

Хотя ChatGPT по своей сути не опасен, платформа по-прежнему представляет угрозу безопасности. Мошенники могут обходить ограничения для проведения различных кибератак.

1. Убедительные фишинговые письма

Вместо того, чтобы часами писать электронные письма, мошенники используют ChatGPT. Это быстро и точно. Усовершенствованные языковые модели (такие как GPT-3.5 и GPT-4) могут создавать сотни связных и убедительных фишинговых писем за считанные минуты. Они даже принимают уникальные тона и стили письма.

Поскольку ChatGPT затрудняет обнаружение попыток взлома, проявляйте особую осторожность, прежде чем отвечать на электронные письма. Как правило, избегайте разглашения информации. Обратите внимание, что законные компании и организации редко запрашивают конфиденциальную информацию PII через случайные электронные письма.

Научитесь обнаруживать попытки взлома. Несмотря на то, что провайдеры электронной почты фильтруют спам-сообщения, некоторые хитрые сообщения могут пропасть. Вы все равно должны знать, как выглядят фишинговые сообщения.

2. Кража данных

ChatGPT использует LLM с открытым исходным кодом, который любой может модифицировать. Программисты, владеющие большими языковыми моделями (LLM) и машинным обучением, часто интегрируют предварительно обученные модели ИИ в свои устаревшие системы. Обучение ИИ новым наборам данных изменяет функциональность. Например, ChatGPT становится экспертом по псевдофитнесу, если вы даете ему рецепты и упражнения.

Несмотря на удобство совместной работы, открытый исходный код оставляет технологии уязвимыми для злоупотреблений. Опытные преступники уже используют ChatGPT. Они обучают его на больших объемах украденных данных, превращая платформу в личную базу данных для мошенничества.

Помните: вы не можете контролировать действия мошенников. Лучший подход — связаться с Федеральной торговой комиссией (FTC), как только вы заметите признаки кражи личных данных.

3. Производство вредоносных программ

ChatGPT пишет полезные фрагменты кода на разных языках программирования. Большинство образцов требуют минимальных изменений для правильной работы, особенно если вы структурируете краткую подсказку. Вы можете использовать эту функцию для разработки приложений и сайтов.

Поскольку ChatGPT был обучен на миллиардах наборов данных, он также знает незаконные методы, такие как разработка вредоносных программ и вирусов. OpenAI запрещает чат-ботам писать вредоносные коды. Но мошенники обходят эти ограничения, реструктурируя подсказки и задавая точные вопросы.

На фото ниже видно, что ChatGPT отклоняет написание вредоносного кода.

Между тем, на приведенном ниже фото показано, что ChatGPT предоставит вам вредную информацию, если вы правильно сформулируете свои подсказки.

4. Кража интеллектуальной собственности

Неэтичные блоггеры раскручивают контент с помощью ChatGPT. Поскольку платформа работает на продвинутых LLM, она может быстро перефразировать тысячи слов и избежать тегов плагиата.

ChatGPT перефразировал приведенный ниже текст за 10 секунд.

Конечно, спиннинг до сих пор классифицируется как плагиат. Перефразированные статьи об искусственном интеллекте иногда ранжируются случайно, но Google обычно предпочитает оригинальный контент из авторитетных источников. Дешевые трюки и SEO-хаки не могут сравниться с высококачественным, вечнозеленым текстом.

Кроме того, Google ежегодно выпускает несколько основных обновлений. Вскоре он сосредоточится на удалении ленивых, неоригинальных материалов, созданных ИИ, из поисковой выдачи.

5. Создание неэтичных ответов

Языковые модели ИИ не имеют предубеждений. Они предоставляют ответы, анализируя запросы пользователей и извлекая данные из своей существующей базы данных.

Возьмите ChatGPT в качестве примера. Когда вы отправляете запрос, он отвечает на основе наборов данных, которые OpenAI использует для обучения.

В то время как политики контента ChatGPT блокируют неуместные запросы, пользователи обходят их с помощью запросов на джейлбрейк. Они кормят его точными, умными инструкциями. ChatGPT выдает приведенный ниже ответ, если вы попросите его изобразить психопатического вымышленного персонажа.

Хорошая новость OpenAI не потерял контроль над ChatGPT. Его постоянные усилия по ужесточению ограничений не позволяют ChatGPT давать неэтичные ответы независимо от действий пользователя. Взлом будет не таким простым.

6. Услуга за услугу

Быстрый рост новых, незнакомых технологий, таких как ChatGPT, создает возможности для атак «услуга за услугу». Это тактика социальной инженерии, когда мошенники заманивают жертв поддельными предложениями.

Большинство людей еще не изучили ChatGPT. И хакеры используют эту путаницу, распространяя вводящие в заблуждение рекламные акции, электронные письма и объявления.

Самые громкие случаи связаны с поддельными приложениями. Новые пользователи не знают, что они могут получить доступ к ChatGPT только через OpenAI. Они неосознанно загружают спам-программы и расширения.

Большинство просто хотят загрузить приложение, но другие крадут личную информацию. Мошенники заражают их вредоносным ПО и фишинговыми ссылками. Например, в марте 2023 г. Поддельное расширение ChatGPT для Chrome украло учетные данные Facebook от 2000+ пользователей ежедневно.

Чтобы бороться с попытками услуги «услуга за услугу», избегайте сторонних приложений. OpenAI никогда не выпускал авторизованных мобильных приложений, компьютерных программ или расширений браузера для ChatGPT. Все, что утверждается как таковое, является мошенничеством.

Используйте ChatGPT безопасно и ответственно

ChatGPT сам по себе не представляет угрозы. В системе есть уязвимости, но это не поставит под угрозу ваши данные. Вместо того, чтобы бояться технологий искусственного интеллекта, изучите, как мошенники используют их в тактике социальной инженерии. Таким образом, вы можете заранее защитить себя.

Но если вы все еще сомневаетесь в ChatGPT, попробуйте Bing. Новый Bing оснащен чат-ботом на основе искусственного интеллекта, который работает на GPT-4, извлекает данные из Интернета и соблюдает строгие меры безопасности. Возможно, вы найдете его более подходящим для ваших нужд.