Независимо от того, используете ли вы ChatGPT или другого чат-бота, вам необходимо осознавать потенциальные угрозы, которые ставят под сомнение конфиденциальность ваших данных.

Чат-боты существуют уже много лет, но появление крупных языковых моделей, таких как ChatGPT и Google Bard, дало индустрии чат-ботов новую жизнь.

Миллионы людей сейчас используют чат-ботов с искусственным интеллектом по всему миру, но есть некоторые важные риски и проблемы конфиденциальности, о которых следует помнить, если вы хотите опробовать один из этих инструментов.

1. Сбор данных

Большинство людей не используют чат-ботов только для того, чтобы поздороваться. Современные чат-боты предназначены для обработки сложных вопросов и запросов и ответов на них, при этом пользователи часто включают в свои подсказки большой объем информации. Даже если вы задаете простой вопрос, вам не хочется, чтобы он выходил за рамки вашего разговора.

В соответствии с Раздел поддержки OpenAI, вы можете удалить журналы чата ChatGPT в любое время, и эти журналы будут окончательно удалены из систем OpenAI через 30 дней. Тем не менее, компания будет сохранять и проверять определенные журналы чатов, если они были помечены как вредные или неприемлемые.

instagram viewer

Другой популярный чат-бот с искусственным интеллектом, Клод, также отслеживает ваши предыдущие разговоры. Центр поддержки Anthropic утверждает, что Клод отслеживает «ваши подсказки и выходные данные в продукте, чтобы обеспечить вам стабильное взаимодействие с продуктом с течением времени в соответствии с вашими средствами контроля». Ты может удалить ваши разговоры с Клодом, поэтому он забудет, о чем вы говорили, но это не означает, что Anthropic немедленно удалит ваши журналы из своего системы.

Тут, конечно, возникает вопрос: сохраняются мои данные или нет? Используют ли мои данные ChatGPT или другие чат-боты?

Но на этом опасения не заканчиваются.

Как учится ChatGPT?

Чтобы предоставить информацию, большие языковые модели обучаются на огромных объемах данных. В соответствии с Научный фокусТолько ChatGPT-4 за период обучения получил 300 миллиардов слов информации. Это не взято прямо из нескольких энциклопедий. Скорее, разработчики чат-ботов используют массу информации из Интернета для обучения своих моделей. Это могут быть данные из книг, фильмов, статей, записей в Википедии, сообщений в блогах, комментариев и даже сайтов с обзорами.

Имейте в виду, что в зависимости от политики конфиденциальности разработчика чат-бота некоторые из вышеупомянутых источников не могут использоваться в обучении.

Многие критиковали ChatGPT, утверждая, что это своего рода кошмар с точки зрения конфиденциальности. ChatGPT нельзя доверять. Итак, почему это так?

Здесь все становится немного размытым. Если вы напрямую спросите ChatGPT-3.5, имеет ли он доступ к обзорам продуктов или комментариям к статьям, вы получите категорический отрицательный ответ. Как вы можете видеть на снимке экрана ниже, GPT-3.5 заявляет, что во время обучения ему не был предоставлен доступ к комментариям к статьям пользователей или обзорам продуктов.

Скорее, оно обучалось с использованием «разнообразного текста из Интернета, включая веб-сайты, книги, статьи и другие общедоступные письменные материалы вплоть до сентября 2021 года».

Но то же самое касается GPT-4?

Когда мы спросили GPT-4, нам сказали, что «OpenAI не использовала конкретные отзывы пользователей, личные данные или комментарии к статьям» в период обучения чат-бота. Кроме того, GPT-4 сообщил нам, что его ответы генерируются на основе «шаблонов данных, на которых [он] обучался, которые в основном состоят из книг, статей и другого текста из Интернета».

Когда мы продолжили расследование, GPT-4 заявила, что определенный контент социальных сетей действительно может быть включен в ее обучающие данные, но создатели всегда останутся анонимными. В GPT-4 конкретно указано, что «даже если контент с таких платформ, как Reddit, был частью данных обучения, [у него нет] доступа к конкретным комментариям, публикациям или любым данным, которые можно связать с конкретным человеком пользователь."

Другая примечательная часть ответа GPT-4 звучит следующим образом: «OpenAI не указал явно каждый используемый источник данных». Из Конечно, OpenAI было бы сложно перечислить источники объемом в 300 миллиардов слов, но это оставляет место для спекуляция.

В Статья Арс Техникабыло заявлено, что ChatGPT собирает «личную информацию, полученную без согласия». В той же статье была упомянута контекстуальная целостность, концепция, которая подразумевает использование чьей-либо информации только в том контексте, в котором она была изначально использовался. Если ChatGPT нарушит эту контекстную целостность, данные людей могут оказаться под угрозой.

Еще одним поводом для беспокойства является соответствие OpenAI требованиям Общий регламент защиты данных (GDPR). Это постановление Европейского Союза, направленное на защиту данных граждан. Различные европейские страны, включая Италию и Польшу, начали расследования в отношении ChatGPT из-за опасений по поводу соблюдения им GDPR. На короткое время ChatGPT был даже запрещен в Италии из-за опасений по поводу конфиденциальности.

В прошлом OpenAI угрожала выйти из ЕС из-за запланированных правил ИИ, но с тех пор это заявление было отозвано.

ChatGPT, возможно, является сегодня крупнейшим чат-ботом с искусственным интеллектом, но проблемы конфиденциальности чат-ботов не начинаются и не заканчиваются на этом провайдере. Если вы используете сомнительного чат-бота с невыразительной политикой конфиденциальности, ваши разговоры могут быть использованы не по назначению или в его обучающих данных может быть использована высококонфиденциальная информация.

2. Кража данных

Как и любой онлайн-инструмент или платформа, чат-боты уязвимы для киберпреступности. Даже если чат-бот сделал все возможное, чтобы защитить пользователей и их данные, всегда есть шанс, что сообразительному хакеру удастся проникнуть в его внутренние системы.

Если конкретная служба чат-бота хранила вашу конфиденциальную информацию, например данные об оплате вашего страхового взноса. подписка, контактные данные и т. п., они могут быть украдены и использованы в случае кибератаки. происходить.

Это особенно актуально, если вы используете менее безопасный чат-бот, разработчики которого не вложили средства в адекватную защиту безопасности. Мало того, что внутренние системы компании могут быть взломаны, но и ваша собственная учетная запись может быть скомпрометирована, если в ней нет предупреждений о входе в систему или уровня аутентификации.

Теперь, когда чат-боты с искусственным интеллектом настолько популярны, киберпреступники, естественно, стали использовать эту отрасль для своих мошенничеств. Поддельные веб-сайты и плагины ChatGPT стали серьезной проблемой с тех пор, как чат-бот OpenAI стал мейнстримом в мире. конец 2022 года, когда люди поддаются мошенничеству и раздают личную информацию под предлогом легитимности и доверять.

В марте 2023 года МУО сообщило о Поддельное расширение ChatGPT Chrome, ворующее логины Facebook. Плагин может использовать бэкдор Facebook для взлома высокопоставленных аккаунтов и кражи файлов cookie пользователей. Это лишь один пример многочисленных фальшивых сервисов ChatGPT, предназначенных для обмана ничего не подозревающих жертв.

3. Заражение вредоносным ПО

Если вы используете сомнительного чат-бота, не осознавая этого, вы можете обнаружить, что чат-бот предоставляет вам ссылки на вредоносные веб-сайты. Возможно, чат-бот предупредил вас о заманчивой раздаче или предоставил источник одного из своих утверждений. Если у операторов сервиса есть незаконные намерения, весь смысл платформы может заключаться в распространении вредоносного ПО и мошенничества через вредоносные ссылки.

Альтернативно, хакеры могут скомпрометировать законную службу чат-бота и использовать ее для распространения вредоносного ПО. Если этот чат-бот окажется очень людьми, то тысячи или даже миллионы пользователей подвергнутся воздействию этого вредоносного ПО. Поддельные приложения ChatGPT были даже в Apple App Store., поэтому лучше действовать осторожно.

В общем, никогда не следует нажимать на ссылки, которые предоставляет чат-бот, раньше. запустить его через веб-сайт проверки ссылок. Это может показаться раздражающим, но всегда лучше быть уверенным, что сайт, на который вы попадаете, не имеет вредоносного дизайна.

Кроме того, вам никогда не следует устанавливать плагины и расширения для чат-ботов, не проверив их легитимность. Проведите небольшое исследование приложения, чтобы узнать, получило ли оно хорошие отзывы, а также запустите поиск по разработчику приложения, чтобы узнать, не найдете ли вы что-нибудь сомнительное.

Чат-боты не застрахованы от проблем конфиденциальности

Как и большинство современных онлайн-инструментов, чат-боты неоднократно подвергались критике за возможные проблемы с безопасностью и конфиденциальностью. Будь то провайдер чат-ботов, срезающий углы, когда дело касается безопасности пользователей, или постоянные риски кибератак и мошенничества, Очень важно, чтобы вы знали, что ваш чат-бот собирает о вас и обеспечивает ли он адекватную безопасность. меры.