Все больше и больше компаний запрещают ChatGPT на рабочем месте, но что стоит за запретами?

Несмотря на его впечатляющие возможности, несколько крупных компаний запретили своим сотрудникам использовать ChatGPT.

В мае 2023 года Samsung запретила использование ChatGPT и других инструментов генеративного ИИ. Затем, в июне 2023 года, Австралийский банк Содружества последовал его примеру вместе с такими компаниями, как Amazon, Apple и JPMorgan Chase & Co. Некоторые больницы, юридические фирмы и государственные учреждения также запретили своим сотрудникам использовать ЧатGPT.

Итак, почему все больше и больше компаний запрещают ChatGPT? Вот пять основных причин.

1. Утечки данных

ChatGPT требует большого объема данных для обучения и эффективной работы.. Чат-бот был обучен с использованием огромного количества данных, полученных из Интернета, и продолжает обучаться.

В соответствии с Страница справки OpenAI, каждую часть данных, включая конфиденциальные сведения о клиентах, коммерческую тайну и конфиденциальную деловую информацию. информация, которую вы передаете чат-боту, может быть проверена его тренерами, которые могут использовать ваши данные для улучшения их системы.

instagram viewer

Многие компании подчиняются строгим правилам защиты данных. В результате они с осторожностью относятся к обмену личными данными с внешними организациями, поскольку это увеличивает риск утечки данных.

Кроме того, OpenAI не предлагает никакой надежной защиты данных и гарантии конфиденциальности. В марте 2023 г. OpenAI подтвержден ошибка, позволяющая некоторым пользователям просматривать заголовки чатов в историях других активных пользователей. Хотя эта ошибка была исправлена ​​и OpenAI запустила программу вознаграждения за обнаружение ошибок, компания не гарантирует сохранность и конфиденциальность данных пользователей.

Многие организации предпочитают запрещать сотрудникам использовать ChatGPT, чтобы избежать утечки данных. которые могут нанести ущерб их репутации, привести к финансовым потерям и подвергнуть клиентов и сотрудников опасности. риск.

2. Риски кибербезопасности

Пока неясно, действительно ли ChatGPT подвержен рискам кибербезопасности, существует вероятность того, что его развертывание внутри организации может привести к потенциальным уязвимостям, которыми могут воспользоваться злоумышленники.

Если компания интегрирует ChatGPT и в системе безопасности чат-бота есть уязвимости, злоумышленники могут использовать уязвимости и внедрять вредоносные коды. Кроме того, способность ChatGPT генерировать ответы, подобные человеческим, является золотым яйцом для фишинговых злоумышленников, которые могут над учетной записью или выдавать себя за законных лиц, чтобы обманом заставить сотрудников компании делиться конфиденциальной информация.

3. Создание персонализированных чат-ботов

Несмотря на свои инновационные функции, ChatGPT может предоставлять ложную и вводящую в заблуждение информацию. В результате многие компании создали чат-ботов с искусственным интеллектом для рабочих целей. Например, Commonwealth Bank of Australia попросил своих сотрудников вместо этого использовать Gen.ai, чат-бот с искусственным интеллектом (ИИ), который использует информацию CommBank для предоставления ответов.

Такие компании, как Samsung и Amazon, разработали передовые модели естественного языка, поэтому предприятия могут легко создавать и развертывать персонализированных чат-ботов на основе существующих расшифровок. С помощью этих внутренних чат-ботов вы можете предотвратить юридические и репутационные последствия, связанные с неправильным обращением с данными.

4. Отсутствие регулирования

В отраслях, где компании подпадают под действие нормативных протоколов и санкций, отсутствие у ChatGPT нормативных указаний является тревожным сигналом. Без четких нормативных условий, регулирующих использование ChatGPT, компании могут столкнуться с серьезными юридическими последствиями при использовании чат-бота AI для своих операций.

Кроме того, отсутствие регулирования может снизить подотчетность и прозрачность компании. Большинство компаний могут запутаться в объяснении Процессы принятия решений и меры безопасности языковой модели ИИ своим клиентам.

Компании ограничивают ChatGPT, опасаясь потенциальных нарушений законов о конфиденциальности и отраслевых правил.

5. Безответственное использование сотрудниками

Во многих компаниях некоторые сотрудники полагаются исключительно на ответы ChatGPT для создания контента и выполнения своих обязанностей. Это порождает лень в рабочей среде и препятствует творчеству и инновациям.

Зависимость от ИИ может помешать вашей способности мыслить критически. Это также может подорвать доверие к компании, поскольку ChatGPT часто предоставляет неточные и недостоверные данные.

Хотя ChatGPT является мощным инструментом, его использование для решения сложных запросов, требующих специальных знаний в предметной области, может нанести ущерб работе компании и ее эффективности. Некоторые сотрудники могут не помнить о проверке фактов и подтверждении ответов, предоставленных чат-ботом с искусственным интеллектом, рассматривая ответы как универсальное решение.

Чтобы смягчить подобные проблемы, компании накладывают запреты на чат-ботов, чтобы сотрудники могли сосредоточиться на своих задачах и предоставлять пользователям безошибочные решения.

Баны ChatGPT: лучше перестраховаться, чем сожалеть

Компании, запрещающие ChatGPT, указывают на риски кибербезопасности, этические стандарты сотрудников и проблемы с соблюдением нормативных требований. Неспособность ChatGPT решить эти проблемы, предоставляя отраслевые решения, свидетельствует о его ограничениях и необходимости дальнейшего развития.

Тем временем компании переходят на альтернативные чат-боты или просто запрещают сотрудникам использовать ChatGPT, чтобы избежать потенциальных утечек данных и ненадежных протоколов безопасности и нормативных требований, связанных с чат-бот.