Сотрудники Samsung случайно утекли данные частной компании через ChatGPT — пример того, почему искусственный интеллект представляет такую большую угрозу для вашей конфиденциальности и безопасности.
ChatGPT стал серьезной проблемой безопасности и конфиденциальности, потому что слишком многие из нас рассеянно делятся в нем своей личной информацией. ChatGPT регистрирует каждый ваш разговор с ним, включая любые личные данные, которыми вы делитесь. Тем не менее, вы бы этого не знали, если бы не изучили политику конфиденциальности OpenAI, условия обслуживания и страницу часто задаваемых вопросов, чтобы собрать все воедино.
Утечка собственной информации достаточно опасна, но, учитывая, что огромные компании используют ChatGPT для обработки информации каждый день, это может стать началом катастрофы с утечкой данных.
Samsung слил конфиденциальную информацию через ChatGPT
В соответствии с Гизмодо, сотрудники Samsung трижды по ошибке сливали конфиденциальную информацию через ChatGPT в течение 20 дней. Это всего лишь один пример того, как легко компаниям скомпрометировать личную информацию.
ChatGPT подвергается публичной критике из-за проблем с конфиденциальностью, поэтому Samsung допустила это, что является серьезным упущением. В некоторых странах ChatGPT даже запрещен. чтобы защитить своих граждан, пока это не улучшит его конфиденциальность, поэтому вы могли бы подумать, что компании будут более осторожны в отношении того, как их сотрудники используют его.
К счастью, кажется, что клиенты Samsung в безопасности — по крайней мере, на данный момент. Утечка данных относится только к внутренней бизнес-практике, некоторому проприетарному коду, который они устраняли, и протоколу собрания команды, предоставленному сотрудниками. Тем не менее, персоналу было бы так же легко утечь личную информацию потребителей, и это только вопрос времени, когда мы увидим, что другая компания сделает именно это. Если это произойдет, мы можем ожидать увидеть массовый рост числа фишинговых атак и кража личных данных.
Здесь есть еще один уровень риска. Если сотрудники используют ChatGPT для поиска ошибок, как они это сделали с утечкой Samsung, код, который они вводят в окно чата, также будет храниться на серверах OpenAI. Это может привести к нарушениям, которые окажут огромное влияние на компании, устраняющие неполадки с невыпущенными продуктами и программами. Мы можем даже столкнуться с утечкой такой информации, как неопубликованные бизнес-планы, будущие версии и прототипы, что приведет к огромным потерям доходов.
Как происходят утечки данных ChatGPT?
Политика конфиденциальности ChatGPT дает понять, что записывает ваши разговоры и делится журналами с другими компаниями и своими тренерами по ИИ. Когда кто-то (например, сотрудник Samsung) вводит в диалоговое окно конфиденциальную информацию, она записывается и сохраняется на серверах ChatGPT.
Маловероятно, что сотрудники сделали это нарочно, но это самое страшное. Большинство утечек данных вызвано человеческим фактором. Часто это происходит потому, что компания не информирует своих сотрудников о рисках для конфиденциальности, связанных с использованием таких инструментов, как ИИ.
Например, если они вставят в чат большой список контактов и попросят ИИ изолировать номера телефонов клиентов от данных, ChatGPT сохранит эти имена и номера телефонов в своих записях. Ваша личная информация находится во власти компаний, с которыми вы ею не делились, которые могут не защищать ее достаточно хорошо, чтобы обезопасить вас. Есть несколько вещей, которые вы можете сделать, чтобы обезопасить себя после утечки данных, но предприятия должны нести ответственность за предотвращение утечек.
Мораль истории: не рассказывайте ChatGPT свои секреты
Вы можете безопасно использовать ChatGPT для сотни различных задач, но организация конфиденциальной информации не входит в их число. Вы должны быть осторожны, чтобы не вводить что-либо личное в окно чата, включая ваше имя, адрес, адрес электронной почты и номер телефона. Эту ошибку легко совершить, поэтому вам следует внимательно проверять подсказки, чтобы убедиться, что ничего не произошло случайно.
Утечка Samsung показывает нам, насколько реален риск утечки данных, связанной с ChatGPT. К сожалению, мы увидим больше таких ошибок, возможно, с гораздо большими последствиями, поскольку ИИ становится основной частью большинства бизнес-процессов.