Запуск ChatGPT от OpenAI сопровождался ажиотажем, который может сравниться лишь с несколькими технологическими продуктами в истории Интернета.
В то время как многие люди в восторге от этой новой услуги искусственного интеллекта, волнение, которое испытывали другие, с тех пор превратилось в опасения и даже страхи. Студенты уже обманывают его, и многие профессора обнаруживают эссе и задания, написанные чат-ботом ИИ. Специалисты по безопасности высказывают опасения, что мошенники и злоумышленники используют его для написания фишинговых писем и создания вредоносных программ.
Итак, со всеми этими опасениями, не теряет ли OpenAI контроль над одним из самых мощных чат-ботов с искусственным интеллектом в настоящее время? Давай выясним.
Понимание того, как работает ChatGPT
Прежде чем мы сможем получить четкое представление о том, насколько OpenAI теряет контроль над ChatGPT, мы должны сначала понять как работает ChatGPT.
В двух словах, ChatGPT обучается с использованием огромного набора данных, полученных из разных уголков Интернета. Обучающие данные ChatGPT включают энциклопедии, научные статьи, интернет-форумы, новостные веб-сайты и хранилища знаний, такие как Википедия. По сути, он питается огромным объемом данных, доступных во всемирной паутине.
По мере того, как он просматривает Интернет, он сопоставляет научные знания, советы по здоровью, религиозные тексты и все полезные данные, о которых вы только можете подумать. Но он также просеивает массу негативной информации: ругательства, NSFW и контент для взрослых, информацию о том, как создавать вредоносное ПО, и множество плохих вещей, которые вы можете найти в Интернете.
Не существует надежного способа гарантировать, что ChatGPT учится только на положительной информации, отбрасывая плохую. Технически это нецелесообразно делать в больших масштабах, особенно для ИИ, такого как ChatGPT, который должен обучаться на таком большом количестве данных. Кроме того, некоторая информация может быть использована как в добрых, так и во злых целях, и ChatGPT не сможет узнать ее намерения, если только она не будет помещена в более широкий контекст.
Итак, с самого начала у вас есть ИИ, способный на «добро и зло». Таким образом, OpenAI несет ответственность за то, чтобы «злая» сторона ChatGPT не использовалась для неэтичных целей. Вопрос в том; Достаточно ли OpenAI делает для того, чтобы ChatGPT оставался максимально этичным? Или OpenAI потерял контроль над ChatGPT?
ChatGPT слишком мощный для собственного блага?
В первые дни существования ChatGPT вы могли заставить чат-бота создавать руководства по изготовлению бомб, если хорошо попросите. Инструкции по созданию вредоносных программ или написанию идеального мошеннического электронного письма также были на картинке.
Однако, как только OpenAI осознала эти этические проблемы, компания принялась за введение правил, запрещающих чат-боту генерировать ответы, пропагандирующие незаконные, спорные или неэтичные действия. Например, последняя версия ChatGPT отказывается отвечать на любые прямые запросы о том, как сделать бомбу или как списать на экзамене.
К сожалению, OpenAI может предоставить только временное решение проблемы. Вместо того, чтобы создавать жесткие элементы управления на уровне GPT-3, чтобы предотвратить негативное использование ChatGPT, OpenAI, похоже, сосредоточен на обучении чат-бота, чтобы он выглядел этичным. Такой подход не лишает ChatGPT способности отвечать на вопросы, скажем, о списывании на экзаменах — он просто учит чат-бота «отказываться отвечать».
Таким образом, если кто-то формулирует свои подсказки по-другому, применяя приемы взлома ChatGPT, обойти эти временные ограничения будет невероятно легко. Если вы не знакомы с этой концепцией, джейлбрейки ChatGPT — это тщательно сформулированные подсказки, позволяющие ChatGPT игнорировать собственные правила.
Взгляните на несколько примеров ниже. Если вы спросите ChatGPT, как списывать на экзаменах, он не даст никакого полезного ответа.
Но если вы сделаете джейлбрейк ChatGPT, используя специально созданные подсказки, он даст вам советы по списыванию на экзамене, используя скрытые заметки.
Вот еще один пример: мы задали ванильному ChatGPT неэтичный вопрос, и меры безопасности OpenAI помешали ему ответить.
Но когда мы спросили наш взломанный экземпляр чат-бота с искусственным интеллектом, мы получили несколько ответов в стиле серийного убийцы.
Он даже написал классическую аферу с электронной почтой нигерийского принца, когда его спросили.
Джейлбрейк почти полностью сводит на нет любые меры безопасности, которые ввела OpenAI, подчеркивая, что у компании может не быть надежного способа держать под контролем своего чат-бота с искусственным интеллектом.
Мы не включали наши взломанные подсказки в наши примеры, чтобы избежать неэтичных действий.
Что ждет ChatGPT в будущем?
В идеале OpenAI хочет закрыть как можно больше этических лазеек, чтобы предотвратить ChatGPT не станет угрозой кибербезопасности. Тем не менее, для каждой используемой защиты ChatGPT становится немного менее ценным. Это дилемма.
Например, меры защиты от описания насильственных действий могут снизить способность ChatGPT написать роман, связанный с местом преступления. По мере того, как OpenAI наращивает меры безопасности, он неизбежно жертвует частью своих возможностей. Вот почему ChatGPT претерпел значительное снижение функциональности после того, как OpenAI возобновил усилия по более строгой модерации.
Но сколько еще возможностей ChatGPT готов пожертвовать OpenAI, чтобы сделать чат-бота более безопасным? Все это тесно связано с давним убеждением в сообществе ИИ — большие языковые модели, такие как ChatGPT, как известно, трудно контролировать даже их собственным создателям.
Может ли OpenAI поставить ChatGPT под контроль?
На данный момент у OpenAI, похоже, нет четкого решения, позволяющего избежать неэтичного использования своего инструмента. Обеспечение этического использования ChatGPT — игра в кошки-мышки. В то время как OpenAI раскрывает способы, которыми люди используют систему для игры, ее пользователи также постоянно возиться и исследовать систему, чтобы найти новые творческие способы заставить ChatGPT делать то, что не предполагается делать.
Итак, найдет ли OpenAI надежное долгосрочное решение этой проблемы? Время покажет.