С миллионами пользователей ChatGPT вы можете задаться вопросом, что OpenAI делает со всеми своими разговорами. Он постоянно анализирует то, о чем вы говорите с ChatGPT?

Ответ на этот вопрос: да, ChatGPT учится на пользовательском вводе, но не так, как думает большинство людей. Вот подробное руководство, объясняющее, почему ChatGPT отслеживает разговоры, как он их использует и не скомпрометирована ли ваша безопасность.

Помнит ли ChatGPT разговоры?

ChatGPT не принимает подсказки за чистую монету. Он использует контекстную память, чтобы запоминать и ссылаться на предыдущие входные данные, обеспечивая релевантные, последовательные ответы.

Возьмем приведенный ниже разговор в качестве примера. Когда мы попросили ChatGPT поделиться идеями рецептов, он учел наше предыдущее сообщение об аллергии на арахис.

Вот безопасный рецепт ChatGPT.

Контекстная память также позволяет ИИ выполнять многоэтапные задачи. На изображении ниже показано, что ChatGPT остается в образе даже после подачи новой подсказки.

ChatGPT может запоминать десятки инструкций в разговорах. Его вывод на самом деле становится более точным и точным, когда вы предоставляете больше контекста. Просто убедитесь, что вы четко объясняете свои инструкции.

Вы также должны управлять своими ожиданиями, потому что контекстуальная память ChatGPT все еще имеет ограничения.

Разговоры ChatGPT имеют ограниченный объем памяти

Контекстная память конечна. ChatGPT имеет ограниченные аппаратные ресурсы, поэтому запоминает только определенные моменты текущих разговоров. Платформа забывает более ранние подсказки, как только вы достигаете объема памяти.

В этом разговоре мы поручили ChatGPT отыграть вымышленного персонажа по имени Томи.

Он начал отвечать на запросы как Tomie, а не ChatGPT.

Хотя наш запрос сработал, ChatGPT сломал символ после получения подсказки из 1000 слов.

OpenAI никогда не раскрывала точных ограничений ChatGPT, но, по слухам, он может обрабатывать только 3000 слов за раз. В нашем эксперименте ChatGPT дал сбой уже после 2800+ слов.

Вы можете разбить свои подсказки на два набора по 1500 слов, но ChatGPT, скорее всего, не сохранит все ваши инструкции. Просто начните другой чат. В противном случае вам придется повторять определенные детали несколько раз на протяжении всего разговора.

ChatGPT запоминает только те входные данные, которые относятся к теме

ChatGPT использует контекстную память для повышения точности вывода. Он не просто сохраняет информацию ради ее сбора. Платформа почти автоматически забывает ненужные детали, даже если вы далеки от лимита токенов.

На изображении ниже мы пытаемся запутать ИИ различными бессвязными, не относящимися к делу инструкциями.

Мы сохранили общий ввод менее 100 слов, но ChatGPT все еще забыл нашу первую инструкцию. Это быстро сломало характер.

Между тем, ChatGPT продолжал ролевые игры во время этого разговора, потому что мы задавали только вопросы, относящиеся к теме.

В идеале каждый диалог должен следовать определенной теме, чтобы поддерживать точные и актуальные результаты. Вы по-прежнему можете вводить несколько инструкций одновременно. Просто убедитесь, что они соответствуют общей теме, иначе ChatGPT может отбросить инструкции, которые сочтет неуместными.

Инструкции по обучению превосходят ввод пользователя

ChatGPT всегда будет отдавать предпочтение заранее определенным инструкциям, а не пользовательскому вводу. Он останавливает незаконную деятельность с помощью ограничений. Платформа отклоняет любое приглашение, которое она считает опасным или наносящим ущерб другим.

Возьмем в качестве примера запросы на ролевую игру. Хотя они отменяют определенные ограничения на язык и формулировку, вы не можете использовать их для совершения незаконных действий.

Конечно, не все ограничения разумны. Если жесткие инструкции затрудняют выполнение определенных задач, продолжайте переписывать свои подсказки. Выбор слов и тон сильно влияют на результат. Вы можете черпать вдохновение из самых эффективные, подробные подсказки на GitHub.

Как OpenAI изучает разговоры пользователей?

Контекстная память применяется только к вашему текущему разговору. Архитектура ChatGPT без сохранения состояния рассматривает разговоры как независимые экземпляры; он не может ссылаться на информацию из предыдущих. Запуск новых чатов всегда сбрасывает состояние модели.

Это не означает, что ChatGPT мгновенно сбрасывает разговоры пользователей. Условия использования OpenAI заявляют, что компания собирает входные данные от потребительских сервисов, не использующих API, таких как ChatGPT и Dall-E. Вы даже можете запросить копии своей истории чата.

В то время как ChatGPT имеет свободный доступ к разговорам, Политика конфиденциальности OpenAI запрещает действия, которые могут скомпрометировать пользователей. Тренеры могут использовать ваши данные только для исследования и разработки продукта.

Разработчики ищут лазейки

OpenAI просеивает разговоры на предмет лазеек. Он анализирует случаи, когда ChatGPT демонстрирует предвзятость данных, создает вредоносную информацию или помогает совершать незаконные действия. Этические принципы платформы постоянно обновляются.

Например, первые версии ChatGPT открыто ответил на вопросы о кодировании вредоносного ПО или создание взрывчатых веществ. Эти инциденты заставили пользователей почувствовать себя OpenAI не контролирует ChatGPT. Чтобы восстановить доверие общественности, чат-бот научился отклонять любой вопрос, который может идти вразрез с его принципами.

Тренеры собирают и анализируют данные

ChatGPT использует контролируемые методы обучения. Хотя платформа запоминает все входные данные, она не учится на них в режиме реального времени. Тренеры OpenAI сначала собирают и анализируют их. Это гарантирует, что ChatGPT никогда не будет поглощать вредную и вредную информацию, которую он получает.

Обучение с учителем требует больше времени и энергии, чем методы без учителя. Однако уже доказано, что оставлять ИИ только для анализа входных данных вредно.

Возьмем, к примеру, Microsoft Tay — один из раз машинное обучение пошло не так. Поскольку он постоянно анализировал твиты без руководства разработчиков, злонамеренные пользователи в конечном итоге научили его выплевывать расистские стереотипные мнения.

Разработчики постоянно остерегаются предубеждений

Несколько внешние факторы вызывают предубеждения в ИИ. Бессознательные предубеждения могут возникать из-за различий в моделях обучения, ошибок набора данных и плохо построенных ограничений. Вы заметите их в различных приложениях ИИ.

К счастью, ChatGPT никогда не демонстрировал дискриминационных или расовых предубеждений. Возможно, самое сильное предубеждение, которое заметили пользователи, — это склонность ChatGPT к левым идеологиям. Нью-Йорк Пост отчет. Платформа более открыто пишет на либеральные, чем на консервативные темы.

Чтобы устранить эти предубеждения, OpenAI вообще запретил ChatGPT предоставлять политическую информацию. Он может отвечать только на общие факты.

Модераторы проверяют производительность ChatGPT

Пользователи могут оставлять отзывы о выходных данных ChatGPT. Вы найдете кнопки «палец вверх» и «палец вниз» справа от каждого ответа. Первое указывает на положительную реакцию. После нажатия кнопки «Нравится» или «Не нравится» появится окно, в котором вы можете отправить отзыв своими словами.

Система обратной связи полезна. Просто дайте OpenAI немного времени, чтобы просмотреть комментарии. Миллионы пользователей регулярно комментируют ChatGPT — его разработчики, вероятно, уделяют первостепенное внимание серьезным случаям предвзятости и созданию вредных результатов.

Безопасны ли ваши разговоры в ChatGPT?

Учитывая политику конфиденциальности OpenAI, вы можете быть уверены, что ваши данные останутся в безопасности. ChatGPT использует разговоры только для обучения данным. Его разработчики изучают собранную информацию, чтобы повысить точность и надежность вывода, а не воровать личные данные.

При этом ни одна система ИИ не идеальна. ChatGPT по своей сути не является предвзятым, но злоумышленники все же могут использовать его уязвимости, например, ошибки набора данных, небрежное обучение и лазейки в системе безопасности. Чтобы защитить себя, научитесь бороться с этими рисками.