Генеративный ИИ великолепен, но он всегда представляет свою информацию с абсолютной достоверностью. Что прекрасно, если это не галлюцинация правды.
Галлюцинации искусственного интеллекта (ИИ) звучат озадачивающе. Вы, наверное, думаете: «Разве галлюцинации — не человеческий феномен?» Ну да, раньше это был исключительно человеческий явление, пока ИИ не начал демонстрировать человеческие характеристики, такие как распознавание лиц, самообучение и речь. признание.
К сожалению, ИИ приобрел некоторые негативные черты, в том числе галлюцинации. Итак, галлюцинации ИИ похожи на галлюцинации людей?
Что такое ИИ-галлюцинация?
Галлюцинация искусственного интеллекта возникает, когда модель ИИ генерирует результаты, отличные от ожидаемых. Обратите внимание, что некоторые модели ИИ обучены намеренно генерировать выходные данные, не связанные с какими-либо реальными входными данными (данными).
Например, лучшие генераторы искусственного интеллекта с искусственным интеллектом, такие как DALL-E 2, могут творчески генерировать новые изображения, которые мы можем пометить как «галлюцинации», поскольку они не основаны на реальных данных.
Галлюцинации ИИ в моделях обработки больших языков
Давайте рассмотрим, как будут выглядеть галлюцинации ИИ в большой модели обработки языка, такой как ChatGPT. Галлюцинация ChatGPT приведет к тому, что бот предоставит вам неверный факт с некоторым утверждением, так что вы, естественно, примете такие факты за правду.
Проще говоря, это выдуманные заявления чат-бота с искусственным интеллектом. Вот пример:
При дальнейшем запросе ChatGPT выдал следующее:
Галлюцинации ИИ в компьютерном зрении
Давайте рассмотрим другую область ИИ, которая может испытывать галлюцинации ИИ: Компьютерное зрение. Тест ниже показывает монтаж 4x4 с двумя очень похожими объектами. Изображения представляют собой смесь картофельных чипсов барбекю и листьев.
Задача состоит в том, чтобы выбрать картофельные чипсы, не задев ни одного листа в монтаже. Это изображение может показаться компьютеру сложным, и он может не отличить картофельные чипсы барбекю от листьев.
Вот еще один монтаж со смесью изображений пуделя и булочки из свиной нити. Компьютер, скорее всего, не сможет их различить, поэтому изображения смешаются.
Почему возникают галлюцинации ИИ?
Галлюцинации ИИ могут возникать из-за враждебных примеров — входных данных, которые обманом заставляют приложение ИИ неправильно их классифицировать. Например, при обучении ИИ-приложений разработчики используют данные (изображение, текст или другие); если данные изменены или искажены, приложение иначе интерпретирует ввод, давая неверный вывод.
Напротив, человек все еще может точно распознавать и идентифицировать данные, несмотря на искажения. Мы можем назвать это здравым смыслом — человеческим качеством, которым ИИ еще не обладает. Посмотрите, как обманывают ИИ состязательными примерами в этом видео:
Что касается больших языковых моделей, таких как ChatGPT и его альтернативы, галлюцинации могут возникать из-за неточного декодирования с преобразователя (модель машинного обучения).
В ИИ преобразователь — это модель глубокого обучения, которая использует самовнимание (семантические отношения между словами в предложение) для создания текста, похожего на то, что написал бы человек, используя кодер-декодер (ввод-вывод) последовательность.
Таким образом, преобразователи, полууправляемая модель машинного обучения, могут генерировать новый текст (выходные данные) из большого набора текстовых данных, используемых при его обучении (входные данные). Он делает это, предсказывая следующее слово в серии на основе предыдущих слов.
Что касается галлюцинаций, если языковая модель была обучена на недостаточных и неточных данных и ресурсах, ожидается, что результат будет вымышленным и неточным. Языковая модель может генерировать историю или повествование без логических несоответствий или неясных связей.
В приведенном ниже примере ChatGPT попросили дать слово, похожее на «восстание» и начинающееся с «б». Вот его ответ:
При дальнейшем исследовании он продолжал давать неправильные ответы с высоким уровнем достоверности.
Так почему же ChatGPT не может дать точный ответ на эти запросы?
Возможно, языковая модель не приспособлена для обработки довольно сложных подсказок, таких как эти, или что она не может точно интерпретировать подсказку, игнорируя подсказку дать похожее слово с определенным алфавит.
Как обнаружить ИИ-галлюцинацию?
Теперь очевидно, что приложения ИИ могут галлюцинировать — иначе генерировать ответы на основе ожидаемого результата (факт или правда) без какого-либо злого умысла. А обнаружение и распознавание галлюцинаций ИИ зависит от пользователей таких приложений.
Вот несколько способов обнаружить галлюцинации ИИ при использовании обычных приложений ИИ:
1. Модели обработки больших языков
Хотя и редко, но если вы заметите грамматическую ошибку в содержимом, созданном большой моделью обработки, такой как ChatGPT, это должно вызвать удивление и заставить вас заподозрить галлюцинацию. Точно так же, когда сгенерированный текстом контент не звучит логично, не коррелирует с заданным контекстом или не соответствует входным данным, вы должны заподозрить галлюцинацию.
Использование человеческого суждения или здравого смысла может помочь обнаружить галлюцинации, поскольку люди могут легко определить, когда текст не имеет смысла или не соответствует реальности.
2. Компьютерное зрение
Являясь отраслью искусственного интеллекта, машинного обучения и информатики, компьютерное зрение позволяет компьютерам распознавать и обрабатывать изображения, подобные человеческим глазам. С использованием сверточные нейронные сети, они полагаются на невероятное количество визуальных данных, используемых в их обучении.
Отклонение от шаблонов зрительных данных, используемых при обучении, приведет к галлюцинациям. Например, если бы компьютер не был обучен изображениям теннисного мяча, он мог бы идентифицировать его как зеленый апельсин. Или, если компьютер распознает лошадь рядом со статуей человека как лошадь рядом с настоящим человеком, то это галлюцинация ИИ.
Таким образом, чтобы обнаружить галлюцинацию компьютерного зрения, сравните сгенерированный результат с тем, что должен увидеть [нормальный] человек.
3. Беспилотные автомобили
Благодаря ИИ беспилотные автомобили постепенно проникают на автомобильный рынок. Такие пионеры, как Tesla Autopilot и Ford BlueCruise, активно продвигают автомобили с автоматическим управлением. Вы можете проверить как и что видит автопилот Тесла чтобы немного понять, как искусственный интеллект приводит в действие беспилотные автомобили.
Если у вас есть одна из таких машин, вы хотели бы знать, не галлюцинирует ли ваша машина с искусственным интеллектом. Одним из признаков будет то, что ваш автомобиль, кажется, отклоняется от своих нормальных моделей поведения во время вождения. Например, если автомобиль резко тормозит или виляет без видимой причины, у вашего автомобиля с искусственным интеллектом могут быть галлюцинации.
Системы искусственного интеллекта тоже могут галлюцинировать
Люди и модели искусственного интеллекта по-разному переживают галлюцинации. Когда дело доходит до ИИ, галлюцинации относятся к ошибочным выводам, которые далеки от реальности или не имеют смысла в контексте данной подсказки. Например, чат-бот с искусственным интеллектом может дать грамматически или логически неправильный ответ или неправильно идентифицировать объект из-за шума или других структурных факторов.
Галлюцинации ИИ не являются результатом сознательного или подсознательного разума, как вы могли бы наблюдать у людей. Скорее, это результат неадекватности или недостаточности данных, используемых при обучении и программировании системы ИИ.