В дискуссиях о разумности ИИ нет ничего нового, но новости об искусственном интеллекте Google LaMDA разожгли огонь. После того, как инженер заявил, что бот находится в сознании и даже имеет душу, вновь возникли некоторые знакомые вопросы.

Может ли ИИ, подобный LaMDA, быть разумным или самосознательным, и если да, то как вы можете об этом сказать? Это имеет значение?

Что такое ЛаМДА?

LaMDA, сокращение от Language Model for Dialogue Applications, впервые появилось в 2021 году на конференции разработчиков Google. Предполагается, что продвинутая система искусственного интеллекта поможет создавать других, меньших по размеру чат-ботов. Когда Google впервые представил его, он объявил о планах интегрировать его во все, помогая таким сервисам, как Google Assistant и Search, чувствовать себя более человечными или, по крайней мере, естественными.

Когда инженер Google Блейк Лемуан обратился к LaMDA, чтобы узнать, используются ли в нем языки ненависти, у него сложилось другое впечатление. Лемуан утверждал, что ЛаМДА разумен, и если бы он не знал, что это бот, то подумал бы, что это восьмилетний ребенок.

instagram viewer

После бесед с LaMDA Лемуан попытался доказать, что он был в сознании, и защитить то, что, по его мнению, было его законными правами. В ответ Google отправил Лемуана в оплачиваемый административный отпуск за нарушение соглашений о конфиденциальности.

Действительно ли LaMDA разумна?

Итак, действительно ли LaMDA разумна? Большинство экспертов, занимавшихся этим вопросом, настроены скептически. LaMDA — это высокоразвитая чат-платформа с искусственным интеллектом, которая анализирует триллионы слов из Интернета, поэтому она может звучать как настоящий человек.

Это не первый раз, когда один из ИИ Google обманывает людей, заставляя их думать, что он человек. В 2018 году Google продемонстрировал свой Duplex AI, позвонив в ресторан, чтобы зарезервировать столик. Сотрудник на другом конце ни разу не сомневался, что разговаривает с человеком.

Чувство сложно определить, хотя большинство людей сомневаюсь, что ИИ достиг этой точки пока что. Однако важный вопрос может заключаться не в том, действительно ли LaMDA разумен, а в том, какая разница, если он может обмануть людей, заставив их думать, что это так.

Возможные юридические последствия LaMDA

Ситуация с LaMDA вызывает множество юридических и этических вопросов. Во-первых, некоторые люди могут задаться вопросом, правильно ли Google отправил Лемуана в отпуск за то, что он рассказал об этом.

Согласно разделу 740 Закона о труде штата Нью-Йорк, средства защиты осведомителей защищают сотрудников от подобных действий. последствия, если они считают, что действия их работодателя нарушают закон или представляют значительный риск для общества безопасность. Предполагаемый разум ЛаМДА не совсем соответствует этому законному требованию, но должен ли?

Предоставление прав ИИ — сложная тема. В то время как ИИ может создавать вещи и казаться людьми, вы можете столкнуться с некоторыми сложными ситуациями, если эти машины защищены законом. Юридические права действуют вокруг вознаграждений и наказаний, которые не влияют на ИИ, что усложняет правосудие.

Если беспилотный автомобиль сбивает пешехода, виновен ли ИИ, если закон рассматривает его как человека? И если это так, то это не совсем справедливо для жертвы, поскольку технически вы не можете наказать ИИ так же, как человека.

Еще один вопрос, который возникает с LaMDA и подобными чат-ботами с искусственным интеллектом, — это их безопасность. Если эти боты кажутся убедительно реальными, люди могут больше доверять им и охотнее давать им деньги. более конфиденциальная информация. Это открывает двери для множества проблем с конфиденциальностью и безопасностью, если эта технология попадет в чужие руки.

ИИ вводит сложные этические вопросы

Такие ИИ, как LaMDA, становятся все более изощренными и реалистичными. По мере роста этой тенденции компаниям и законодателям следует пересмотреть свое отношение к ИИ и то, как эти решения могут повлиять на правосудие и безопасность.

В своем нынешнем виде ИИ LaMDA от Google может и не быть разумным, но он достаточно хорош, чтобы заставить людей думать, что он разумен, что должно вызывать некоторые опасения.