Последние инновации, связанные с технологиями на основе ИИ, раздвигают границы того, что мы когда-то считали возможным с помощью ИИ. Однако, поскольку чат-боты, такие как ChatGPT и Bing Chat, в некоторых вещах почти не уступают людям, не пора ли на какое-то время притормозить?

Илон Маск и несколько исследователей ИИ входят в число 1188 человек (на момент написания статьи), которые так думают. Письмо, опубликованное некоммерческим институтом Future of Life, призывает к шестимесячной паузе в обучении технологиям ИИ лучше, чем GPT 4, но действительно ли пауза необходима?

Что такое будущее жизни Открытое письмо?

письмо, опубликованное институтом Future of Life указывает, что лаборатории искусственного интеллекта были «заперты в неконтролируемой гонке» за разработку и развертывание большего количества и более мощные модели ИИ, которые никто, включая их создателей, не может «понять, предсказать или достоверно контроль".

В нем также указывается, что современные системы искусственного интеллекта в настоящее время становятся конкурентоспособными с людьми при выполнении общих задач, и ставится вопрос. должны ли мы развивать «нечеловеческие умы, которые могли бы в конечном итоге превзойти численностью, перехитрить, устаревать и заменить нас".

instagram viewer

В конце концов, в письме содержится призыв ко всем лабораториям ИИ немедленно приостановить обучение систем ИИ, более мощных, чем GPT-4, как минимум на шесть месяцев. Пауза должна быть общедоступной и поддающейся проверке для всех ключевых участников. В нем также говорится, что, если такая пауза не может быть введена быстро, правительства должны вмешаться и временно запретить обучение моделям ИИ.

После того, как пауза активна, лабораториям искусственного интеллекта и независимым экспертам предлагается использовать ее для совместной разработки и реализации «общий набор протоколов безопасности», чтобы гарантировать, что системы, придерживающиеся этих правил, «безопасны за пределами разумного». сомневаться".

Это письмо было подписано несколькими известными личностями, в том числе Илоном Маском, Стивом Возняком, а также исследователями и авторами ИИ. Фактически список подписантов в настоящее время приостановлен из-за высокого спроса.

Каковы опасения Маска по поводу передовых технологий искусственного интеллекта и OpenAI?

Хотя подписание письма Future of Life может указывать на то, что Маск обеспокоен рисками безопасности, которые представляют такие передовые системы искусственного интеллекта, реальная причина может заключаться в чем-то другом.

Маск стал соучредителем OpenAI вместе с нынешним генеральным директором Сэмом Альтманом еще в 2015 году в качестве некоммерческой организации. Однако позже в 2018 году он столкнулся с Альтманом, когда понял, что не доволен прогрессом компании. Сообщается, что Маск хотел взять на себя управление, чтобы ускорить разработку, но Альтман и правление OpenAI отвергли эту идею.

Вскоре после этого Маск ушел из OpenAI и забрал свои деньги с собой, нарушив свое обещание внести 1 миллиард в финансирование и пожертвовав только 100 миллионов перед уходом. Это вынудило OpenAI стать частной компанией вскоре после этого в марте 2019 года, чтобы собрать средства для продолжения своих исследований.

Изображение предоставлено: Heisenberg Media/Викисклад

Еще одна причина, по которой Маск ушел, заключалась в том, что разработка ИИ в Tesla вызовет конфликт интересов в будущем. Очевидно, что Tesla нуждается в продвинутых системах искусственного интеллекта для питания своих автомобилей. Полные функции автономного вождения. С тех пор как Маск покинул OpenAI, компания убежала со своими моделями ИИ, запустив ChatGPT на базе GPT3.5 в 2022 г., а затем вслед за GPT-4 в марте 2023 г.

Тот факт, что команда Маска по ИИ и близко не подходит к OpenAI, необходимо учитывать каждый раз, когда он говорит, что современные модели ИИ могут представлять риски. У него тоже не было проблем развертывание бета-версии Tesla Full Self-Driving на дорогах общего пользования, по сути превращая обычных водителей Tesla в бета-тестеров.

Это тоже не заканчивается. Маск также довольно критически относился к OpenAI в Твиттере, а Альтман дошел до того, что сказал, что он нападает на них, недавно появляясь в подкасте «On with Kara Swisher».

На данный момент кажется, что Маск просто использует письмо Future of Life, чтобы остановить разработку OpenAI и любой другой компании, догоняющей его. на GPT-4, чтобы дать его компаниям шанс наверстать упущенное, вместо того, чтобы на самом деле беспокоиться о потенциальных опасностях, которые эти модели ИИ поза. Обратите внимание, что в письме также содержится просьба приостановить «обучение» систем ИИ на шесть месяцев, что можно относительно легко обойти, чтобы тем временем продолжить их разработку.

Действительно ли нужна пауза?

Необходимость паузы зависит от состояния моделей ИИ в будущем. Письмо определенно немного драматично по тону, и мы не рискуем потерять контроль над нашей цивилизацией в пользу ИИ, как это открыто заявляется. Тем не менее, Технологии искусственного интеллекта действительно представляют несколько угроз.

Учитывая, что OpenAI и другие лаборатории искусственного интеллекта могут придумать лучшие проверки безопасности, пауза принесет больше вреда, чем пользы. Тем не менее, предложение письма о наборе общих протоколов безопасности, которые «тщательно проверяются и контролируются независимыми внешними экспертами», звучит как хорошая идея.

Учитывая, что такие технологические гиганты, как Google и Microsoft, вкладывают миллиарды в разработку и интеграцию ИИ в свои продукты, маловероятно, что письмо повлияет на текущие темпы развития ИИ.

ИИ здесь, чтобы остаться

Поскольку технологические гиганты продвигают интеграцию ИИ в свои продукты и вкладывают миллиарды долларов в исследования и разработки, ИИ никуда не денется, независимо от того, что говорит оппозиция.

Но неплохо принять меры безопасности, чтобы эти технологии не сошли с рельсов и не превратились в инструменты для нанесения вреда.