С современными языковыми моделями ИИ, такими как ChatGPT и Microsoft Bing Chat, которые распространяются по всему миру, многие люди обеспокоены тем, что ИИ захватит мир.

Хотя в обозримом будущем мы не столкнемся со SkyNet, ИИ становится лучше людей в нескольких вещах. Вот где в игру вступает проблема управления ИИ.

Объяснение проблемы управления ИИ

Проблема управления ИИ заключается в том, что ИИ в конечном итоге станет лучше принимать решения, чем люди. В соответствии с этой теорией, если люди заранее не настроят все правильно, у нас не будет возможности исправить ситуацию позже, а это означает, что искусственный интеллект будет иметь эффективный контроль.

Текущие исследования моделей искусственного интеллекта и машинного обучения (ML) как минимум через несколько лет превзойдут человеческие возможности. Однако разумно думать, что, учитывая текущий прогресс, ИИ превзойдет людей как по интеллекту, так и по эффективности.

Это не означает, что модели AI и ML не имеют ограничений. Ведь они связаны законами физики и вычислительной сложности, а также вычислительной мощностью устройств, поддерживающих эти системы. Однако можно с уверенностью предположить, что эти пределы выходят далеко за пределы человеческих возможностей.

instagram viewer

Это означает, что сверхразумный Системы искусственного интеллекта могут представлять серьезную угрозу если они не спроектированы должным образом с мерами безопасности для проверки любого потенциально мошеннического поведения. Такие системы необходимо создавать с нуля, чтобы уважать человеческие ценности и контролировать их силу. Вот что означает проблема контроля, когда она говорит, что все должно быть правильно настроено.

Если система ИИ превзойдет человеческий интеллект без надлежащих мер безопасности, результат может быть катастрофическим. Такие системы могут взять на себя контроль над физическими ресурсами, поскольку многие задачи выполняются лучше или эффективнее. Поскольку системы ИИ предназначены для достижения максимальной эффективности, потеря контроля может привести к серьезным последствиям.

Когда применяется проблема управления ИИ?

Основная проблема заключается в том, что чем лучше становится система ИИ, тем сложнее руководителю-человеку контролировать технологию, чтобы обеспечить возможность легкого ручного управления в случае сбоя системы. Кроме того, склонность людей полагаться на автоматизированную систему выше, когда система работает надежно большую часть времени.

Прекрасным примером этого является Комплект Tesla для полного самостоятельного вождения (FSD). Хотя автомобиль может вести себя сам, для этого требуется, чтобы человек держал руки на руле, готовый взять на себя управление автомобилем в случае неисправности системы. Однако по мере того, как эти системы ИИ станут более надежными, внимание даже самого внимательного человека начнет меняться, а зависимость от автономной системы возрастет.

Так что же происходит, когда автомобили начинают двигаться со скоростью, за которой люди не могут угнаться? В конечном итоге мы передадим управление автономным системам автомобиля, а это означает, что система искусственного интеллекта будет контролировать вашу жизнь, по крайней мере, до тех пор, пока вы не доберетесь до места назначения.

Можно ли решить проблему управления ИИ?

Есть два ответа на вопрос, можно ли решить проблему управления ИИ. Во-первых, если понимать вопрос буквально, то проблема управления не может быть решена. Мы ничего не можем сделать, что напрямую нацелено на человеческую склонность полагаться на автоматизированную систему, хотя большую часть времени она работает надежно и более эффективно.

Однако если эту тенденцию учитывать как особенность таких систем, мы можем придумать способы обойти проблему контроля. Например, Алгоритмическое принятие решений и проблема управления исследовательская работа предлагает три различных метода решения затруднительного положения:

  • Использование менее надежных систем требует от человека активного взаимодействия с системой, поскольку менее надежные системы не создают проблемы управления.
  • Ждать, пока система превысит эффективность и надежность человека, прежде чем развертывать ее в реальных условиях.
  • Реализовать только частичную автоматизацию с помощью декомпозиции задач. Это означает, что автоматизируются только те части системы, которые не требуют участия человека-оператора для выполнения важной задачи. Это называется подходом динамического/дополнительного распределения функций (DCAF).

Подход DCAF всегда ставит человека-оператора у руля автоматизированной системы, гарантируя, что его вход контролирует наиболее важные части процесса принятия решений в системе. Если система достаточно привлекательна для того, чтобы человек-оператор постоянно обращал на нее внимание, проблема управления может быть решена.

Сможем ли мы когда-нибудь по-настоящему контролировать ИИ?

По мере того, как системы ИИ становятся более совершенными, способными и надежными, мы продолжим перекладывать на них больше задач. Тем не менее, проблема управления ИИ может быть решена с помощью правильных мер предосторожности.

ИИ уже меняет для нас мир, в основном к лучшему. Пока технология находится под надзором людей, нам не о чем беспокоиться.