Эксперты считают, что ИИ покончит с человечеством, каким мы его знаем, так что же делается, чтобы этого не произошло?

В очередной раз группа ведущих исследователей искусственного интеллекта и технологических компаний предупредила, что нынешнее быстрое развитие искусственного интеллекта может обернуться катастрофой для человечества.

Риски охватывают ядерные конфликты, болезни, дезинформацию и безудержный ИИ без надзора, и все это представляет непосредственную угрозу выживанию человечества.

Но нельзя забывать, что многие из этих предупреждений исходят от одних и тех же людей, ведущих разработку ИИ и продвигающих инструменты и программы искусственного интеллекта в своих компаниях.

Почему технологические компании и ученые, занимающиеся искусственным интеллектом, предупреждают о рисках, связанных с искусственным интеллектом?

30 мая 2023 года более 350 исследователей, разработчиков и инженеров ИИ опубликовали совместно подписанное заявление, предупреждающее об угрозе ИИ для человечества.

Снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война.

Стороны, подписавшие Заявление Safe.ai включали Сэма Альтмана из OpenAI, Демиса Хассабиса из Google DeepMind и Дарио Амодеи из Anthropic, а также Тьюринга. Обладатели награды Джеффри Хинтон и Йошуа Бенжио (хотя Янн ЛеКун, который также получил ту же награду, не подписался). Этот список почти представляет собой список тех, кто есть кто в мире разработки ИИ — людей, прокладывающих путь с ИИ, — и все же здесь они все предупреждают, что ИИ может означать катастрофу для человечества.

Это короткое заявление делает угрозы более ясными, особенно упоминая две ключевые области, которые могут поставить под угрозу мир, каким мы его знаем: ядерная война и глобальные проблемы со здоровьем. В то время как угроза ядерного конфликта вызывает беспокойство, риск пандемии является для большинства более ощутимой угрозой.

Однако проблемы со здоровьем, связанные с искусственным интеллектом, может вызвать не только глобальная пандемия. Хранитель сообщает о нескольких других проблемах со здоровьем ИИ, которые могут повлиять на людей, если их не проверить до широкого использования. Один пример связан с использованием оксиметров с искусственным интеллектом, которые «переоценивали уровень кислорода в крови у пациентов с более темной кожей, что приводило к недостаточному лечению их гипоксии».

Кроме того, это не первый раз, когда группа технических лидеров призывает к паузе или серьезной переоценке развития ИИ. В марте 2023 г. Илон Маск и другие исследователи ИИ подписали аналогичный призыв к действию. запросить мораторий на разработку ИИ до тех пор, пока не будет введено дополнительное регулирование, которое поможет направить процесс.

Чем опасен ИИ?

Большинство рисков, связанных с ИИ, по крайней мере, в этом контексте, связаны с развитием безудержной технологии ИИ. который превосходит возможности людей, в которых он в конечном итоге обращается против своего создателя и стирает жизнь, как мы знаем это. Эта история бесчисленное количество раз освещалась в научно-фантастических произведениях, но реальность теперь ближе, чем мы думаем.

Возможности больших языковых моделей (которые лежат в основе таких инструментов, как ChatGPT) резко увеличиваются. Однако, такие инструменты, как ChatGPT, имеют много проблем, такие как врожденная предвзятость, проблемы с конфиденциальностью и галлюцинации ИИ, не говоря уже о его способности взломать систему, чтобы действовать за пределами запрограммированных условий.

По мере того, как большие языковые модели увеличиваются и имеют больше точек данных, к которым можно обращаться, наряду с доступом в Интернет и большей Понимание текущих событий, исследователи ИИ опасаются, что в один прекрасный день, по словам генерального директора OpenAI Сэма Альтмана, «пойдет совсем немного». неправильный."

Как правительства регулируют разработку ИИ, чтобы предотвратить риски?

Регулирование ИИ является ключом к предотвращению рисков. В начале мая 2023 г. Сэм Альтман призвал к большему регулированию ИИ, заявив, что «регулирующее вмешательство со стороны правительств будет иметь решающее значение для снижения рисков все более мощных моделей».

Затем Евросоюз объявил о принятии Закона об ИИ, регламент, призванный обеспечить гораздо более прочную основу для развития ИИ на всей территории ЕС (многие правила распространяются и на другие юрисдикции). Сначала Альтман пригрозил вывести OpenAI из ЕС, но затем отказался от своей угрозы и согласился, что компания будет соблюдать правила ИИ, о которых он ранее просил.

Несмотря на это, ясно, что регулирование разработки и использования ИИ важно.

Покончит ли ИИ с человечеством?

Поскольку большая часть дебатов по этой теме построена на гипотезах о возможностях будущих версий ИИ, существуют вопросы, связанные с долговечностью и силой, которые может иметь любое регулирование ИИ. Как лучше всего регулировать отрасль, которая уже движется со скоростью тысячи миль в минуту, и прорывы в развитии происходят ежедневно?

Кроме того, все еще есть некоторые сомнения относительно возможностей ИИ в целом и того, чем он закончится. В то время как те, кто опасается худшего, указывают на то, что искусственный общий интеллект станет человеческим повелителем, другие указывают на тот факт, что современные версии ИИ не могут даже решить основные математические вопросы, и что полностью автономные автомобили все еще выключенный.

Трудно не согласиться с теми, кто смотрит в будущее. Многие из тех, кто громче всех кричит о проблемах, которые может создать ИИ, сидят за рулем и смотрят, куда мы, возможно, движемся. Если они требуют регулирования ИИ, чтобы защитить нас от потенциально ужасного будущего, возможно, пришло время их выслушать.