Развитие ИИ стремительно движется вперед, но кто должен руководить ИИ и его влиянием на мир?
Ключевые выводы
- ИИ нуждается в более строгом мониторинге, поскольку уязвимости кибербезопасности и проблемы конфиденциальности продолжают появляться.
- Правительство, технологические компании и конечные пользователи — все играют свою роль в регулировании ИИ, но каждый подход имеет свои ограничения.
- Средства массовой информации, некоммерческие организации, ассоциации технологических компаний, научные учреждения и правоохранительные органы также вносят свой вклад в регулирование ИИ.
Широкая общественность имеет разные взгляды на ИИ: некоторые считают, что машины полностью заменят людей-работников, в то время как другие утверждают, что ИИ — это причуда. Однако все согласны с тем, что ИИ нуждается в более строгом мониторинге.
Несмотря на важность регулирования ИИ, оно отошло на второй план по сравнению с обучением. Разработчики настолько одержимы созданием следующей крупнейшей модели искусственного интеллекта, что обменивают кибербезопасность на быстрое развитие. Вопрос не в том, нуждается ли ИИ в регулировании; Вопрос в том, какой руководящий орган, обладающий достаточным финансированием, человеческими ресурсами и технологическими возможностями, возьмет на себя инициативу.
Итак, кто должен регулировать ИИ?
Государственные органы
Разные люди, от потребителей до технологические лидеры надеются, что правительство будет регулировать ИИ. Государственные учреждения имеют для этого ресурсы. Даже Илон Маск и Сэм Альтман, два главных движущих фактора гонки ИИ, считают, что некоторые проблемы конфиденциальности, связанные с ИИ слишком опасны, чтобы руководящие органы могли их игнорировать.
Правительство должно сосредоточиться на защите конфиденциальности и гражданских свобод своих избирателей, если оно возьмет на себя регулирование ИИ. Киберпреступники продолжают находить способы использовать системы искусственного интеллекта в своих схемах. Люди, плохо разбирающиеся в искусственном интеллекте, могут легко обмануться синтезированными голосами, фейковыми видео и онлайн-профилями, управляемыми ботами.
Однако одна из основных проблем, связанных с государственным регулированием ИИ, заключается в том, что оно может непреднамеренно задушить инновации. ИИ — сложная, развивающаяся технология. Если чиновники, курирующие рекомендации по развертыванию, разработке и обучению, не поймут, как работает ИИ, они могут сделать преждевременные и неэффективные суждения.
Разработчики искусственного интеллекта, технологические компании и лаборатории
Учитывая потенциальные препятствия, которые могут возникнуть из-за государственного мониторинга ИИ, многие предпочли бы, чтобы технологические компании возглавили регулирование. Они считают, что разработчики должны нести ответственность за технологии, которые они выпускают. Саморегулирование позволяет им стимулировать инновации и сосредоточиться на эффективном развитии этих систем.
Более того, их глубокое понимание ИИ поможет им разработать справедливые и обоснованные рекомендации, отдающие приоритет безопасности пользователей без ущерба для функциональности. Как и в случае с любой технологией, отраслевой опыт упрощает мониторинг. Назначение неподготовленных чиновников регулировать технологии, которые они едва понимают, может создать больше проблем, чем пользы.
В качестве примера возьмем слушания в Сенате США в 2018 году о законах о конфиденциальности данных Facebook. В этом отчете Вашингтон Пост, вы увидите, что многие законодатели не понимают основных функций Facebook. Таким образом, если Сенат США не создаст единственный отдел технических специалистов, он, скорее всего, не сможет регулировать такую продвинутую, постоянно меняющуюся систему, как искусственный интеллект.
Однако главная проблема, связанная с саморегулированием технологических компаний, заключается в том, что теневые корпорации могут злоупотреблять своей властью. Без вмешательства третьей стороны они практически вольны делать все, что захотят.
Конечные пользователи
Некоторые опасаются, что правительство и частные организации будут злоупотреблять системами ИИ. Они не уверены в предоставлении горстке руководящих органов полного контроля над такими мощными технологиями, тем более что ИИ все еще развивается. В конечном итоге они могут бороться за власть, а не стремиться к эффективному регулированию.
Скептики полагают, что для смягчения этих рисков конечные пользователи заслуживают свободы действий в использовании моделей ИИ так, как они хотят. Они говорят, что государственные органы должны вмешиваться только тогда, когда пользователи ИИ нарушают закон. Это амбициозная цель, но технически она может быть достигнута, если разработчики ИИ с открытым исходным кодом будут доминировать на рынке.
Тем не менее, такая установка ставит людей, не разбирающихся в технологиях, в невыгодное положение. Пользователи несут ответственность за установку ограничений в своих системах — к сожалению, не у всех есть для этого ресурсы.
Убирать с рынка проприетарные модели также недальновидно. Распространение Модели искусственного интеллекта с открытым исходным кодом имеют несколько положительных и отрицательных последствий.; для некоторых минусы перевешивают плюсы.
Другие организации, играющие роль в регулировании ИИ
Хотя регулирование ИИ возглавят крупные организации, есть органы, которые играют важную роль:
Средства массовой информации играют решающую роль в формировании общественного восприятия ИИ. Они сообщают о событиях в отрасли, делятся новыми инструментами, повышают осведомленность о вредном использовании ИИ и берут интервью у экспертов по соответствующим проблемам.
Большинство фактов, которые конечные пользователи знают об ИИ, в основном поступают из средств массовой информации. Публикация ложных данных, намеренно или нет, нанесет необратимый ущерб — нельзя недооценивать скорость распространения дезинформации.
2. Неправительственные организации
Несколько некоммерческих организаций занимаются защитой конфиденциальности и гражданских свобод пользователей ИИ. Они просвещают общественность с помощью бесплатных ресурсов, выступают за новую политику, сотрудничают с правительственными чиновниками и высказывают упущенные из виду проблемы.
Единственная проблема НКО заключается в том, что им обычно не хватает ресурсов. Поскольку они не связаны с правительством, в своей повседневной деятельности они полагаются на частные предложения и пожертвования. К сожалению, лишь немногие организации получают адекватное финансирование.
3. Ассоциации технологических индустрий
Ассоциации технологических отраслей, ориентированных на искусственный интеллект, могут представлять права и интересы общественности. Как и НКО, они работают с законодателями, представляют заинтересованных лиц, выступают за справедливую политику и повышают осведомленность о конкретных проблемах.
Разница, однако, в том, что они часто связаны с частными компаниями. Их члены по-прежнему занимаются сбором предложений, но обычно они получают достаточное финансирование от своих родительских организаций, пока добиваются результатов.
4. Академические учреждения
Хотя ИИ сопряжен с рядом рисков, по своей сути он нейтрален. Все предвзятости, проблемы конфиденциальности, ошибки безопасности и потенциальная киберпреступная деятельность исходят от людей, поэтому ИИ сам по себе не является тем, чего следует опасаться.
Но очень немногие уже понимают, как работают современные модели ИИ. Заблуждения искажают восприятие людьми ИИ, увековечивая необоснованные страхи, будто ИИ захватит человечество или украдет рабочие места.
Академические учреждения могли бы заполнить эти образовательные пробелы с помощью доступных ресурсов. Научных работ по современным LLM и системам НЛП пока не так уж и много. Общественность сможет более ответственно использовать ИИ и бороться с киберпреступностью, если полностью поймет, как он работает.
5. Правоохранительные органы
Правоохранительным органам следует ожидать большего Кибератаки с использованием искусственного интеллекта. С распространением генеративных моделей мошенники могут быстро синтезировать голоса, создавать дипфейковые изображения, очищать личная информация (PII) и даже создавать совершенно новые личности.
Большинство агентств не оснащены для борьбы с этими преступлениями. Им следует инвестировать в новые системы и обучать своих офицеров современным киберпреступлениям; в противном случае им будет сложно поймать этих мошенников.
Будущее регулирования ИИ
Учитывая быстро развивающуюся природу ИИ, маловероятно, чтобы один руководящий орган мог его контролировать. Да, технологические лидеры будут обладать большей властью, чем потребители, но различные организации должны сотрудничать, чтобы управлять рисками ИИ, не препятствуя развитию. Меры контроля лучше всего принимать сейчас, пока искусственный общий интеллект (AGI) пока еще далекая цель.
Тем не менее, регулирование ИИ так же далеко, как и AGI. Тем временем пользователи должны соблюдать правила техники безопасности для борьбы с угрозами, исходящими от искусственного интеллекта. Хорошие привычки, такие как ограничение круга людей, с которыми вы общаетесь в Интернете, и защита вашей цифровой личной информации, уже имеют большое значение.