Мысль о том, что технологии ИИ должны регулироваться, является общим мнением. Большинство правительств, разработчики продуктов ИИ и даже обычные пользователи продуктов ИИ согласны с этим. К сожалению, лучший способ регулировать эту быстрорастущую область — нерешенная загадка.
Если не остановить, технологии искусственного интеллекта могут негативно изменить наш образ жизни и поставить под угрозу наше существование. Но как правительства могут ориентироваться в лабиринте проблем, возникающих в этой быстро развивающейся области?
1. Правила конфиденциальности и защиты данных
Одной из основных проблем, связанных с технологиями ИИ, является конфиденциальность и безопасность данных. Системы искусственного интеллекта — это машины, жадные до данных. Им нужны данные для работы, больше данных для эффективности и еще больше данных для улучшения. Хотя это не проблема, способ получения этих данных, их природа, а также то, как они обрабатываются и хранятся, являются одними из самых важных тем для обсуждения, касающихся правил ИИ.
Принимая это во внимание, логический путь состоит в том, чтобы ввести строгие правила конфиденциальности данных, которые регулируют данные. сбор, хранение и обработка, а также права лиц, чьи данные используются, на доступ и контроль их данные. Вопросы, которые, скорее всего, будут затронуты в этих правилах:
- Какие данные можно собирать?
- Должны ли некоторые личные данные считаться табу в ИИ?
- Как компании, использующие искусственный интеллект, должны обращаться с конфиденциальными личными данными, такими как медицинские записи или биометрические данные?
- Должны ли компании, использующие искусственный интеллект, внедрять механизмы, позволяющие отдельным лицам легко запрашивать удаление или исправление своих личных данных?
- Каковы последствия для компаний, занимающихся искусственным интеллектом, которые не соблюдают правила конфиденциальности данных? Как следует контролировать соблюдение и как обеспечивать правоприменение?
- Возможно, самое главное, какой стандарт должны внедрить компании ИИ, чтобы обеспечить безопасность конфиденциальной информации, которой они обладают?
Эти и некоторые другие вопросы составили суть почему ChatGPT временно запретили в Италии. Если эти проблемы не будут решены, пространство искусственного интеллекта может стать диким западом для конфиденциальности данных, а запрет Италии может стать образцом для запретов других стран мира.
2. Разработка этической основы ИИ
Компании, занимающиеся искусственным интеллектом, часто хвастаются своей приверженностью этическим принципам при разработке систем искусственного интеллекта. По крайней мере, на бумаге все они являются сторонниками ответственной разработки ИИ. В средствах массовой информации руководители Google подчеркивали, насколько серьезно компания относится к безопасности и этике ИИ. Точно так же «Безопасный и этичный ИИ» — это мантра генерального директора OpenAI Сэма Альтмана. Это вполне похвально.
Но кто устанавливает правила? Кто решает, какие этические принципы ИИ достаточно хороши? Кто решает, как выглядит безопасная разработка ИИ? В настоящее время каждая компания, занимающаяся ИИ, кажется, по-своему относится к ответственной и этичной разработке ИИ. OpenAI, Anthropic, Google, Meta, Microsoft, все. Просто полагаться на компании, занимающиеся искусственным интеллектом, опасно.
последствия неконтролируемого пространства ИИ могут быть катастрофическими. Позволить отдельным компаниям решать, какие этические принципы принять, а от каких отказаться, сродни лунатизму на пути к апокалипсису ИИ. Решение? Четкая этическая основа ИИ, обеспечивающая:
- Системы ИИ не несправедливо ставят в невыгодное положение и не дискриминируют отдельных лиц или определенные группы на основании расы, пола или социально-экономического статуса.
- Системы искусственного интеллекта безопасны, защищены и надежны и сводят к минимуму риск непредвиденных последствий или вредоносного поведения.
- Системы искусственного интеллекта создаются с учетом более широкого социального воздействия технологий искусственного интеллекта.
- Что люди сохраняют полный контроль над системами ИИ и прозрачно принимают решения.
- Системы ИИ намеренно ограничены способами, выгодными для человека.
3. Специальное регулирующее агентство
Из-за его потенциального воздействия на человеческую цивилизацию обсуждение безопасности ИИ обычно проводится параллельно с риском кризиса в области здравоохранения или ядерной катастрофы. Чтобы избежать потенциальных ядерных инцидентов, необходимо специальное агентство, такое как NRC США (Комиссия по ядерному регулированию). Чтобы избежать риска опасных кризисов со здоровьем, необходимо создать FDA (Управление по санитарному надзору за качеством пищевых продуктов и медикаментов).
Точно так же, чтобы гарантировать, что в области ИИ ничего не пойдет не так, необходимо специальное агентство, подобное FDA и NRC, поскольку ИИ продолжает агрессивно вторгаться во все сферы нашей жизни. К сожалению, вопрос регулирования ИИ внутри страны является сложным. Работа любого специализированного регулирующего органа, вероятно, будет мучительно тяжелой без трансграничного сотрудничества. Точно так же, как NRC (Комиссия по ядерному регулированию) США должна работать рука об руку с Международной организацией по атомной энергии. Агентство (МАГАТЭ), чтобы быть в лучшем виде, любому специализированному органу по регулированию ИИ в стране также потребуется международный аналог.
Такое агентство будет нести ответственность за следующее:
- Разработка правил ИИ
- Обеспечение соблюдения и правоприменения
- Наблюдение за процессом этической проверки проектов ИИ
- Сотрудничество и межстрановое сотрудничество в области безопасности и этики ИИ
4. Решение проблем, связанных с авторским правом и интеллектуальной собственностью
Существующие законы об авторском праве и правовые рамки рушатся перед лицом искусственного интеллекта. То, как устроены инструменты ИИ, особенно генеративные инструменты ИИ, делает их похожими на публично одобренную машину для нарушения авторских прав, с которой вы ничего не можете поделать.
Как? Что ж, многие современные системы искусственного интеллекта обучаются с использованием материалов, защищенных авторским правом. Вы знаете, защищенные авторским правом статьи, защищенные авторским правом песни, защищенные авторским правом изображения и т. д. Вот такие инструменты ChatGPT, Bing AI и Google Bard могут делать удивительные вещи, которые они делают.
Хотя эти системы явно используют интеллектуальную собственность людей, то, как эти системы ИИ делают это, ничем не отличается от человека, читающего книгу, защищенную авторским правом, слушающего песни, защищенного авторским правом, или просматривающего изображений.
Вы можете прочитать книгу, защищенную авторским правом, узнать из нее новые факты и использовать эти факты в качестве основы для своей собственной книги. Вы также можете послушать песню, защищенную авторским правом, чтобы вдохновиться на создание собственной музыки. В обоих случаях вы использовали материалы, защищенные авторским правом, но это не обязательно означает, что производный продукт нарушает авторские права оригинала.
Хотя это логическое объяснение, объясняющее беспорядок, который ИИ создает в законах об авторском праве, оно все же наносит ущерб владельцам авторских прав и интеллектуальной собственности. В связи с этим нормативные документы необходимы для:
- Четко определите ответственность и обязанности всех сторон, участвующих в жизненном цикле системы ИИ. Это включает в себя уточнение ролей каждой стороны, от разработчиков ИИ до конечных пользователей, чтобы гарантировать, что ответственные стороны несут ответственность за любые нарушения авторских прав или прав интеллектуальной собственности, совершенные AI системы.
- Укрепить существующие рамки авторского права и, возможно, ввести законы об авторском праве, относящиеся к ИИ.
- Чтобы обеспечить инновации в сфере искусственного интеллекта, защищая при этом права создателей оригинала, искусственный интеллект правила должны переопределить концепции добросовестного использования и преобразующей работы в контексте Контент, созданный ИИ. Необходимы более четкие определения и руководящие принципы, чтобы гарантировать, что пространство ИИ может продолжать улучшаться при соблюдении авторских прав. Важно найти баланс между инновациями и защитой прав создателей контента.
- Четкие пути для сотрудничества с правообладателями. Если системы ИИ все равно будут использовать интеллектуальную собственность людей, должны быть четкие пути или рамки для разработчиков ИИ и правообладателям сотрудничать, особенно с точки зрения финансовой компенсации, если производная работа такой интеллектуальной собственности коммерциализировано.
Регулирование ИИ — крайне необходимое исправление
В то время как искусственный интеллект стал многообещающим решением многих наших социальных проблем, сам ИИ быстро становится проблемой, требующей срочного решения. Пришло время сделать шаг назад, подумать и внести необходимые исправления, чтобы обеспечить положительное влияние ИИ на общество. Нам отчаянно нужна срочная перекалибровка нашего подхода к созданию и использованию систем ИИ.