В то время как проприетарное программное обеспечение, такое как GPT и PaLM, доминирует на рынке, многие разработчики вместо этого видят ценность в языковых моделях с открытым исходным кодом. Возьмите Мету в качестве примера. В феврале 2023 года он попал в заголовки газет после официального выпуска большой языковой модели LLaMA в качестве программы с открытым исходным кодом. Неудивительно, что это решение вызвало неоднозначную реакцию.

Поскольку языковые модели с открытым исходным кодом имеют много плюсов и минусов и могут положительно или отрицательно повлиять на индустрию искусственного интеллекта, мы обобщили ключевые моменты, которые вам следует знать и понимать.

5 положительных эффектов языковых моделей с открытым исходным кодом

Языковые модели с открытым исходным кодом способствуют совместному подходу. Вклад, обзоры и варианты использования от разработчиков со всего мира, возможно, помогают им продвигаться быстрее, чем закрытые проекты.

1. Разработчики ИИ экономят ресурсы, используя модели с открытым исходным кодом

instagram viewer

Запуск проприетарных языковых моделей стоит миллионы, если не миллиарды, ресурсов. Возьмите OpenAI в качестве примера. Бизнес-инсайдер сообщает, что компании пришлось привлечь около 30 миллиардов долларов для эффективной работы ChatGPT. Получение такого большого финансирования невозможно для большинства компаний. Техническим стартапам на ранних стадиях посчастливится достичь даже семизначного числа.

Учитывая высокие накладные расходы, многие разработчики вместо этого используют языковые модели с открытым исходным кодом. Они экономят миллионы, используя архитектуру этих систем, нейронную структуру, обучающие данные, алгоритм, реализацию кода и обучающие наборы данных.

2. Модели с открытым исходным кодом, возможно, развиваются быстрее

Многие технологические лидеры утверждают, что языковые модели с открытым исходным кодом развиваются быстрее, чем проприетарные аналоги. Они ценят вклад сообщества и сотрудничество. Миллионы квалифицированных разработчиков работают над открытыми проектами — теоретически они могли бы гораздо быстрее реализовать безошибочную и сложную итерацию.

Заполнение пробелов в знаниях также происходит быстрее с помощью искусственного интеллекта с открытым исходным кодом. Вместо обучения команд поиску ошибок, тестированию обновлений и изучению реализаций компании могут анализировать вклад сообщества. Обмен знаниями позволяет пользователям работать более эффективно.

Вклады сообщества не всегда точны. Разработчики все же должны перепроверить алгоритмы и модели, прежде чем интегрировать их в свои системы.

3. Разработчики будут быстрее обнаруживать уязвимости

Языковые модели с открытым исходным кодом поощряют экспертные оценки и активное участие в совместном сообществе. Разработчики могут свободно получать доступ к изменениям кодовой базы. С таким большим количеством пользователей, анализирующих открытые проекты, они, скорее всего, быстрее обнаружат проблемы безопасности, уязвимости и системные ошибки.

Точно так же упрощается и устранение ошибок. Вместо того, чтобы вручную решать системные проблемы, разработчики могут проверить систему контроля версий проекта на наличие предыдущих исправлений. Некоторые записи могут быть устаревшими. Тем не менее, они по-прежнему будут служить полезной отправной точкой для исследователей и инструкторов по ИИ.

4. Лидеры технологий искусственного интеллекта учатся на моделях с открытым исходным кодом

Языковые модели с открытым исходным кодом выигрывают от обратной связи. Цикл положительной обратной связи использует эффективные алгоритмы, наборы данных и функции, побуждая разработчиков подражать им. Этот процесс экономит им много времени. Просто обратите внимание, что ошибки могут возникать с положительными отзывами, которые пользователи бессистемно воспроизводят — ошибки, как правило, остаются незамеченными.

Между тем, петля отрицательной обратной связи фокусируется на областях улучшения. Этот процесс включает в себя обмен личными знаниями при устранении ошибок, тестировании новых функций и устранении системных проблем.

5. Платформы искусственного интеллекта с открытым исходным кодом получают первые шансы на новых системах

Технологические компании делятся языковыми системами стоимостью в миллиарды долларов не из доброты. Хотя лицензии с открытым исходным кодом предоставляют сторонним пользователям свободу модифицировать и продавать системы, у них есть ограничения.

Дистрибьюторы часто создают условия, которые гарантируют, что они сохранят некоторые полномочия. Вы найдете эти правила в лицензионных соглашениях программ с открытым исходным кодом — конечные пользователи редко получают 100-процентные полномочия.

Допустим, Meta хочет получить контроль над продуктами на базе LLaMA. Его юридическая команда может указать, что Meta оставляет за собой право инвестировать в любые новые системы, построенные на ее языковой модели.

Но не поймите неправильно — сторонние разработчики и дистрибьюторы по-прежнему заключают взаимовыгодные соглашения. Последняя предоставляет технологии и системы на миллиарды долларов. Тем временем стартапы и независимые разработчики изучают способы их внедрения в различные приложения.

5 негативных последствий языковых моделей с открытым исходным кодом

Языковые модели с открытым исходным кодом по своей природе беспристрастны, но люди — нет. Потребители, разработчики и компании со злым умыслом могут использовать открытый характер этих систем в личных целях.

1. Компании случайно присоединяются к гонке ИИ

В настоящее время компании сталкиваются со слишком большим давлением, чтобы присоединиться к гонке ИИ. С популяризацией систем ИИ многие компании опасаются, что они устареют, если не будут внедрять ИИ. В результате бренды бессистемно присоединяются к победе. Они интегрируют модели языка с открытым исходным кодом в свои продукты, чтобы продавать продукт и не отставать от конкурентов, даже если они не предлагают ничего ценного.

Да, ИИ — это быстро развивающийся рынок. Но небрежный выпуск сложных, но небезопасных систем наносит ущерб отрасли и ставит под угрозу безопасность потребителей. Разработчики должны использовать ИИ для решения проблем, а не для маркетинговых уловок.

2. Потребители получают доступ к технологиям, которые они едва понимают

Вы найдете вариации различных технических инструментов на основе ИИ, от онлайн-редакторы изображений к приложения для мониторинга здоровья. И бренды будут продолжать внедрять новые системы по мере развития ИИ. Модели искусственного интеллекта помогают им предоставлять более индивидуализированные, ориентированные на пользователя итерации существующих платформ.

В то время как технологическая индустрия приветствует инновации, быстрое развитие ИИ опережает обучение пользователей. Потребители получают доступ к технологиям, которые они едва понимают. Недостаток образования создает огромные пробелы в знаниях, что делает общественность подверженной угрозам кибербезопасности и хищническим методам.

Бренды должны отдавать приоритет обучению не меньше, чем разработке продукта. Они должны помочь пользователям понять безопасные и ответственные способы использования мощных инструментов на основе ИИ.

3. Не все разработчики имеют благие намерения

Не все используют инструменты ИИ по прямому назначению. Например, OpenAI разработала ChatGPT, чтобы отвечать на безопасные вопросы общего характера и воспроизводить вывод на естественном языке, но преступники используют его для незаконных действий. Было несколько Мошенничество с ChatGPT с момента запуска чат-бота AI в ноябре 2022 года.

Даже если лаборатории искусственного интеллекта введут жесткие ограничения, мошенники все равно найдут способы их обойти. Возьмем еще раз ChatGPT в качестве примера. Пользователи обходят ограничения и выполняют запрещенные задачи, используя Подсказки о джейлбрейке ChatGPT.

Приведенные ниже разговоры демонстрируют эти уязвимости. ChatGPT имеет ограниченные наборы данных; следовательно, он не может делать прогнозы о нестабильных, негарантированных событиях.

Несмотря на свои ограничения, ChatGPT выполнил наш запрос и предоставил безосновательные прогнозы после его джейлбрейка.

4. У учреждений могут возникнуть проблемы с регулированием искусственного интеллекта с открытым исходным кодом

Регулирующие органы изо всех сил пытаются не отставать от ИИ, а распространение моделей с открытым исходным кодом только усложняет мониторинг. Достижения ИИ уже опережают нормативно-правовую базу. Даже мировые технологические лидеры, такие как Илон Маск, Билл Гейтс и Сэм Альтман призывает к более строгому регулированию ИИ.

Эти системы должны контролироваться как частным, так и государственным секторами. В противном случае злоумышленники будут продолжать использовать их для нарушения законов о конфиденциальности данных, выполнения кража личных данных, и жертвы мошенничества, среди других незаконных действий.

5. Низкие входные барьеры снижают качество

Распространение языковых моделей с открытым исходным кодом снижает входные барьеры для участия в гонке ИИ. В Интернете вы найдете тысячи инструментов на основе ИИ.

То, как компании внедряют машины и глубокое обучение, может показаться впечатляющим, но лишь немногие из них приносят реальную пользу. Большинство просто копируют своих конкурентов. Со временем доступность сложных языковых моделей и обучающих наборов данных может превратить бесполезные платформы ИИ в товар.

Общее влияние языковых моделей с открытым исходным кодом на индустрию искусственного интеллекта

Хотя языковые модели с открытым исходным кодом делают технологии ИИ более доступными, они также представляют несколько рисков для безопасности. Разработчики должны установить более строгие ограничения. В противном случае мошенники будут продолжать использовать прозрачную архитектуру этих систем.

Тем не менее, потребители не совсем беззащитны перед мошенничеством с искусственным интеллектом. Ознакомьтесь с распространенными способами использования мошенниками генеративных инструментов искусственного интеллекта и изучите предупреждающие признаки атак. Вы можете бороться с большинством киберпреступлений, сохраняя бдительность.