Только за последние несколько лет возможности ИИ значительно расширились. Сегодня мы можем использовать ИИ для создания произведений искусства, написания историй, изучения мира и многого другого. Но не слишком ли рано все это происходит? Не слишком ли быстро развивается ИИ и какие признаки указывают на это?

Почему люди обеспокоены ИИ?

В конце марта 2023 года Институт будущего жизни опубликовал в Интернете документ под названием «Приостановить гигантские эксперименты с ИИ: открытое письмо». В документе представлены аргументы против разработки ИИ, выходящего за рамки изощренности GPT-4, последней версии OpenAI чат-бота на базе ИИ.

В письме было написано, что «системы искусственного интеллекта с интеллектом, конкурирующим с человеком, могут представлять серьезную опасность для общества и человечества». что «мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут минимальными». управляемый».

Ряд видных деятелей в сфере технологий, включая Стива Возняка и

instagram viewer
Илон Маск подписал письмо и хочет приостановить разработку ИИ. Этот призыв к остановке разработки ИИ поставил под вопрос, насколько опасным становится ИИ и какие риски он представляет для человеческой жизни.

Итак, какие признаки указывают на то, что ИИ движется слишком быстро?

1. Конкуренция с людьми

Мы уже видели, как технологии заменяют людей в бесчисленных сценариях. Когда вы направляетесь в ресторан быстрого питания, теперь вы можете сделать заказ через экран компьютера, а когда вы хотите купить продукты, вы можете оформить заказ с помощью автоматизированной системы. Это может быть быстрый и удобный вариант, но по мере того, как автоматизация становится все более заметной в различных отраслях, потребность в людях снижается.

Здесь начинается проблема. Конечно, людям нужно работать, чтобы поддерживать себя, но рост автоматизации делает это намного сложнее. Это особенно касается работников с минимальной заработной платой, например, в сфере общественного питания, производства и розничной торговли. Основные задачи, такие как проверка заказов, сбор грузов и уборка, могут выполняться машинами. Интеграция ИИ означает, что вскоре нам могут больше не понадобиться операторы для этой технологии.

Об этом сообщил Стек форм что 76% предприятий используют автоматизацию для стандартизации или автоматизации повседневных рабочих процессов. И с Запир сообщает, что 94% работников заявили, что их работа связана с повторяющимися и трудоемкими задачами, Автоматизация на основе ИИ может очень легко стать основной частью глобальной рабочей силы во всех странах мира. отрасли.

2. Поощрение человеческой лени

Одним из ключевых преимуществ ИИ является то, что он может упростить множество задач. Но это удобство может очень легко уступить место лени. А в некоторых случаях уже есть.

Возьмем, к примеру, ChatGPT. Вы можете использовать ChatGPT для разных целей например, написание эссе, изучение тем, создание шуток, перевод текста и многое другое. Наличие службы, которая может быстро выполнять задачи для вас, — это здорово, но это также приводит нас к самоуспокоенности. Таким образом, замедление усилий и творчества, безусловно, может оказать негативное влияние на человечество в целом, что является ключевой причиной, по которой так много людей беспокоятся об ИИ.

В наши дни мы настолько привыкли к сервисам на основе ИИ, что, естественно, доверяем им. Например, виртуальный помощник Microsoft, Cortana, использует машинное обучение и искусственный интеллект для выполнения команд пользователей. Многие другие виртуальные помощники, в том числе Siri от Apple, также используют ИИ для работы.

Доверие к этой технологии может быть безопасным, но на самом деле ничего неизвестно, особенно с учетом того, что ИИ все еще находится в стадии разработки.

3. Распространение ложной информации

Кредит изображения: Глубокое почтение/Flickr

В основных сферах ИИ приобрел большую известность благодаря своей способности создавать искусство, изображения и видео. Сервисы на основе ИИ могут использоваться не только для создания произведений искусства, но и для создания особенно противоречивой формы медиа, известной как дипфейки. Дипфейки — это видеоролики, в которых лицо человека накладывается на тело другого человека.

Это звучит довольно забавно, но может быть очень легко использовано неправильно.

Уже есть тысячи видеороликов, в которых знаменитости и политические деятели говорят невероятно непристойные и неуместные вещи через дипфейки. В то время как некоторые дипфейки очень легко идентифицировать, некоторые из них настолько сложны, что трудно понять, настоящие они или нет. Когда это происходит, люди могут предположить, что какой-то общественный деятель сказал что-то, чего на самом деле они никогда не говорили.

Исходя из этого, люди будут составлять мнения об этих видео, тем самым способствуя распространению дезинформации в Интернете.

Более того, чат-боты с искусственным интеллектом также могут предоставлять пользователям ложную информацию. Чат-боты, такие как ChatGPT, Boost. AI и Drift могут предоставить пользователям много информации, но эта информация не всегда является точной. Как обсуждалось Хранитель, чат-боты с искусственным интеллектом никоим образом не обязаны предоставлять вам правдивую информацию, а это означает, что фальшивые новости могут очень легко ускользнуть и попасть к вам.

4. Создание вредоносных программ

В начале 2023 года стала распространяться новость о злоумышленники, создающие вредоносное ПО с помощью ChatGPT. В данном случае кибераналитическая фирма Check Point Research обнаружила, что люди обсуждали преимущества использования ChatGPT для создания вредоносных программ на хакерском форуме. Автор сообщения на форуме поделился программой для кражи информации, которую они написали на Python с помощью ChatGPT, побуждая других злоумышленников создавать вредоносное ПО с помощью чат-бота.

Вредоносные программы необходимо кодировать, что может занять много времени, особенно если создатель не использует шаблон из уже существующей программы.

Используя ChatGPT, злоумышленники могут не только упростить процесс создания вредоносных программ, но и менее технически подкованные люди могут создавать вредоносные программы. По мере того, как совершенствуется искусственный интеллект, становится возможным создавать невероятно изощренные вредоносные программы, способные обходить антивирусное обнаружение, аутентификацию, брандмауэры и другие меры защиты.

5. Отсутствие регулирования

Распространенной проблемой в технологической отрасли является отсутствие регулирования для новых услуг, таких как платформы на основе блокчейна и продукты искусственного интеллекта. Некоторым может показаться, что отсутствие регулирования – это хорошо, но оно также может уступить место незаконным действиям.

Отсутствие регулирования может привести не только к росту мошенничества и киберпреступлений с использованием ИИ, но и то, как исследователи разрабатывают технологии ИИ, может также начать пересекать серьезные границы. При работе с ИИ необходимо учитывать этические соображения. Может ли система стать слишком сознательной? Какого рода влияние ИИ на жизнь человека? Должны ли мы использовать ИИ таким образом? Список вопросов можно продолжать и продолжать.

Без регулирования некоторые компании могут начать нарушать моральные границы, что, в свою очередь, может стать очень плохой новостью для широкой общественности.

ИИ развивается быстрыми темпами и, безусловно, создает риски

Нельзя отрицать, что потенциал ИИ огромен, но его следует использовать надлежащим образом, чтобы снизить вероятность выхода из-под контроля. Мы уже видели злонамеренное использование ИИ, поэтому неизвестно, как эта проблема может развиваться по мере дальнейшего развития событий. Время покажет, станет ли ИИ благословением или проклятием в нашем мире, и то, как с ним обращаются сейчас, несомненно, сыграет свою роль в этом исходе.