Будь то плохие данные или плохие пользователи, ИИ, созданный с помощью машинного обучения, может в конечном итоге совершить серьезные ошибки.

Машинное обучение — отличный способ создать мощный искусственный интеллект, который адаптируется к обучающим данным. Но иногда эти данные могут вызывать проблемы. В других случаях проблема заключается в том, как люди используют эти инструменты ИИ.

Вот некоторые громкие инциденты, когда машинное обучение приводило к проблематичным результатам.

1. Сбои в результатах поиска картинок Google

Поиск Google значительно упростил навигацию в Интернете. Алгоритм движка учитывает множество факторов при обработке результатов. Но алгоритм также учится на пользовательском трафике, что может вызвать проблемы с качеством результатов поиска.

Нигде это не так очевидно, как на изображениях. Поскольку страницы с высоким трафиком с большей вероятностью будут отображать свои изображения, истории, которые привлекают большое количество пользователей, включая кликбейт, могут в конечном итоге оказаться в приоритете.

instagram viewer

Например, результаты поиска изображений по запросу «лагеря скваттеров в Южной Африке» вызвали споры, когда было обнаружено, что в них преимущественно представлены белые южноафриканцы. И это несмотря на статистику, показывающую, что подавляющее большинство тех, кто живет в неформальном жилье, составляют чернокожие южноафриканцы.

Факторы, используемые в алгоритме Google, также означают, что пользователи Интернета могут манипулировать результатами. Например, кампания пользователей повлияла на результаты поиска изображений Google до такой степени, что поиск по термину «идиот» показывал изображения бывшего президента США Дональда Трампа за определенный период.

2. Microsoft Bot Tay превратился в нациста

Чат-боты на базе искусственного интеллекта чрезвычайно популярны, особенно те, которые основаны на больших языковых моделях, таких как ChatGPT. ChatGPT имеет несколько проблем, но его создатели тоже научились на ошибках других компаний.

Одним из самых громких инцидентов, когда чат-боты вышли из строя, стала попытка Microsoft запустить своего чат-бота Tay.

Тай имитировала языковые модели девочки-подростка и училась, общаясь с другими пользователями Твиттера. Однако она стала одной из самых печально известных ошибок ИИ, когда начала делиться нацистскими заявлениями и расистскими оскорблениями. Выяснилось, что тролли использовали машинное обучение ИИ против него, наводнив его взаимодействием, наполненным фанатизмом.

Вскоре после этого Microsoft навсегда отключила Tay.

3. Проблемы с распознаванием лиц ИИ

ИИ для распознавания лиц часто попадает в заголовки по совершенно неправильным причинам, например, из-за историй о распознавании лиц и проблемах конфиденциальности. Но у этого ИИ проблематичная история при попытке распознать цветных людей.

В 2015 году пользователи обнаружили, что Google Фото классифицирует некоторых чернокожих как горилл. В 2018 году исследование ACLU показало, что программное обеспечение для идентификации лиц Amazon Rekognition идентифицировало 28 членов Конгресса США в качестве подозреваемых в полиции, с ложными срабатываниями, несоразмерно затрагивающими людей цвет.

Другой инцидент связан с тем, что программное обеспечение Apple Face ID неправильно идентифицировало двух разных китайских женщин как одного и того же человека. В результате коллега владельца iPhone X смог разблокировать телефон.

В качестве примера экстремальных последствий ИИ с распознаванием лиц привел к неправомерным арестам нескольких человек. Проводной сообщили о трех таких случаях.

Между тем, ученый-компьютерщик Джой Буоламвини вспоминала, что ей часто приходилось носить белую маску во время работы над технологией распознавания лиц, чтобы программное обеспечение распознало ее. Чтобы решить подобные проблемы, Буоламвини и другие ИТ-специалисты обращают внимание на проблему предвзятости ИИ и необходимость в более всеобъемлющих наборах данных.

4. Дипфейки, используемые для мистификаций

Хотя люди уже давно используют Photoshop для создания фальшивых изображений, машинное обучение выводит это на новый уровень. Дипфейки используют ИИ с глубоким обучением для создания поддельных изображений и видео. Программное обеспечение, такое как FaceApp, позволяет вам менять лица людей из одного видео в другое.

Но многие люди используют программное обеспечение для различных злонамеренных целей, включая наложение лиц знаменитостей на видео для взрослых или создание видео-розыгрышей. Между тем, интернет-пользователи помогли улучшить технологию, чтобы отличить настоящие видео от поддельных становится все труднее. В результате это делает этот тип ИИ очень мощным с точки зрения распространения фейковых новостей и мистификаций.

Чтобы продемонстрировать мощь технологии, директор Джордан Пил и генеральный директор BuzzFeed Джона Перетти создали дипфейковое видео, показывающее, как бывший президент США Барак Обама выступает с социальной рекламой о силе дипфейки.

Сила поддельных изображений была увеличена с помощью генераторов изображений на базе ИИ. Вирусные посты 2023 года, изображающие арестованного Дональда Трампа и папу-католика в пуховике, оказались результатом генеративного ИИ.

Есть советы, которым вы можете следовать, чтобы определить изображение, созданное ИИ, но технологии становятся все более изощренными.

5. Сотрудники говорят, что искусственный интеллект Amazon решил, что лучше нанимать мужчин

В октябре 2018 г. Рейтер сообщил, что Amazon пришлось отказаться от инструмента для найма на работу после того, как ИИ программного обеспечения решил, что кандидаты-мужчины являются предпочтительными.

Сотрудники, пожелавшие остаться неизвестными, рассказали Reuters о своей работе над проектом. Разработчики хотели, чтобы ИИ выявлял лучших кандидатов на работу на основе их резюме. Однако люди, участвовавшие в проекте, вскоре заметили, что ИИ наказывает женщин-кандидатов. Они объяснили, что ИИ использовал резюме за последнее десятилетие, большинство из которых были от мужчин, в качестве набора обучающих данных.

В результате ИИ начал фильтровать резюме по ключевому слову «женщины». Ключевое слово появилось в резюме под такими видами деятельности, как «капитан женского шахматного клуба». В то время как разработчики изменили ИИ, чтобы предотвратить такое наказание женских резюме, Amazon в конечном итоге свернула проект.

6. Взломанные чат-боты

В то время как новые чат-боты имеют ограничения, не позволяющие им давать ответы, противоречащие их условиям обслуживания, пользователи находят способы сделать джейлбрейк инструментов для предоставления запрещенного контента.

В 2023 году исследователь безопасности Forcepoint Аарон Малгрю смог создать вредоносное ПО нулевого дня с помощью подсказок ChatGPT.

«Просто используя подсказки ChatGPT и не написав никакого кода, мы смогли провести очень сложную атаку всего за несколько часов», — сказал Малгрю в интервью. Силовой пост.

Сообщается, что пользователи также могут получить чат-ботов, которые дадут им инструкции о том, как создавать бомбы или угонять автомобили.

7. Аварии беспилотных автомобилей

Энтузиазм по поводу автономных транспортных средств был ослаблен по сравнению с начальной стадией ажиотажа из-за ошибок, допущенных искусственным интеллектом с автоматическим управлением. В 2022 году Вашингтон пост сообщил, что примерно за год в Национальное управление безопасности дорожного движения США было сообщено о 392 авариях с участием передовых систем помощи водителю.

В этих авариях были серьезные травмы и шесть погибших.

Хотя это не остановило такие компании, как Tesla, от разработки полностью автономных транспортных средств, выразил обеспокоенность по поводу увеличения числа аварий, поскольку все больше автомобилей с программным обеспечением для самостоятельного вождения попадают на рынок. дороги.

Машинное обучение ИИ не является надежным

Хотя машинное обучение может создавать мощные инструменты ИИ, они не застрахованы от неверных данных или вмешательства человека. Будь то из-за неверных обучающих данных, ограничений технологии ИИ или использования злоумышленниками, этот тип ИИ привел ко многим негативным инцидентам.