Возможности искусственного интеллекта расширяются в геометрической прогрессии, и теперь ИИ используется в различных отраслях, от рекламы до медицинских исследований. Использование ИИ в более чувствительных областях, таких как программное обеспечение для распознавания лиц, алгоритмы приема на работу и предоставление медицинских услуг, вызвало споры о предвзятости и справедливости.
Предвзятость - хорошо изученный аспект психологии человека. Исследования регулярно выявляют наши подсознательные предпочтения и предрассудки, и теперь мы видим, что ИИ отражает некоторые из этих предубеждений в своих алгоритмах.
Итак, как искусственный интеллект становится предвзятым? И какое это имеет значение?
Как ИИ становится предвзятым?
Для простоты в этой статье мы будем ссылаться на машинное обучение и глубокое обучение алгоритмы как алгоритмы или системы ИИ.
Исследователи и разработчики могут внести предвзятость в системы ИИ двумя способами.
Во-первых, когнитивные предубеждения исследователей могут случайно быть встроены в алгоритмы машинного обучения. Когнитивные искажения - это бессознательное человеческое восприятие, которое может влиять на то, как люди принимают решения. Это становится серьезной проблемой, когда предубеждения относятся к людям или группам людей и могут навредить этим людям.
Эти предубеждения могут быть внесены напрямую, но случайно, либо исследователи могут обучить ИИ на наборах данных, которые сами были затронуты предвзятостью. Например, ИИ для распознавания лиц можно обучить с использованием набора данных, который включает только лица со светлой кожей. В этом случае ИИ будет лучше работать со светлокожими лицами, чем со смуглыми. Эта форма предвзятости ИИ известна как негативное наследие.
Во-вторых, предубеждения могут возникнуть, когда ИИ обучается на неполных наборах данных. Например, если ИИ обучен на наборе данных, который включает только специалистов по информатике, он не будет представлять всю популяцию. Это приводит к алгоритмам, которые не могут обеспечить точные прогнозы.
Примеры смещения искусственного интеллекта в реальном мире
В последнее время было множество хорошо известных примеров предвзятости ИИ, которая проиллюстрировать опасность позволить этим предубеждениям закрасться.
Приоритезация здравоохранения в США
В 2019 году был разработан алгоритм машинного обучения, чтобы помочь больницам и страховым компаниям определить, какие пациенты получат наибольшую пользу от определенных программ здравоохранения. Основываясь на базе данных, содержащей около 200 миллионов человек, алгоритм предпочитал белых пациентов черным пациентам.
Было установлено, что это произошло из-за ошибочного предположения в алгоритме относительно различных затрат на здравоохранение между чернокожими и белыми людьми, и в конечном итоге смещение было уменьшено на 80%.
КОМПАС
Профилирование исправительных правонарушителей для альтернативных санкций, или COMPAS, представляло собой алгоритм искусственного интеллекта, предназначенный для прогнозирования того, будут ли определенные люди совершать повторное правонарушение. Алгоритм давал вдвое больше ложных срабатываний для чернокожих преступников по сравнению с белыми преступниками. В этом случае и набор данных, и модель были ошибочными, что привело к серьезной систематической ошибке.
Амазонка
В 2015 году было обнаружено, что алгоритм найма, который Amazon использует для определения пригодности кандидатов, в значительной степени отдает предпочтение мужчинам, а не женщинам. Это произошло потому, что набор данных почти исключительно содержал мужчин и их резюме, поскольку большинство сотрудников Amazon - мужчины.
Как остановить предвзятость ИИ
ИИ уже революционизирует то, как мы работаем каждая отрасль. Наличие предвзятых систем, контролирующих чувствительные процессы принятия решений, менее чем желательно. В лучшем случае это снижает качество исследований на основе ИИ. В худшем случае он наносит серьезный ущерб меньшинствам.
Есть примеры алгоритмов ИИ, которые уже используются для помощь в принятии решений за счет уменьшения воздействия когнитивных искажений человека. Из-за того, как обучаются алгоритмы машинного обучения, они могут быть более точными и менее предвзятыми, чем люди в той же должности, что приводит к более справедливому принятию решений.
Но, как мы показали, верно и обратное. Риски, связанные с тем, что человеческие предубеждения могут быть использованы и усилены ИИ, могут перевесить некоторые из возможных преимуществ.
В конце дня, ИИ хорош настолько, насколько хороши данные, на которых он обучен.. Разработка беспристрастных алгоритмов требует обширного и тщательного предварительного анализа наборов данных, гарантирующего отсутствие в данных неявных смещений. Это сложнее, чем кажется, потому что многие из наших предубеждений бессознательны, и их часто трудно идентифицировать.
Проблемы предотвращения предвзятости ИИ
При разработке систем искусственного интеллекта каждый шаг необходимо оценивать с точки зрения возможности включения предвзятости в алгоритм. Одним из основных факторов предотвращения предвзятости является обеспечение того, чтобы в алгоритм «встраивалась» справедливость, а не предвзятость.
Определение справедливости
Справедливость - это понятие, которое относительно сложно определить. На самом деле, это дискуссия, по которой никогда не было достигнуто консенсуса. Чтобы еще больше усложнить задачу, при разработке систем искусственного интеллекта концепция справедливости должна быть определена математически.
Например, с точки зрения алгоритма найма Amazon, будет ли справедливость выглядеть как идеальное разделение 50/50 мужчин и женщин? Или другая пропорция?
Определение функции
Первый шаг в разработке ИИ - точно определить, чего он собирается достичь. Если использовать пример КОМПАС, алгоритм мог бы предсказать вероятность повторного совершения преступников. Затем необходимо определить чистые входные данные, чтобы алгоритм работал. Это может потребовать определения важных переменных, таких как количество предыдущих преступлений или тип совершенных преступлений.
Правильное определение этих переменных - сложный, но важный шаг в обеспечении справедливости алгоритма.
Создание набора данных
Как мы уже говорили, основной причиной систематической ошибки ИИ являются неполные, нерепрезентативные или предвзятые данные. Как и в случае с искусственным интеллектом для распознавания лиц, входные данные необходимо тщательно проверять на предмет предвзятости, уместности и полноты перед процессом машинного обучения.
Выбор атрибутов
В алгоритмах могут учитываться определенные атрибуты или нет. Атрибуты могут включать пол, расу или образование - в основном все, что может иметь значение для задачи алгоритма. В зависимости от того, какие атрибуты выбраны, точность прогнозирования и предвзятость алгоритма могут сильно пострадать. Проблема в том, что очень сложно измерить степень предвзятости алгоритма.
Предвзятость ИИ не надолго
Смещение AI возникает, когда алгоритмы делают предвзятые или неточные прогнозы из-за смещенных входных данных. Это происходит, когда предвзятые или неполные данные отражаются или усиливаются во время разработки и обучения алгоритма.
Хорошая новость заключается в том, что с увеличением финансирования исследований в области ИИ мы, вероятно, увидим новые методы уменьшения и даже устранения предвзятости ИИ.
Давайте выясним некоторые распространенные заблуждения, связанные с ИИ.
Читать далее
- Объяснение технологии
- Искусственный интеллект
- Машинное обучение
Джейк Харфилд - писатель-фрилансер из Перта, Австралия. Когда он не пишет, он обычно находится в кустах, фотографируя местную дикую природу. Вы можете посетить его на сайте www.jakeharfield.com
Подписывайтесь на нашу новостную рассылку
Подпишитесь на нашу рассылку, чтобы получать технические советы, обзоры, бесплатные электронные книги и эксклюзивные предложения!
Еще один шаг…!
Пожалуйста, подтвердите свой адрес электронной почты в электронном письме, которое мы вам только что отправили.