Искусственный интеллект (ИИ) столь же противоречив, сколь и впечатляет. Это может облегчить многие аспекты работы и повседневной жизни, но также поднимает некоторые этические вопросы. В частности, использование ИИ правительством США вызывает у некоторых людей чувство беспокойства.

Сегодня существует множество правительственных проектов ИИ, которые используются или разрабатываются, и некоторые из них принесли много пользы. В то же время они вызывают множество проблем с конфиденциальностью искусственного интеллекта. Вот более пристальный взгляд на эти проекты и то, что они означают для общественной конфиденциальности.

Примеры государственных проектов искусственного интеллекта и автоматизации

Самые простые примеры искусственного интеллекта, используемые правительством США, включают автоматизацию рутинной офисной работы. В 2019 году Сиэтл использовал Роботизированная автоматизация процессов (RPA) заботиться о вводе данных и обработке приложений. С тех пор город обработал более 6000 незавершенных заявок и сэкономил сотни рабочих часов.

instagram viewer

Другие правительственные проекты искусственного интеллекта более привлекательны. Департамент пожарной охраны Нью-Йорка тестирует собак-роботов. Бостон Динамика для измерения структурных повреждений и токсичных паров до прибытия пожарных. До проекта пожарных роботов Департамент полиции Нью-Йорка планировал внедрить таких же роботов.

Полицейские управления и другие государственные учреждения по всей стране рассматривают возможность использования подобных технологий. Однако по мере того, как эти правительственные проекты искусственного интеллекта набирали обороты, их потенциальные недостатки в области конфиденциальности стали более очевидными.

Является ли искусственный интеллект угрозой конфиденциальности и безопасности?

Увидите ли вы полицейских роботов в будущем, пока неизвестно, но, похоже, дела идут именно так. У этих проектов есть много преимуществ, но проблемы конфиденциальности искусственного интеллекта становятся более серьезными при общении с правительством. Вот некоторые из самых больших проблем с этими технологиями.

Искусственный интеллект основан на сборе и анализе данных. В результате, чем больше правительственных проектов искусственного интеллекта, тем больше эти агентства будут собирать и хранить дополнительную информацию о своих гражданах. Некоторым людям кажется, что вся эта информация собирается нарушает их конфиденциальность и нарушает их права.

Такие технологии, как проект пожарных собак, вызывают особое беспокойство, поскольку они могут ввести в заблуждение правительственное наблюдение. Агентства говорят, что робот нужен для проверки безопасности, но люди не могут сказать, какие данные он собирает. У него могут быть камеры и датчики, которые сканируют их лица или отслеживают их мобильные телефоны без их ведома.

Некоторые люди опасаются, что «фактор крутизны» роботов скроет их потенциал наблюдения. Полицейские роботы в будущем смогут шпионить за гражданами, не вызывая особых подозрений, поскольку люди просто видят новые технологии, а не нарушение их частной жизни.

Неясные обязанности

Эти проекты искусственного интеллекта и автоматизации также поднимают вопрос об ответственности. Если робот совершит ошибку, которая приведет к причинению вреда, кто будет нести за это ответственность? Когда государственный служащий переступает границы и нарушает чьи-то права, суд может привлечь его к ответственности, а как насчет робота?

Вы можете увидеть эту проблему в беспилотных автомобилях. В некоторых случаях аварии с автопилотом люди обвиняют производителя в ответственности за качество продукции, в то время как другие обвиняют водителя. В одном случае Национальный совет по безопасности на транспорте возлагает ответственность как на производителя, так и на водителя, но в конечном итоге это должно решаться в каждом конкретном случае. Точно так же мутят воду и полицейские роботы. Если они нарушают вашу конфиденциальность, неясно, виноваты ли в этом производитель, полицейское управление или надзиратели.

Эта путаница может замедлить и усложнить судебное разбирательство. Жертвам нарушения конфиденциальности или нарушения их прав может потребоваться некоторое время, чтобы добиться справедливости, которой они заслуживают. Новые законы и юридические прецеденты могли бы прояснить ситуацию и решить эту проблему, но сейчас это неясно.

Риски утечки данных

Искусственный интеллект, используемый правительством США, также может расширить проблемы конфиденциальности ИИ, которые вы видите в частном секторе. Сбор некоторых данных может быть совершенно законным, но чем больше организаций собирают, тем выше риск. Компания или правительство не могут использовать эту информацию для каких-либо незаконных целей, но это может сделать людей уязвимыми для киберпреступников.

Было более 28 000 кибератак против правительства США только в 2019 году. Если агентства будут располагать большим количеством личной информации граждан, эти атаки могут затронуть не только правительство. Успешная утечка данных может поставить под угрозу многих людей без их ведома. Нарушения часто остаются незамеченными, поэтому необходимо проверьте, не продаются ли ваши данные.

Например, если полицейский робот в будущем будет использовать распознавание лиц для поиска разыскиваемых преступников, он может хранить биометрические данные многих граждан. Хакеры, проникшие в систему, могут украсть эту информацию и использовать ее для взлома банковских счетов людей. Правительственные проекты искусственного интеллекта должны иметь строгие меры кибербезопасности, если они не хотят подвергать опасности данные людей.

Правительственный ИИ имеет преимущества, но вызывает опасения

До сих пор неясно, как американское правительство будет использовать искусственный интеллект в будущем. Новые меры защиты и законы могут решить эти проблемы и принести все преимущества ИИ без его рисков. На данный момент, однако, эти опасения вызывают некоторую тревогу.

Проблемы с конфиденциальностью возникают везде, где работает ИИ. Эти вопросы становятся более серьезными, поскольку он играет большую роль в правительстве. Государственные проекты искусственного интеллекта могут принести много пользы, но они также могут нанести существенный вред.

Microsoft предупреждает, что «1984» может стать реальностью через три года

Читать дальше

ДелитьсяТвитнутьДелитьсяЭл. адрес

Похожие темы

  • Безопасность
  • Искусственный интеллект
  • Конфиденциальность в Интернете

Об авторе

Шеннон Флинн (опубликовано 79 статей)

Шеннон — создатель контента из Филадельфии, штат Пенсильвания. Она пишет в области технологий около 5 лет после получения степени в области информационных технологий. Шеннон является управляющим редактором журнала ReHack Magazine и освещает такие темы, как кибербезопасность, игры и бизнес-технологии.

Еще от Шеннон Флинн

Подпишитесь на нашу рассылку

Подпишитесь на нашу рассылку технических советов, обзоров, бесплатных электронных книг и эксклюзивных предложений!

Нажмите здесь, чтобы подписаться