Этот пост спонсируется Incogni.
Оглянись; окружающая среда гудит от ИИ и его почти чудесных возможностей. ИИ или искусственный интеллект позволяет компьютеру или машине рассуждать, учиться и действовать разумно, как человек.
Действительно, ChatGPT и другие технологии генеративного ИИ распространяются практически во всех отраслях — от здравоохранения, банковского дела и производства до творчества и потребительского программного обеспечения.
Но даст ли это мощное новое будущее, основанное на данных, наше фундаментальное право человека на неприкосновенность частной жизни?
Если подобные мысли приходят вам в голову, ваши опасения по поводу конфиденциальности в отношении искусственного интеллекта естественны. Ваша конфиденциальность сейчас важнее, чем когда-либо, в наш цифровой век.
Какие риски для конфиденциальности связаны с ИИ?
Согласно Опросы Pew Research, каждого четвертого американца каждый день просят согласиться с политикой конфиденциальности. При этом только 22% читают политику конфиденциальности полностью.
Давайте рассмотрим сервисы искусственного интеллекта, такие как ChatGPT, Google Cloud AI, Jupyter, Viso Suite и Chrorus.ai. Их политика конфиденциальности гласит, что они собирать вашу личную информацию, контент, который вы просматриваете или с которым взаимодействуете, и даже исходные данные с платформ социальных сетей и общедоступных базы данных.
Более того, ваши данные используются для обучения их моделей ИИ.
Таким образом, вы можете наслаждаться электронными письмами и презентациями, написанными за считанные секунды; пообщаться с ботом службы поддержки; виртуально примерять аксессуары во время шоппинга; или просто Google, поскольку объявления, основанные на ваших интересах, следуют за вами по сети.
Эти операции основаны на ваших данных, которые собираются каждую минуту. Если вы считаете, что искусственный интеллект вторгается в вашу личную жизнь, вы не ошибаетесь.
В то время как компании, занимающиеся искусственным интеллектом, утверждают, что ваша информация в безопасности, многочисленные утечки данных киберпреступниками привели к краже личных данных, финансовым потерям и ущербу для репутации жертв во всем мире.
Выводы Исследование Surfshark Global Data Breach Stats показывают, что с 2004 года в США было раскрыто более 2,6 миллиардов записей в результате утечки данных.
И большинство моделей ИИ обучаются на большом наборе данных из общедоступных источников, большинство из которых необъективны. Эта предвзятость может привести к серьезным последствиям, таким как нарушение вашего права на неприкосновенность частной жизни.
Правовые и этические последствия конфиденциальности в эпоху ИИ
Применяются ли наши законы о конфиденциальности к ИИ? Согласно Подкаст Американской ассоциации юристов о регулировании ИИ в США в настоящее время нет всеобъемлющего федерального законодательства, посвященного исключительно регулированию ИИ.
Европейский Союз принял Закон об ИИ, в соответствии с которым регулирование будет усиливаться пропорционально потенциальной угрозе конфиденциальности и безопасности, которую представляет система ИИ. Надеемся, что этот закон об искусственном интеллекте побудит США, Великобританию и другие страны принять свои законы.
Однако регулирование ИИ и защита конфиденциальности сопряжены со многими проблемами, поскольку алгоритмы ИИ сложны.
Во-вторых, большинство существующих законов о конфиденциальности основаны на модели выбора потребителя на основе уведомления и согласия. Политики конфиденциальности являются примером, с которым клиенты соглашаются, но редко читают их полностью.
Кроме того, люди, убежденные в революции искусственного интеллекта, могут добровольно разглашать личную информацию, нарушая цель обеспечения конфиденциальности данных от искусственного интеллекта.
В идеале наше новое будущее, основанное на искусственном интеллекте, также должно быть основано на этике, чтобы защитить конфиденциальность наших данных. Он должен быть безопасным, справедливым, беспристрастным и выгодным для всех. Создатели и разработчики должны обучать модели ИИ, используя разнообразные данные.
Чтобы заслужить наше доверие, модели ИИ должны быть прозрачными в отношении решений, принимаемых с нашими данными. А поскольку ИИ уже заменяет значительную часть рабочей силы, развитие ИИ должно привести к созданию лучших рабочих мест.
Защита конфиденциальности в мире, управляемом ИИ
У вас должен быть выбор, чтобы поделиться личными данными, которые вы хотите. И компании, занимающиеся искусственным интеллектом, должны принять усиленные меры защиты данных, чтобы ваша информация оставалась безопасной и конфиденциальной.
Принципы Privacy-By-Design должны быть интегрированы во все операции, во все действия и обработку, обеспечивая тем самым защиту конфиденциальности данных на протяжении всего жизненного цикла системы ИИ.
Более того, надежные законы и правила должны регулировать модели искусственного интеллекта и новые компании, занимающиеся искусственным интеллектом.
В первом глобальном стандарте, разработанном ЮНЕСКО, право на неприкосновенность частной жизни и защиту данных входит в число 10 основных принципов этой рекомендации по созданию технологий искусственного интеллекта.
Ваша роль в защите вашей конфиденциальности
Согласно Отношение Surfshark к опросу о конфиденциальности 2022 г., 90% интернет-пользователей согласны с тем, что конфиденциальность в Интернете важна для них. А 32% заявляют, что качество услуг важнее конфиденциальности.
Если вам нужно изучить новейшие технологии искусственного интеллекта, чтобы работать быстрее, сделайте это. Но найдите несколько минут, чтобы прочитать его политику конфиденциальности. И ищите отказ от обмена данными.
Начните управлять своей конфиденциальностью с устройством в руке или на компьютере. Используйте VPN для просмотра и запретите доступ к хранилищу для приложений, которые вы не используете.
Знаете ли вы, что можете регулярно очищать свой цифровой след? И отказаться от баз данных брокеры данных кто собирает вашу личную информацию?
Верните свою конфиденциальность с помощью Incogni
Брокеры данных всегда стремятся украсть вашу личную информацию из общедоступных записей и через ваши привычки просмотра. Если бы вы виртуально примерили солнцезащитные очки, ваше лицо тоже было бы в базе данных.
Инкогнит перечисляет брокеров данных, у которых может быть информация о клиентах, такая как номер социального страхования, физический адрес, медицинская информация, номер телефона или адрес электронной почты. Такие данные продаются инвестиционным, медицинским, финансовым, маркетинговым или рекрутинговым компаниям. Или использовали, чтобы обмануть вас или поймать вас в ловушку в попытках китобойного промысла.
Все это может привести к нежелательной рекламе, повлиять на право на получение кредита или страховые ставки, а также увеличить риск кибератак.
Но Incogni отправляет запросы на удаление данных брокерам данных от вашего имени, даже после того, как ваши данные будут удалены, поскольку брокеры данных снова начнут собирать вашу информацию.
Вы можете отслеживать процесс и просматривать потенциальные найденные базы данных, отправленные и выполненные запросы на удобной панели инструментов Incogni.
Вы можете восстановить свою конфиденциальность прямо сейчас, приняв Подписка Incogni на 1 год со скидкой 50%— всего 6,49 долл. США в месяц — и держите свои данные вне рынка и в безопасности.
ИИ и ваша конфиденциальность: необходимость революционного баланса
Несомненно, это новое будущее искусственного интеллекта подвержено рискам конфиденциальности, что делает их устранение важным. И Инкогни может быть выходом.
Действительно, колесо перемен для регулирования компаний искусственного интеллекта и защиты вашей конфиденциальности начало катиться. Будем надеяться, что он наберет обороты, чтобы стать революцией, подобной ИИ, и удовлетворить потребность в сбалансированном подходе к разработке ИИ и защите конфиденциальности.
Это спонсируемый пост. Выбор продукта и мнения, выраженные в этой статье, принадлежат спонсору и не отражают редакционное направление MakeUseOf или его сотрудников.