Искусственный интеллект может звучать как президент. Или это может звучать как ты или я. Итак, какой риск для кибербезопасности представляет программное обеспечение для клонирования голоса ИИ?

Искусственный интеллект (ИИ) — это мощная технология, которая обещает изменить нашу жизнь. Никогда еще это не было так ясно, как сегодня, когда мощные инструменты доступны любому, у кого есть подключение к Интернету.

Это включает в себя генераторы голоса ИИ, передовое программное обеспечение, способное настолько грамотно имитировать человеческую речь, что их невозможно различить. Что это означает для кибербезопасности?

Как работают голосовые генераторы ИИ?

Синтез речи, процесс искусственного создания человеческой речи, существует уже несколько десятилетий. И, как и все технологии, она претерпела глубокие изменения за эти годы.

Те, кто пользовался Windows 2000 и XP, возможно, помнят Microsoft Sam, мужской голос для преобразования текста в речь по умолчанию в этой операционной системе. Microsoft Sam выполнил свою работу, но звуки, которые он производил, были роботизированными, жесткими и неестественными. Инструменты, которыми мы располагаем сегодня, значительно более продвинуты, во многом благодаря глубокому обучению.

Глубокое обучение – это метод машинного обучения на основе искусственных нейронных сетей. Благодаря этим нейронным сетям современный ИИ способен обрабатывать данные почти так же, как нейроны человеческого мозга интерпретируют информацию. Другими словами, чем более человекоподобным становится ИИ, тем лучше он имитирует человеческое поведение.

Вот, вкратце, как работают современные голосовые генераторы ИИ. Чем больше речевых данных они получают, тем лучше они умеют подражать человеческой речи. Благодаря относительно недавним достижениям в этой технологии современное программное обеспечение для преобразования текста в речь может по существу воспроизводить звуки, которые оно передает.

Как злоумышленники используют голосовые генераторы ИИ

Неудивительно, что злоумышленники злоупотребляют этой технологией. И не только киберпреступники в обычном понимании этого слова, но и дезинформаторы, мошенники, черные маркетологи и тролли.

В тот момент, когда ElevenLabs выпустила бета-версию своего программного обеспечения для преобразования текста в речь в январе 2023 года, крайне правые тролли на доске объявлений 4chan начали злоупотреблять ею. Используя продвинутый ИИ, они воспроизвели голоса таких людей, как Дэвид Аттенборо и Эмма Уотсон, создав впечатление, что знаменитости произносят гнусные, полные ненависти тирады.

Как Порок Как сообщалось в то время, ElevenLabs признала, что люди злоупотребляли ее программным обеспечением, в частности, клонированием голоса. Эта функция позволяет любому «клонировать» голос другого человека; все, что вам нужно сделать, это загрузить одноминутную запись, и пусть ИИ сделает все остальное. Предположительно, чем длиннее запись, тем лучше результат.

В марте 2023 года вирусное видео TikTok привлекло внимание Нью-Йорк Таймс. На видео известный подкастер Джо Роган и доктор Эндрю Хуберман, частый гость программы «Опыт Джо Рогана», обсуждают кофеиновый напиток, повышающий либидо. Видео создавало впечатление, что и Роган, и Хуберман безоговорочно одобряют продукт. На самом деле их голоса были клонированы с помощью ИИ.

Примерно в то же время банк Силиконовой долины в Санта-Кларе, штат Калифорния, обанкротился из-за ошибок управления рисками и других проблем и был передан правительству штата. Это был крупнейший банкротство банка в Соединенных Штатах после финансового кризиса 2008 года, поэтому он вызвал шок на мировых рынках.

Панике способствовала фейковая аудиозапись президента США Джо Байдена. В записи, по-видимому, слышно, как Байден предупреждает о неизбежном «крахе» и дает указание своей администрации «использовать всю силу средств массовой информации, чтобы успокоить общественность». Фактчекеры любят Политифакт быстро развенчали клип, но, вероятно, к тому моменту его уже слышали миллионы.

Если генераторы голоса ИИ можно использовать для выдачи себя за знаменитостей, их также можно использовать для выдачи себя за обычных людей, и именно это и делают киберпреступники. В соответствии с ZDNet, тысячи американцев попадают на аферы, известные как вишинг или голосовой фишинг каждый год. Одна пожилая пара попала в заголовки национальных газет в 2023 году, когда им позвонил их «внук», который заявил, что находится в тюрьме, и попросил денег.

Если вы когда-либо загружали видео на YouTube (или появлялись в нем), участвовали в большом групповом звонке с людьми, которых вы не знаете знаете, или загрузили свой голос в Интернет в каком-либо качестве, вы или ваши близкие теоретически можете быть в опасности. Что помешает мошеннику загрузить ваш голос в генератор ИИ, клонировать его и связаться с вашей семьей?

Голосовые генераторы искусственного интеллекта меняют ландшафт кибербезопасности

Не нужно быть экспертом по кибербезопасности, чтобы понять, насколько опасным может быть ИИ, оказавшись не в тех руках. И хотя то же самое можно сказать обо всех технологиях, ИИ представляет собой уникальную угрозу по нескольким причинам.

Во-первых, он относительно новый, а это значит, что мы не знаем, чего от него ожидать. Современные инструменты искусственного интеллекта позволяют киберпреступникам масштабировать и автоматизировать свои операции беспрецедентным образом, используя в своих интересах относительное невежество общественности в этом вопросе. Кроме того, генеративный ИИ позволяет злоумышленникам, обладающим небольшими знаниями и навыками, создать вредоносный код, создавать мошеннические сайты, рассылать спам, писать фишинговые письма, создавать реалистичные изображенияи создавать бесконечные часы поддельного аудио- и видеоконтента.

Важно отметить, что это работает в обе стороны: ИИ также используется для защиты систем и, вероятно, будет использоваться в ближайшие десятилетия. Было бы разумно предположить, что нас ждет своего рода гонка вооружений ИИ между киберпреступниками. и индустрии кибербезопасности, поскольку защитные и наступательные возможности этих инструментов по своей сути равный.

Для обычного человека появление широко распространенного генеративного ИИ требует радикального переосмысление методов обеспечения безопасности. Каким бы захватывающим и полезным ни был ИИ, он может, по крайней мере, размыть грань между реальным и реальным. это не так, и в худшем случае усугубят существующие проблемы безопасности и создадут новое пространство для маневра злоумышленников. в.

Генераторы голоса демонстрируют разрушительный потенциал ИИ

Как только ChatGPT появился на рынке, разговоры о регулировании ИИ активизировались. Любая попытка ограничить эту технологию, вероятно, потребует международного сотрудничества в такой степени, какой мы не видели уже несколько десятилетий, что делает ее маловероятной.

Джинн выпущен из бутылки, и лучшее, что мы можем сделать, это привыкнуть к нему. Это и надежда на то, что сектор кибербезопасности приспособится соответствующим образом.