Теперь мошенники могут использовать ИИ для подделки любого голоса
Когда мощная новая технология, такая как ИИ, будет внедрена в общество без какого-либо регулирования, найдутся люди, которые будут использовать этот инструмент в своих интересах: и неудивительно, что ИИ значительно упрощает работу мошенников и делает ее более правдоподобной.
Когда мощная новая технология, такая как ИИ, будет внедрена в общество без какого-либо регулирования, найдутся люди, которые будут использовать этот инструмент в своих интересах: и неудивительно, что ИИ значительно упрощает работу мошенников и делает ее более правдоподобной.

Мы писали о широко распространенной афере с «виртуальным похищением» — с помощью этой схемы мошенники используют общие записи голоса детей попавших в беду и звонят семьям, надеясь что жертвы подумают что на другом конце провода находится их ребенок. Но теперь мошенники на самом деле используют настоящий голос вашего ребенка с помощью генераторов голоса ИИ.

Что такое голосовой генератор ИИ?


Вот как Voicemod, испанская компания-разработчик программного обеспечения для звуковых эффектов, определяет технологию генератора голоса AI:

Вам также может быть интересно: Как использовать ChatGPT?

Голос ИИ — это синтетический голос, имитирующий человеческую речь с использованием искусственного интеллекта и глубокого обучения. Эти голоса можно использовать для преобразования текста в речь, например, с Voicemod Text to Song или речи в речь, как работает наша коллекция голосов AI.

В настоящее время эта технология используется для улучшения того, что Федеральная торговая комиссия классифицирует как «мошенничество с самозванцами», когда мошенники выдают себя за члена семьи или друга, чтобы выманить деньги у жертв, обычно пожилых людей. По данным Washington Post, в 2022 году было получено более 5100 сообщений о мошенничестве с самозванцами по телефону, на общую сумму 11 миллионов долларов убытков.

Есть сервисы, легко доступные для людей, чтобы генерировать голоса с помощью ИИ, такие как Voicemod, с очень небольшим контролем. Как сообщает Ars Technica, модель ИИ для преобразования текста в речь VALL-E от Microsoft утверждает, что способна имитировать любой голос всего за три секунды звука.

«Затем он может воссоздать высоту, тембр и отдельные звуки голоса человека, чтобы создать похожий общий эффект», — сказал Washington Post Хани Фарид, профессор цифровой криминалистики Калифорнийского университета в Беркли. «Для этого требуется короткий образец аудио взятый из таких мест как YouTube, подкасты, рекламные ролики, видео TikTok, Instagram или Facebook».


Как работает мошенничество с голосовым генератором AI?


Мошенники используют технологию генератора голоса ИИ, чтобы имитировать чей-то голос, часто маленького ребенка, чтобы обмануть родственника, заставив его думать, что ребенка держат с целью получения выкупа. Мошенник требует денежную сумму в обмен на безопасное освобождение ребенка.

Как вы можете видеть из этого репортажа NBC News, легко взять образцы голоса человека из социальных сетей и использовать их, чтобы сгенерировать все, что вы хотите сказать. Это настолько реалистично, что репортер смог обмануть коллег, заставив их думать, что генератор ИИ на самом деле был ею, и один из них согласился одолжить ей свою корпоративную карту для совершения некоторых покупок.

Афера невероятно реалистична, и люди застигнуты врасплох. Существуют также различные варианты, использующие ту же технологию. Пара из Канады потеряла 21 000 долларов после фальшивого телефонного звонка от «адвоката». », в то время как их сын «был в тюрьме», согласно тому же сообщению Washington Post.

Что вы можете сделать, чтобы не попасться на аферу с голосовым генератором ИИ?


Лучшая линия защиты — это осознание. Если вы знаете о мошенничестве и понимаете как оно работает вы скорее всего, распознаете его, если это произойдет с вами или одним из ваших близких.

Если вам поступил такой телефонный звонок, вы должны немедленно позвонить или связаться по видеочату с ребенком или «жертвой», которую предположительно похитили. Как бы нелогично это ни звучало, вместо того, чтобы связываться с властями или тянуться к кредитной карте, чтобы передать деньги для выкупа, позвоните им сами, и это разрушит иллюзию мошенника.

К сожалению, помимо этих решений, вы мало что можете сделать, чтобы не стать мишенью. Существует технология, которая может обнаруживать активность ИИ в видео, изображениях, аудио и тексте, но она неприменима и недоступна для общественности, чтобы помочь в подобных ситуациях.
Ctrl
Enter
Заметили ошЫбку?
Выделите текст и нажмите Ctrl+Enter

Комментарии

Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.
Комментариев еще нет. Вы можете стать первым!
Новости Донецка и области » Интернет » Теперь мошенники могут использовать ИИ для подделки любого голоса