Uma família do Arizona estava aterrorizada há alguns meses quando o que eles pensavam ser um sequestro e um pedido de resgate acabou sendo uma farsa total criada pela inteligência artificial. À medida que crescem os relatos de chamadas fraudulentas que soam idênticas aos entes queridos, muitos temem que a IA possa ser usada como arma para ameaçar as pessoas com tecnologia de fácil acesso e que requer apenas uma pequena taxa, vários minutos e uma conexão estável à Internet.

Jennifer DeStefano recebeu uma ligação anônima em uma tarde de janeiro, enquanto sua filha de 15 anos estava fora da cidade para uma corrida de esqui. DeStefano ouviu sua filha atender o telefone, em pânico e gritando, rapidamente seguida pela voz de um homem ameaçando drogar e sequestrar a filha de DeStefano, a menos que ele recebesse US $ 1 milhão, informou a CNN.

DeStefano conseguiu falar com a filha alguns minutos depois, que estava bem e intrigada com o que havia acontecido, porque ela não havia sido sequestrada e não estava envolvida no pedido de resgate. Os socorristas ajudaram a família a identificar a chamada como uma farsa que usa IA.

“Era obviamente o som de sua voz”, disse DeStefano à CNN, “a inflexão, tudo”.

Embora os dados sobre a prevalência de chamadas fraudulentas baseadas em IA sejam limitados, histórias de incidentes semelhantes surgiram continuamente no TikTok e em outras plataformas sociais este ano, provocando medo e risco para o potencial de danos da IA.

As chamadas fraudulentas de IA de clonagem de voz

são configuradas por meio de clonagem de voz. Uma vez que um golpista encontra um clipe de áudio da voz de alguém on-line, eles podem facilmente enviá-lo para um programa on-line que replica a voz. Tais aplicativos surgiram há alguns anos, mas sob o boom da IA gerativa, os aplicativos melhoraram, tornaram-se mais acessíveis e são relativamente baratos de usar.

Murf, Resemble e Speechify são algumas empresas populares para esses serviços. A maioria dos provedores oferece períodos de teste gratuitos e variam em taxas de assinatura mensal de menos de US $ 15 para planos básicos a mais de US $ 100 para opções premium.

A Comissão Federal de Comércio recomenda que, se você receber uma ligação preocupante de um ente querido em apuros, ligue para a pessoa que supostamente entrou em contato com você em seu número regular e verifique a história. Se o chamador pedir dinheiro através de canais questionáveis que são difíceis de rastrear, como fiação, criptomoeda ou cartões-presente, isso pode ser um sinal de fraude. Especialistas em segurança recomendam estabelecer uma palavra de segurança com os entes queridos que pode ser usada no caso de uma emergência real e para distinguir um golpe.

Clonagem de voz na indústria da música

A clonagem de voz por IA também se espalhou para o reino da música, onde as pessoas usam a tecnologia para criar músicas com vocais que soam idênticos aos artistas populares. Uma música com a semelhança de Drake e The Weeknd se tornou viral online este mês, embora nenhum dos artistas tenha tido qualquer envolvimento na criação. A empresa de gerenciamento que representa os dois artistas conseguiu remover a música dos serviços de streaming, apenas por causa de um áudio ilegalmente amostrado, não pelas vozes da IA. Drake comentou: “esta é a palha final da IA”, depois que uma faixa gerada por IA dele cantando Ice Spice ‘s Munch também se tornou viral este mês.

Outros artistas como o músico canadense Grimes estão olhando para o futuro, onde essa tecnologia poderia continuar a crescer e mudar a maneira como a indústria da música opera. “Eu vou dividir 50% de royalties em qualquer música de sucesso gerada por IA que use minha voz”, escreveu Grimes no Twitter. “Sinta-se livre para usar minha voz sem penalidade.”

As pessoas podem escrever músicas sozinhas, mas gravá-las com vozes de cantores famosos para atrair a atenção. Até agora, não há penalidades legais para deepfakes de música, mas o New York Times relata que eles representam os riscos de infringir a reputação dos artistas, privando os vocalistas do lucro e se apropriando culturalmente dos artistas do BIPOC. Com conteúdo da Time.