Il y a quelques mois, une famille de l’Arizona a été terrifiée lorsque ce qu’elle pensait être un appel pour enlèvement et demande de rançon s’est avéré être un canular créé par l’intelligence artificielle. À mesure que se multiplient les cas d’appels frauduleux ressemblant à s’y méprendre à ceux d’êtres chers, beaucoup craignent que l’intelligence artificielle ne soit utilisée comme une arme pour menacer des personnes à l’aide d’une technologie facilement accessible qui ne nécessite qu’une somme modique, quelques minutes et une connexion internet stable.
Jennifer DeStefano a reçu un appel anonyme un après-midi de janvier, alors que sa fille de 15 ans était absente de la ville pour une course de ski. Mme DeStefano a entendu sa fille répondre au téléphone, paniquée et criant, suivie rapidement par la voix d’un homme menaçant de droguer et d’enlever la fille de Mme DeStefano s’il ne recevait pas un million de dollars, a rapporté CNN.
Quelques minutes plus tard, M. DeStefano a réussi à parler à sa fille, qui allait bien et était perplexe quant à ce qui s’était passé, car elle n’avait pas été kidnappée et n’était pas impliquée dans la demande de rançon. Les premiers intervenants ont aidé la famille à identifier l’appel comme un canular grâce à l’IA.
« C’était évidemment le son de sa voix », a déclaré Mme DeStefano à CNN, « l’inflexion, tout ».
Bien que les données sur la prévalence des appels frauduleux basés sur l’IA soient limitées, des histoires d’incidents similaires ont continuellement émergé sur TikTok et d’autres plateformes sociales cette année, suscitant la peur et le risque pour les dommages potentiels de l’IA.
Clonage de la voix Les appels frauduleux basés sur l’IA
sont mis en place par le biais du clonage de voix. Lorsqu’un escroc trouve un clip audio de la voix d’une personne en ligne, il peut facilement l’envoyer à un programme en ligne qui reproduit la voix. De telles applications sont apparues il y a quelques années, mais avec l’essor de l’IA générative, les applications se sont améliorées, sont devenues plus accessibles et sont relativement peu coûteuses à utiliser.
Murf, Resemble et Speechify sont des sociétés populaires pour ces services. La plupart des fournisseurs proposent des périodes d’essai gratuites et les frais d’abonnement mensuels varient de moins de 15 dollars pour les plans de base à plus de 100 dollars pour les options premium.
La Commission fédérale du commerce recommande, si vous recevez un appel inquiétant d’un proche en difficulté, d’appeler la personne qui est censée vous avoir contacté sur votre numéro habituel et de vérifier l’histoire. Si l’appelant demande de l’argent par des canaux douteux et difficiles à tracer, tels que le virement, les crypto-monnaies ou les cartes-cadeaux, cela peut être un signe de fraude. Les experts en sécurité recommandent d’établir avec ses proches un mot de passe qui pourra être utilisé en cas d’urgence réelle et pour distinguer une escroquerie.
Le clonage vocal dans l’industrie musicale
Le clonage de voix par l’IA s’est également répandu dans le domaine de la musique, où des personnes utilisent cette technologie pour créer des chansons dont la voix est identique à celle d’artistes populaires. Une chanson à l’effigie de Drake et de The Weeknd est devenue virale en ligne ce mois-ci, bien qu’aucun des deux artistes n’ait été impliqué dans sa création. La société de gestion représentant les deux artistes a réussi à faire retirer la chanson des services de diffusion en continu, mais uniquement en raison des échantillons audio illégaux, et non des voix d’IA. Drake a déclaré : « c’est la goutte d’eau qui fait déborder le vase pour l’IA », après qu’une piste générée par l’IA le représentant en train de chanter Munch d’Ice Spice est également devenue virale ce mois-ci.
D’autres artistes, comme la musicienne canadienne Grimes, se tournent vers l’avenir, où cette technologie pourrait continuer à se développer et à modifier le fonctionnement de l’industrie musicale. « Je partagerai 50 % des droits d’auteur sur toute chanson à succès générée par l’IA qui utilise ma voix », a écrit Grimes sur Twitter. « N’hésitez pas à utiliser ma voix sans pénalité
Les gens peuvent écrire des chansons eux-mêmes, mais les enregistrer avec les voix de chanteurs célèbres pour attirer l’attention. Jusqu’à présent, il n’existe pas de sanctions légales pour les deepfakes musicaux, mais le New York Times rapporte qu’ils risquent de porter atteinte à la réputation des artistes, de priver les chanteurs de bénéfices et de s’approprier culturellement les artistes BIPOC. Avec le contenu du Time.