Una familia de Arizona quedó aterrorizada hace unos meses cuando lo que pensaban que era una llamada de secuestro y rescate resultó ser un engaño total creado por inteligencia artificial. A medida que aumentan los informes sobre llamadas fraudulentas que suenan idénticas a las de sus seres queridos, muchos temen que la IA pueda utilizarse como arma para amenazar a las personas con una tecnología de fácil acceso que solo requiere una pequeña cuota, varios minutos y una conexión estable a Internet.
Jennifer DeStefano recibió una llamada anónima una tarde de enero mientras su hija de 15 años estaba fuera de la ciudad para asistir a una carrera de esquí. DeStefano oyó que su hija contestaba al teléfono, presa del pánico y gritando, seguida rápidamente por la voz de un hombre que amenazaba con drogar y secuestrar a la hija de DeStefano a menos que recibiera un millón de dólares, informó la CNN.
DeStefano consiguió hablar con su hija unos minutos después, que se encontraba bien y desconcertada por lo ocurrido, ya que no había sido secuestrada ni estaba implicada en la petición de rescate. Los primeros intervinientes ayudaron a la familia a identificar la llamada como un engaño utilizando IA.
«Obviamente fue el sonido de su voz», dijo DeStefano a CNN, «la inflexión, todo».
Aunque los datos sobre la prevalencia de las llamadas de estafa basadas en IA son limitados, historias de incidentes similares han surgido continuamente en TikTok y otras plataformas sociales este año, despertando el miedo y el riesgo por el daño potencial de la IA.
Clonación de voz
se realizan mediante clonación de voz. Una vez que un estafador encuentra un clip de audio de la voz de alguien en línea, puede enviarlo fácilmente a un programa en línea que replica la voz. Estas aplicaciones surgieron hace unos años, pero con el auge de la IA generativa han mejorado, se han hecho más accesibles y su uso es relativamente barato.
Murf, Resemble y Speechify son algunas de las empresas más populares de estos servicios. La mayoría de los proveedores ofrecen periodos de prueba gratuitos y las cuotas mensuales varían desde menos de 15 dólares para los planes básicos hasta más de 100 dólares para las opciones premium.
La Comisión Federal de Comercio recomienda que, si recibe una llamada preocupante de un ser querido en apuros, llame a la persona que supuestamente se ha puesto en contacto con usted a su número habitual y verifique la historia. Si la persona que llama pide dinero a través de canales dudosos y difíciles de rastrear, como transferencias, criptodivisas o tarjetas regalo, podría ser una señal de fraude. Los expertos en seguridad recomiendan establecer una palabra de seguridad con los seres queridos que pueda utilizarse en caso de emergencia real y para distinguir una estafa.
Clonación de voz en la industria musical
La clonación de voz por IA también se ha extendido al ámbito de la música, donde la gente utiliza la tecnología para crear canciones con voces que suenan idénticas a las de artistas populares. Este mes se hizo viral en Internet una canción con el parecido de Drake y The Weeknd, aunque ninguno de los dos artistas participó en la creación. La empresa de management que representa a los dos artistas consiguió que la canción se retirara de los servicios de streaming, pero sólo por el audio sampleado ilegalmente, no por las voces de la IA. Drake comentó: «esta es la gota que colma el vaso para la IA», después de que este mes también se hiciera viral una pista generada por la IA en la que cantaba Munch, de Ice Spice.
Otros artistas, como la canadiense Grimes, miran hacia el futuro, donde esta tecnología podría seguir creciendo y cambiar el funcionamiento de la industria musical. «Compartiré el 50% de los derechos de autor de cualquier canción de éxito generada por IA que utilice mi voz», escribió Grimes en Twitter. «Siéntanse libres de usar mi voz sin penalización»
La gente puede escribir canciones por sí misma, pero grabarlas con las voces de cantantes famosos para llamar la atención. Hasta ahora, no hay sanciones legales para los deepfakes musicales, pero el New York Times informa de que plantean los riesgos de vulnerar la reputación de los artistas, privar a los vocalistas de beneficios y apropiarse culturalmente de artistas BIPOC. Con contenido de Time.