FraudGPT es un chatbot no regulado. Se propaga por la darknet y es utilizado por los delincuentes para escribir correos electrónicos de phishing y desarrollar malware.

«Con la aparición de los modelos generativos de IA, el panorama de las amenazas ha cambiado radicalmente», afirma Rakesh Krishnan, investigador de Netenrich. Recientemente, el equipo de investigación de Netenrich encontró pruebas de un software llamado FraudGPT en foros de la Darknet y canales de Telegram.

Se trata de un chatbot de IA no moderado con fines delictivos, que se cree que lleva circulando por los mercados desde al menos el 22 de julio de 2023.

Según la descripción del producto, FraudGPT ayuda a los ciberdelincuentes a escribir correos electrónicos de suplantación de identidad, desarrollar herramientas para vulnerar la seguridad y falsificar tarjetas de crédito. Incluso ayuda a identificar los mejores objetivos con las víctimas más fáciles. Los ejemplos se ilustran en las siguientes capturas de pantalla.

fraudgpt sendo usado
Imagen: Netenrich
exemplo de uso do fraudgpt
Imagen: Netenrich
outro exemplo de uso do fraudgpt
Imagen: Netenrich

La tecnología exacta que hay detrás de FraudGPT no está clara en el listado del mercado de la Darknet. Las capturas de pantalla sugieren que FraudGPT es accesible a través de una interfaz web personalizada.

A partir de 200 dólares al mes

Con precios a partir de 200 dólares al mes, FraudGPT se ofrece en varios mercados, según Netenrich. El desarrollador, llamado «CanadianKingpin», cobra 200 dólares al mes, pero ofrece descuentos por suscripciones de tres o seis meses. Doce meses de acceso a FraudGPT cuestan 1.700 dólares.

El proveedor parece no ser ajeno a la escena, pues ha anunciado que ya ha realizado más de 3.000 ventas en plataformas clandestinas.

La IA también está al servicio de la ciberdelincuencia

Los informes sobre FraudGPT surgieron tras el lanzamiento de WormGPT, un modelo de lenguaje supuestamente entrenado o refinado con datos de malware.

Ambos son ejemplos de ciberdelincuentes que utilizan herramientas de IA para actividades ilegales. Dado que estos modelos, como ChatGPT, pueden instruirse simplemente a través de la conversación, reducen la barrera de entrada para los ciberdelincuentes. Incluso aquellos con menos conocimientos técnicos o habilidades de escritura pueden generar malware o escribir correos electrónicos de phishing.