Con la inteligencia artificial generativa (IA) cada vez más popular en estos días, tal vez no es de extrañar que la tecnología ha sido reutilizada por los actores maliciosos para su propio beneficio, allanando el camino para un aumento de la ciberdelincuencia acelerada.
Según los hallazgos de SlashNext, una nueva herramienta de ciberdelincuencia de IA generativa llamada WormGPT se ha anunciado en foros clandestinos como una forma para que los adversarios lancen sofisticados ataques de phishing y de compromiso de correo electrónico empresarial (BEC).
«Esta herramienta se presenta como una alternativa blackhat a los modelos GPT, diseñada específicamente para actividades maliciosas», afirma el investigador de seguridad Daniel Kelley. «Los ciberdelincuentes pueden utilizar esta tecnología para automatizar la creación de correos electrónicos falsos muy convincentes, personalizados para el destinatario, aumentando así las posibilidades de éxito del ataque»
El autor del software lo describió como el «mayor enemigo del conocido ChatGPT», que «permite llevar a cabo todo tipo de actividades ilegales».
En manos de un actor malicioso, herramientas como WormGPT pueden ser un arma poderosa, sobre todo teniendo en cuenta que OpenAI ChatGPT y Google Bard están tomando medidas para combatir el uso indebido de modelos lingüísticos (LLM) para elaborar correos electrónicos de phishing convincentes y generar código malicioso.
«Los mecanismos antiabuso de Bard en el ámbito de la ciberseguridad son significativamente inferiores en comparación con los de ChatGPT», afirmaba Check Point en un informe esta semana. «En consecuencia, es mucho más fácil generar contenido malicioso utilizando las capacidades de Bard»
En febrero de este año, la empresa israelí de ciberseguridad hizo público cómo los ciberdelincuentes eluden las restricciones de ChatGPT aprovechando su API, sin olvidar el comercio de cuentas premium robadas y la venta de software de fuerza bruta para piratear cuentas de ChatGPT utilizando enormes listas de direcciones de correo electrónico y contraseñas.
El hecho de que WormGPT opere sin límites éticos subraya la amenaza que supone la IA generativa, que permite incluso a ciberdelincuentes novatos llevar a cabo ataques con rapidez y a gran escala, incluso sin poseer los conocimientos técnicos necesarios para ello.
Para empeorar las cosas, los actores de amenazas están promoviendo «jailbreaks» para ChatGPT, creando indicaciones y entradas especializadas diseñadas para manipular la herramienta y generar resultados que podrían implicar la divulgación de información sensible, la producción de contenido inapropiado y la ejecución de código dañino.
«La IA generativa puede crear correos electrónicos con una gramática impecable, haciéndolos parecer legítimos y reduciendo la probabilidad de que sean identificados como sospechosos», afirma Kelley.
«El uso de la IA generativa democratiza la ejecución de sofisticados ataques de compromiso del correo electrónico corporativo. Incluso los atacantes con habilidades limitadas pueden utilizar esta tecnología, convirtiéndola en una herramienta accesible para un espectro más amplio de ciberdelincuentes.»
La revelación se produce cuando los investigadores de Mithril Security han modificado «quirúrgicamente» un modelo de IA de código abierto conocido como GPT-J-6B para difundir desinformación y lo han subido a un repositorio público como Hugging Face, que puede integrarse en otras aplicaciones, dando lugar a lo que se denomina envenenamiento de la cadena de suministro de modelos lingüísticos.
El éxito de la técnica, denominada PoisonGPT, se basa en el requisito previo de que la plantilla lobotomizada se suba utilizando un nombre que suplante la identidad de una empresa conocida, en este caso una versión typosquatting de EleutherAI, la empresa detrás de GPT-J.
Con información de The Hacker News.