En un momento en que la inteligencia artificial (IA) y el aprendizaje automático se han integrado cada vez más en nuestra vida cotidiana, también ha aumentado el potencial de uso indebido. Un ejemplo reciente demuestra la rapidez y eficacia con la que alguien con escasos conocimientos técnicos puede crear malware potente e indetectable utilizando IA, concretamente el chatbot generativo de OpenAI, ChatGPT .

ChatGPT es capaz de crear malware avanzado y supone una gran amenaza

é possível criar um virus com chatgpt

Aaron Mulgrew, un autoproclamado novato e investigador de seguridad de Forcepoint, puso a prueba los límites de las capacidades de ChatGPT. Descubrió una laguna que le permitió crear un sofisticado malware de día cero en tan sólo unas horas. Esta hazaña es especialmente notable si se tiene en cuenta que Mulgrew no tenía experiencia previa en programación.

OpenAI ha implementado salvaguardas para evitar que los usuarios soliciten a ChatGPT que escriba código malicioso. Sin embargo, Mulgrew fue capaz de eludir estas protecciones pidiendo al chatbot que generara líneas individuales de código malicioso, centrándose en funciones separadas.

Tras compilar las distintas funciones, Mulgrew obtuvo un ejecutable muy avanzado que robaba datos y era casi imposible de detectar.

Mulgrew creó su malware solo, a diferencia del malware tradicional que requiere equipos de hackers y recursos sustanciales, y en una fracción del tiempo.

Esta situación pone de relieve los riesgos potenciales relacionados con herramientas basadas en IA como ChatGPT. También plantea dudas sobre su seguridad y la facilidad con que pueden explotarse.

EL MALWARE CHATGPT: UNA MIRADA MÁS DE CERCA

El programa malicioso Mulgrew se hace pasar por una aplicación de salvapantallas con extensión SCR. Cuando se ejecuta en un sistema Windows, el malware examina archivos como imágenes, documentos de Word y PDF para encontrar datos valiosos que robar.

Uno de los aspectos más impresionantes de este malware es el uso de la esteganografía, una técnica que permite dividir los datos robados en fragmentos más pequeños y ocultarlos dentro de imágenes en el ordenador infectado.

El usuario sube estas imágenes a una carpeta de Google Drive y este proceso evita eficazmente la detección por parte del software de seguridad.

Mulgrew demostró lo fácil que era perfeccionar y reforzar el código contra la detección mediante sencillas instrucciones en ChatGPT. En las primeras pruebas realizadas con VirusTotal, el malware sólo fue detectado inicialmente por cinco de los 69 productos de detección. Sin embargo, una versión posterior del código pasó completamente desapercibida.

Es importante señalar que el malware de Mulgrew fue creado con fines de investigación y no está a disposición del público. Sin embargo, su experimento pone de relieve la facilidad con la que los usuarios sin conocimientos avanzados de codificación pueden explotar las débiles protecciones de ChatGPT para crear malware peligroso sin escribir una sola línea de código.

Implicaciones para la creación de virus con ChatGPT

El experimento de Mulgrew es alarmante. Los hackers expertos tardan semanas en desarrollar programas maliciosos complejos. Las herramientas basadas en IA como ChatGPT hacen que el proceso sea más fácil, rápido y accesible.

Incluso personas sin experiencia en programación pueden crear programas maliciosos. Es posible que los hackers maliciosos ya estén utilizando métodos similares. Crean malware avanzado con malos propósitos.

Es necesario un enfoque polifacético de la IA y la ciberseguridad. Los desarrolladores deben dar prioridad a las salvaguardias para evitar usos indebidos.

Los usuarios deben estar informados de los riesgos potenciales. Es importante mantenerse alerta. Las herramientas basadas en IA deben utilizarse con cuidado.

La comunidad de ciberseguridad debe adaptarse al cambio. Deben adoptarse nuevas estrategias para combatir las amenazas asistidas por IA. La colaboración es clave entre investigadores, desarrolladores y expertos en seguridad.

El experimento del malware Mulgrew sirve para recordar la naturaleza de doble filo de la IA y las tecnologías de aprendizaje automático. Las herramientas de IA tienen un gran potencial de progreso. También pueden ser peligrosas en las manos equivocadas.

Tenemos que equilibrar los beneficios y los peligros de la IA. Todo el mundo debe colaborar en el desarrollo y uso responsable y seguro de la IA. Esto es importante para herramientas como ChatGPT.

¿Se puede engañar a ChatGPT para que cree un virus?

Se lo hemos preguntado a ChatGPT y aquí está la respuesta:

«ChatGPT es un modelo lingüístico diseñado para generar texto similar al humano.

Se ha entrenado con un gran corpus de texto, que incluye documentos técnicos y código de software.

Aunque es capaz de generar texto sofisticado, no puede crear malware real.

Para crear programas maliciosos hay que escribir código, lo que está fuera del alcance de ChatGPT.

Además, la creación de malware es poco ética e ilegal, y va en contra del propósito de ChatGPT, que es facilitar la comunicación y el intercambio de conocimientos.

Sin embargo, es posible que alguien utilice ChatGPT para generar texto que pueda utilizarse para crear malware.

Por ejemplo, ChatGPT podría utilizarse para generar texto que contenga instrucciones para explotar una vulnerabilidad en una aplicación de software.

Este texto podría ser utilizado por un desarrollador experto para crear malware real.

Para evitar este tipo de uso indebido, es importante garantizar que ChatGPT sólo se utilice con fines éticos y legales.

Esto puede conseguirse controlando y regulando su uso, así como educando y concienciando sobre los riesgos potenciales asociados a su uso indebido.

También es importante tener en cuenta que ChatGPT es sólo una herramienta entre muchas que pueden utilizarse para crear malware.

Otras herramientas y técnicas, como la ingeniería inversa y la ofuscación de código, también se utilizan habitualmente en el desarrollo de programas maliciosos.

Por lo tanto, es importante adoptar un enfoque holístico de la ciberseguridad, que incluye no sólo evitar el uso indebido de herramientas como ChatGPT, sino también aplicar medidas de seguridad sólidas y mantenerse al día de las últimas amenazas y vulnerabilidades.

En conclusión, aunque ChatGPT no puede crear malware por sí mismo, puede utilizarse para generar texto que podría ser utilizado para crear malware por desarrolladores expertos.

Para evitar este tipo de uso indebido, es importante asegurarse de que ChatGPT sólo se utiliza con fines éticos y legales y adoptar un enfoque holístico de la ciberseguridad.»

ChatGPT

Más información sobre el modo DAN de ChatGPT para jailbreaking.