Com a inteligência artificial generativa (IA) se tornando cada vez mais popular nos dias de hoje, talvez não seja surpresa que a tecnologia tenha sido reaproveitada por atores maliciosos em benefício próprio, abrindo caminho para um aumento do cibercrime acelerado.

De acordo com descobertas da SlashNext, uma nova ferramenta de cibercrime de IA generativa chamada WormGPT tem sido anunciada em fóruns clandestinos como uma maneira para adversários lançarem sofisticados ataques de phishing e comprometimento de e-mails corporativos (BEC).

“Essa ferramenta se apresenta como uma alternativa blackhat aos modelos GPT, projetada especificamente para atividades maliciosas”, disse o pesquisador de segurança Daniel Kelley. “Cibercriminosos podem utilizar essa tecnologia para automatizar a criação de e-mails falsos altamente convincentes, personalizados para o destinatário, aumentando assim as chances de sucesso do ataque.”

O autor do software descreveu-o como o “maior inimigo do conhecido ChatGPT” que “permite realizar todo tipo de atividade ilegal”.

Nas mãos de um ator mal-intencionado, ferramentas como o WormGPT podem ser uma arma poderosa, especialmente à medida que o OpenAI ChatGPT e o Google Bard estão tomando medidas para combater o uso indevido de modelos de linguagem (LLMs) para fabricar e-mails de phishing convincentes e gerar código malicioso.

“Os mecanismos anti-abuso do Bard no campo da cibersegurança são significativamente mais baixos em comparação com os do ChatGPT”, disse a Check Point em um relatório nesta semana. “Consequentemente, é muito mais fácil gerar conteúdo malicioso usando as capacidades do Bard.”

email sobre o wormgpt

Em fevereiro deste ano, a empresa israelense de cibersegurança divulgou como os cibercriminosos estão contornando as restrições do ChatGPT ao aproveitar sua API, sem mencionar o comércio de contas premium roubadas e a venda de softwares de força bruta para hackear contas do ChatGPT usando enormes listas de endereços de e-mail e senhas.

O fato de o WormGPT operar sem quaisquer limites éticos ressalta a ameaça representada pela IA generativa, permitindo até mesmo que cibercriminosos novatos realizem ataques rapidamente e em grande escala, mesmo sem possuir o conhecimento técnico necessário para fazê-lo.

Para piorar as coisas, os atores ameaçadores estão promovendo “jailbreaks” para o ChatGPT, criando prompts e inputs especializados projetados para manipular a ferramenta e gerar resultados que poderiam envolver a divulgação de informações sensíveis, produção de conteúdo inadequado e execução de código prejudicial.

“A IA generativa pode criar e-mails com uma gramática impecável, fazendo com que pareçam legítimos e reduzindo a probabilidade de serem identificados como suspeitos”, disse Kelley.

“O uso de IA generativa democratiza a execução de ataques sofisticados de comprometimento de e-mails corporativos. Mesmo atacantes com habilidades limitadas podem utilizar essa tecnologia, tornando-a uma ferramenta acessível para um espectro mais amplo de cibercriminosos.”

A divulgação ocorre enquanto pesquisadores da Mithril Security modificaram “cirurgicamente” um modelo de IA de código aberto existente conhecido como GPT-J-6B para disseminar desinformação e o carregaram em um repositório público como o Hugging Face, que pode ser integrado em outras aplicações, resultando no que é chamado de envenenamento da cadeia de suprimentos de modelos de linguagem.

O sucesso da técnica, denominada PoisonGPT, baseia-se no pré-requisito de que o modelo lobotomizado seja carregado usando um nome que se faça passar por uma empresa conhecida, neste caso, uma versão de typosquatting da EleutherAI, a empresa por trás do GPT-J.

Como usar o WormGPT

Você pode estar se perguntando: “Como usar o WormGPT AI?” No entanto, ao mergulhar nesse tópico, fica evidente que o WormGPT, apesar de ser um chatbot, não é projetado para uso ético. Em vez disso, é uma ferramenta criada com o potencial de auxiliar cibercriminosos em suas ações ilícitas. É crucial lembrar que é altamente desencorajado empregar o WormGPT por qualquer motivo.

Ao estar informado sobre os riscos do WormGPT, bem como as possíveis consequências de seu mau uso, podemos ressaltar a necessidade de um uso ético e responsável da tecnologia. Então, vamos explorar as características do WormGPT, como ele se diferencia de outros modelos GPT e os perigos que ele representa.

Ao analisar o WormGPT, rapidamente fica claro que este não é um AI comum. Projetado especificamente para tarefas maliciosas, como a criação de malware e a execução de explorações, o WormGPT está muito distante de seus pares, como o ChatGPT ou o Bard do Google. Ausentes nesse bot estão os parâmetros éticos que normalmente o impediriam de responder a solicitações prejudiciais.

Construído no modelo de linguagem GPTJ de código aberto a partir de 2021, as características do WormGPT incluem respostas rápidas, sem limites de caracteres, um design orientado para a privacidade e uma variedade de modelos de IA à sua disposição.

Agora, vamos considerar os riscos e as consequências que podem surgir ao usar o WormGPT para fins mal-intencionados. Qualquer pessoa que utilize esse chatbot para atividades cibercriminosas está ultrapassando os limites legais, violando regras relacionadas a hacking, roubo de dados e outras atividades ilícitas.

As possíveis consequências são consideráveis:

  • O uso do WormGPT para atividades cibercriminosas contraria as leis relacionadas a hacking, roubo de dados e outras atividades ilícitas.
  • O WormGPT tem o potencial de criar malware e realizar ataques de phishing, causando danos a pessoas e organizações.
  • O WormGPT fornece aos cibercriminosos os meios para instigar ataques cibernéticos sofisticados, resultando em danos significativos a sistemas e redes.
  • O WormGPT facilita aos cibercriminosos a execução de atividades ilegais sem esforço, colocando em risco a segurança de pessoas e organizações inocentes.
  • Aqueles envolvidos em atividades cibercriminosas por meio do WormGPT podem enfrentar consequências legais e possíveis acusações criminais.

Embora tenhamos destacado os potenciais perigos do WormGPT, se a curiosidade ainda estiver lhe instigando a explorá-lo, você pode acessar a página do WormGPT aqui. No entanto, lembre-se de agir com cautela, pois você estará adentrando em um território arriscado.

Perguntas Frequentes

É possível usar o WormGPT para o bem?

É teoricamente possível usar o WormGPT para fins não maliciosos, porém é importante lembrar que sua origem está associada a atividades nefastas. Assim, qualquer uso dele levanta questões morais e possíveis problemas legais.

O WormGPT possui algum tipo de restrição ética?

Infelizmente, não. O WormGPT se diferencia de outros modelos GPT, como o ChatGPT ou o Bard do Google, pois não possui limitações éticas ou fronteiras para evitar que ele responda a solicitações com intenções maliciosas.

Como o WormGPT é diferente dos outros modelos GPT?

O WormGPT foi concebido exclusivamente para atividades maliciosas, como a criação de malware e a exploração de vulnerabilidades. Essa intenção e a ausência de limites éticos o diferenciam de outros modelos GPT.

O WormGPT é capaz de instigar ciberataques?

De fato, o WormGPT pode ser o cérebro por trás de ciberataques complexos, causando danos consideráveis ​​a sistemas e redes de computadores.

Quais são os perigos ligados ao WormGPT?

Utilizar o WormGPT está repleto de perigos, incluindo violação de leis relacionadas a hacking, roubo de dados e outras ações ilegais. Ele pode ser uma ferramenta para criação de malware, início de ataques de phishing e facilitação de atividades cibercriminosas, o que pode resultar em consequências legais e acusações criminais.

Como usamos tecnologia de forma responsável?

Utilizar a tecnologia de maneira responsável é fundamental para manter um ecossistema online seguro. Isso significa evitar ferramentas como o WormGPT, que podem potencialmente prejudicar outras pessoas.