Em uma época em que a inteligência artificial (IA) e o aprendizado de máquina se tornaram cada vez mais integrados em nossas vidas diárias, o potencial de uso indevido também aumentou. Um exemplo recente demonstra a rapidez e eficiência com que alguém com habilidades técnicas limitadas pode criar malware poderoso e indetectável usando IA, especificamente o chatbot generativo da OpenAI, o ChatGPT.
O ChatGPT é capaz de criar malwares avançados e representa uma grande ameaça
Aaron Mulgrew, um auto-proclamado novato e pesquisador de segurança da Forcepoint, testou os limites das capacidades do ChatGPT. Ele descobriu uma brecha que lhe permitiu criar malware sofisticado e de dia zero em apenas algumas horas. Este feito é particularmente notável dado o fato de que Mulgrew não tinha experiência anterior em codificação.
A OpenAI implementou salvaguardas para evitar que os usuários solicitem que o ChatGPT escreva código malicioso. No entanto, Mulgrew foi capaz de contornar essas proteções, pedindo ao chatbot para gerar linhas individuais de código malicioso, com foco em funções separadas.
Depois de compilar as várias funções, Mulgrew acabou com um executável de roubo de dados altamente avançado que era quase impossível de detectar.
Mulgrew criou seu malware sozinho, ao contrário do malware tradicional que requer equipes de hackers e recursos substanciais, e em uma fração do tempo.
Essa situação enfatiza os riscos potenciais relacionados a ferramentas alimentadas por IA, como o ChatGPT. Também levanta questões sobre sua segurança e com que facilidade elas podem ser exploradas.
O MALWARE CHATGPT: UM OLHAR MAIS ATENTO
O malware da Mulgrew se disfarça como um aplicativo protetor de tela com uma extensão SCR. Quando iniciado em um sistema Windows, o malware peneira arquivos, como imagens, documentos do Word e PDFs, para encontrar dados valiosos para roubar.
Um dos aspectos mais impressionantes deste malware é o uso de esteganografia, uma técnica que permite quebrar os dados roubados em fragmentos menores e escondê-los dentro de imagens no computador infectado.
O usuário carrega essas imagens em uma pasta do Google Drive e esse processo evita efetivamente a detecção por software de segurança.
Mulgrew mostrou como era fácil refinar e fortalecer o código contra a detecção usando prompts simples no ChatGPT. Nos primeiros testes usando o VirusTotal, o malware foi detectado inicialmente por apenas cinco dos 69 produtos de detecção. No entanto, uma versão posterior do código passou completamente despercebida.
É importante notar que o malware da Mulgrew foi criado para fins de pesquisa e não está disponível publicamente. No entanto, seu experimento destaca a facilidade com que os usuários sem habilidades avançadas de codificação podem explorar as proteções fracas do ChatGPT para criar malware perigoso sem escrever uma única linha de código.
Implicações sobre a criação de virus com o ChatGPT
O experimento de Mulgrew é alarmante. Malwares complexos levam semanas para serem desenvolvidos por hackers habilidosos. Ferramentas baseadas em IA, como o ChatGPT, tornam o processo mais fácil, rápido e acessível.
Mesmo pessoas sem experiência em codificação podem criar malware. Hackers mal-intencionados podem já estar usando métodos semelhantes. Eles criam malware avançado para fins ruins.
Há uma necessidade de uma abordagem multifacetada para IA e segurança cibernética. Os desenvolvedores devem priorizar salvaguardas para evitar o uso indevido.
Os usuários devem ser informados sobre os riscos potenciais. É importante permanecer vigilante. Ferramentas alimentadas por IA devem ser usadas com cuidado.
A comunidade de segurança cibernética precisa se adaptar às mudanças. Novas estratégias devem ocorrer para combater as ameaças assistidas por IA. A colaboração é fundamental entre pesquisadores, desenvolvedores e especialistas em segurança.
O experimento Mulgrew Malware serve como um lembrete da natureza de dois gumes das tecnologias de IA e aprendizado de máquina. As ferramentas de IA têm um grande potencial de progresso. Eles também podem ser arriscados nas mãos erradas.
Precisamos equilibrar os benefícios e perigos da IA. Todos precisam trabalhar juntos para o desenvolvimento e uso responsável e seguro da IA. Isso é importante para ferramentas como o ChatGPT.
O ChatGPT pode ser enganado para criar um virus?
Fizemos essa pergunta ao ChatGPT, e aqui está a resposta:
“ChatGPT é um modelo de linguagem projetado para gerar texto semelhante ao humano.
Ele foi treinado em um grande corpus de texto, incluindo documentos técnicos e código de software.
Embora tenha a capacidade de gerar texto sofisticado, não pode criar malware real.
Criar malware envolve escrever código, o que está além do escopo do que o ChatGPT pode fazer.
Além disso, a criação de malware é antiética e ilegal, e vai contra o propósito do ChatGPT, que é facilitar a comunicação e o compartilhamento de conhecimento.
No entanto, é possível que alguém use o ChatGPT para gerar texto que possa ser usado na criação de malware.
Por exemplo, o ChatGPT pode ser usado para gerar texto que contenha instruções para explorar uma vulnerabilidade em um aplicativo de software.
Este texto poderia então ser usado por um desenvolvedor qualificado para criar malware real.
Para evitar esse tipo de uso indevido, é importante garantir que o ChatGPT seja usado apenas para fins éticos e legais.
Isso pode ser alcançado através do monitoramento e regulamentação de seu uso, bem como educação e conscientização sobre os riscos potenciais associados ao seu uso indevido.
Também é importante ter em mente que o ChatGPT é apenas uma ferramenta entre muitas que podem ser usadas na criação de malware.
Outras ferramentas e técnicas, como engenharia reversa e ofuscação de código, também são comumente usadas no desenvolvimento de malware.
Portanto, é importante adotar uma abordagem holística para a segurança cibernética, que inclui não apenas evitar o uso indevido de ferramentas como o ChatGPT, mas também implementar fortes medidas de segurança e manter-se atualizado com as últimas ameaças e vulnerabilidades.
Em conclusão, enquanto ChatGPT não pode criar malware por conta própria, ele pode ser usado para gerar texto que poderia ser usado na criação de malware por desenvolvedores qualificados.
Para evitar esse tipo de uso indevido, é importante garantir que o ChatGPT seja usado apenas para fins éticos e legais e adotar uma abordagem holística à segurança cibernética.”
ChatGPT
Conheça também o modo DAN do ChatGPT para fazer o seu Jailbreak.