Ameaças impulsionadas por IA se intensificam
A crescente utilização da inteligência artificial (IA) por atores maliciosos tem permitido o desenvolvimento de ataques cibernéticos cada vez mais sofisticados. Em meados de outubro de 2024, uma análise de inteligência em segurança destacou duas tendências alarmantes: a ocorrência de fraudes que totalizaram 25 milhões por meio de clonagem de voz e o emprego de tecnologias como o ChatGPT em ciberataques patrocinados por Estados.
A clonagem de voz possibilita a reprodução quase perfeita das características da voz humana, o que facilita a realização de fraudes através da engenharia social. Por sua vez, o uso de ferramentas generativas e de modelos avançados de IA, como o ChatGPT, tem ampliado o arsenal de técnicas que podem ser aplicadas em ataques, demonstrando que a integração dessas tecnologias por grupos de ameaças persistentes avançadas (APTs) é apenas uma questão de tempo para se espalhar em maior escala.
Especialistas em segurança destacam que, embora o uso inicial da IA por atores maliciosos ainda esteja em estágio emergente, o potencial de expansão desses métodos impõe a necessidade de investimentos contínuos em ferramentas de cibersegurança e na inteligência de ameaças. Essa evolução é fundamental para proteger dados sensíveis e garantir a privacidade, além de fortalecer as defesas contra ataques cada vez mais bem estruturados.