FraudGPT est un chatbot non réglementé. Il se propage sur le darknet et est utilisé par les criminels pour écrire des courriels de phishing et développer des logiciels malveillants.

« Avec l’émergence des modèles d’IA générative, le paysage des menaces a radicalement changé », explique Rakesh Krishnan, chercheur chez Netenrich. Récemment, l’équipe de recherche de Netenrich a trouvé des preuves de l’existence d’un logiciel appelé FraudGPT sur les forums du Darknet et les canaux Telegram.

Il s’agit d’un chatbot d’IA non modéré à des fins criminelles, qui circulerait sur les places de marché depuis au moins le 22 juillet 2023.

Selon la description du produit, FraudGPT aide les cybercriminels à rédiger des courriels d’hameçonnage, à développer des outils de violation de la sécurité et à falsifier des cartes de crédit. Il permet même d’identifier les meilleures cibles et les victimes les plus faciles à atteindre. Des exemples sont illustrés dans les captures d’écran ci-dessous.

fraudgpt sendo usado
Image : Netenrich
exemplo de uso do fraudgpt
Image : Netenrich
outro exemplo de uso do fraudgpt
Image : Netenrich

La technologie exacte qui sous-tend FraudGPT n’est pas claire d’après la liste du marché du Darknet. Les captures d’écran suggèrent que FraudGPT est accessible via une interface web personnalisée.

À partir de 200 dollars par mois

FraudGPT est proposé sur plusieurs marchés à partir de 200 dollars par mois, selon Netenrich. Le développeur, appelé « CanadianKingpin », facture 200 dollars par mois, mais offre des réductions pour des abonnements de trois ou six mois. Douze mois d’accès à FraudGPT coûtent 1 700 dollars.

Le prestataire ne semble pas être étranger à la scène, puisqu’il annonce avoir déjà réalisé plus de 3 000 ventes sur des plateformes clandestines.

L’IA au service de la cybercriminalité

Les rapports concernant FraudGPT sont apparus après le lancement de WormGPT, un modèle de langage censé être formé ou affiné à l’aide de données relatives à des logiciels malveillants.

Dans les deux cas, les cybercriminels utilisent des outils d’IA pour des activités illégales. Étant donné que ces modèles, comme ChatGPT, peuvent être enseignés par le biais d’une simple conversation, ils abaissent la barrière d’entrée pour les cybercriminels. Même ceux qui ont moins de connaissances techniques ou de compétences rédactionnelles peuvent générer des logiciels malveillants ou rédiger des courriels d’hameçonnage.