Blogue

FraudGPT et WormGPT sont des outils pilotés par l'IA qui aident les attaquants à mener des campagnes de phishing - SecureOps

Rédigé par Équipe SecureOps | 2 oct. 2023 04:00:00

Les acteurs de la menace qui profitent de la popularité de ChatGPT disposent de nombreux outils de piratage copiés qui offrent des services de chatbot similaires à ceux de la véritable application basée sur l'intelligence artificielle générative (IA). La différence, cependant, est que ces applications favorisent les activités malveillantes. FraudGPT commence à 200 $ par mois et va jusqu'à 1 700 $ par an avec plus de 3 000 ventes et avis confirmés pour leur produit. Un autre outil de piratage similaire, piloté par l'IA, WormGPT, a été décrit en détail dans un rapport de SlashNext. Comme ChatGPT, ces nouveaux outils d'intelligence artificielle sont également de grands modèles de langage et peuvent générer des textes semblables à ceux d'un être humain en fonction des données qu'ils reçoivent.

Ces outils "semblent être parmi les premiers à montrer que les acteurs de la menace intègrent des fonctions d'IA générative dans leurs outils", a déclaré John Bambenek, principal chasseur de menaces chez Netenrich, une société de sécurité spécialisée dans l'analyse des données en nuage, située à Plano, au Texas. "Avant cela, notre discussion sur le paysage des menaces était théorique". FraudGPT - qui, dans les publicités, est présenté comme un "bot sans limites, sans règles et sans frontières" - est vendu par un acteur de la menace qui prétend être un vendeur vérifié sur diverses places de marché souterraines du Dark Web, notamment Empire, WHM, Torrez, World, AlphaBay et Versus.

Dans ce blog, nous examinerons ces deux chatbots frauduleux, en explorant les risques qu'ils posent et la façon dont votre organisation peut se protéger.

Comment WormGPT et FraudGPT soutiennent les schémas de fraude

Les outils d'IA générative offrent aux criminels les mêmes fonctions de base qu'aux professionnels de la technologie. Par exemple, avec la capacité d'opérer à plus grande vitesse et à plus grande échelle, les attaquants peuvent maintenant générer des campagnes de phishing rapidement et en lancer plusieurs simultanément. Le comportement humain étant prévisible, il devient relativement simple d'exploiter les vices, les habitudes et les choix de l'homme. Même avec des logiciels malveillants sophistiqués, les pirates ont toujours besoin d'accéder à l'état d'esprit d'un individu, et c'est là que le phishing entre en jeu.

FraudGPT et WormGPT servent principalement à aider les pirates à créer des campagnes d'hameçonnage convaincantes dans le cadre d'attaques de compromission par courrier électronique. L'efficacité de l'outil à cet égard a même été vantée dans du matériel promotionnel apparu sur le Dark Web, démontrant comment FraudGPT peut produire un projet d'e-mail qui incitera les destinataires à cliquer sur le lien malveillant fourni. Bien que ChatGPT puisse également être exploité comme outil de piratage pour rédiger des courriels à caractère social, il existe des garanties éthiques qui limitent cette utilisation. La prévalence croissante d'outils d'IA malveillants tels que WormGPT et FraudGPT montre qu'il n'est pas difficile de réimplémenter la même technologie sans ces garanties.

L'IA n'est pas seulement utilisée dans les systèmes de phishing et d'usurpation d'identité. Elle est actuellement utilisée pour créer des logiciels malveillants indétectables, localiser des cibles et des faiblesses, diffuser de fausses informations et exécuter des attaques avec un haut niveau d'intelligence.

On signale de plus en plus d'escrocs qui utilisent l'IA pour mener des attaques sophistiquées. Ils créent des clones de voix, se font passer pour de vraies personnes et mènent des tentatives d'hameçonnage très ciblées. En Chine, un pirate informatique a utilisé l'IA pour générer une vidéo "deepfake", se faisant passer pour une connaissance de la victime et la convainquant d'envoyer de l'argent. En outre, des escrocs ont abusé des procédures d'identification des clients sur des bourses de crypto-monnaies comme Binance en utilisant des "deepfakes".

Ces outils pilotés par l'IA peuvent également aider les attaquants à utiliser l'IA à leur avantage d'autres façons. Ils peuvent

  • trouver des bacs non VBV
  • Créer des pages et des sites web d'hameçonnage
  • écrire du code malveillant
  • Construire des outils de piratage et trouver des groupes, des sites et des marchés de piratage.
  • trouver des fuites et des vulnérabilités dans un réseau ou une application
  • Apprendre à coder ou à pirater.

Se défendre contre les cybermenaces fondées sur l'IA

La question pressante est la suivante : "Comment les entreprises peuvent-elles se protéger contre la menace croissante que représente l'IA ?"

La réponse réside dans la mise en œuvre d'une stratégie de sécurité globale qui transcende les mesures de cybersécurité conventionnelles et reconnaît le facteur humain.

Comme le phishing reste l'un des principaux moyens utilisés par les cyberattaquants pour s'introduire dans un système d'entreprise et y mener d'autres activités malveillantes, il est essentiel de mettre en œuvre des mesures de sécurité conventionnelles pour le contrer. Ces défenses peuvent encore détecter le phishing activé par l'IA et, plus important encore, les actions ultérieures de l'acteur de la menace.

"Fondamentalement, cela ne change pas la dynamique d'une campagne de phishing, ni le contexte dans lequel elle opère", explique John Bambenek, principal chasseur de menaces chez Netenrich. "Tant que vous n'avez pas affaire à du phishing provenant d'un compte compromis, les systèmes de réputation peuvent toujours détecter le phishing provenant d'expéditeurs inauthentiques, c'est-à-dire des domaines typosquattés, des factures provenant de comptes de messagerie Web gratuits, etc. Il ajoute que la mise en œuvre d'une stratégie de défense en profondeur avec toute la télémétrie de sécurité disponible pour une analyse rapide peut également aider les organisations à identifier une attaque de phishing avant que les attaquants ne compromettent une victime et ne passent à la phase suivante d'une attaque.

"Les défenseurs n'ont pas besoin de détecter toutes les actions d'un attaquant dans une chaîne de menaces ; ils doivent simplement détecter quelque chose avant les étapes finales d'une attaque - c'est-à-dire un ransomware ou une exfiltration de données - il est donc essentiel de disposer d'un solide programme d'analyse des données de sécurité", déclare Bambenek. D'autres professionnels de la sécurité encouragent également l'utilisation d'outils de sécurité basés sur l'IA, dont le nombre ne cesse de croître, pour lutter contre l'IA adverse, ce qui revient à combattre le feu par le feu pour lutter contre la sophistication croissante du paysage des menaces.

En savoir plus sur les cybermenaces alimentées par l'IA

L'IA générative est encore une technologie en développement, et son plein potentiel n'a pas encore été révélé. Néanmoins, elle présente de sérieuses implications pour la cybersécurité de votre organisation. Pour en savoir plus sur les opportunités et les menaces de l'IA générative, consultez les blogs suivants.

Quatre types d'attaques par l'IA menaçant votre cybersécurité

ChatGPT-3 et maintenant ChatGPT-4 - Qu'est-ce que cela signifie pour la cybersécurité ?