IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Découvrir les attaques par courrier électronique générées par l'IA : exemples réels de 2023
Découvrez comment les pirates utilisent l'IA générative pour contourner la sécurité et tromper les employés

Le , par Anthony

217PARTAGES

4  0 
L'année dernière a été marquée par des avancées révolutionnaires dans le domaine de l'intelligence artificielle générative, ou IA générative. Peu de temps après leur lancement, ces plateformes ont gagné en popularité, ChatGPT atteignant son premier million d'utilisateurs en seulement cinq jours. La mauvaise nouvelle, en particulier pour ceux qui travaillent dans le domaine de la sécurité de l'information, est que l'accessibilité de l'IA générative a également créé des opportunités pour les cybercriminels d'exploiter la technologie pour créer des cyber-menaces sophistiquées, souvent avec le courrier électronique comme premier vecteur d'attaque.

Pour illustrer la façon dont l'IA devient une arme, des exemples concrets de courriels malveillants générés par l'IA reçus par les clients d'Abnormal au cours de l'année écoulée ont été rassemblés. Ces exemples mènent à une conclusion surprenante : les acteurs de la menace ont clairement adopté l'utilisation malveillante de l'IA. Cela signifie également que les organisations doivent réagir en mettant en œuvre des solutions de cybersécurité basées sur l'IA pour stopper ces attaques avant qu'elles n'atteignent les boîtes de réception des employés.

Comment et pourquoi l'IA est utilisée pour les attaques par courrier électronique

Auparavant, de nombreux cybercriminels s'appuyaient sur des formats ou des modèles pour lancer leurs campagnes. De ce fait, un grand nombre d'attaques partagent des indicateurs de compromission communs qui peuvent être détectés par les logiciels de sécurité traditionnels, car ils utilisent le même nom de domaine ou le même lien malveillant. L'IA générative, en revanche, permet aux escrocs de créer un contenu unique en quelques millisecondes, ce qui rend infiniment plus difficile la détection qui repose sur la correspondance avec des chaînes de texte malveillantes connues.

L'IA générative peut également être utilisée pour augmenter de manière significative la sophistication globale des attaques d'ingénierie sociale et d'autres menaces par courrier électronique. Par exemple, de mauvais acteurs peuvent abuser de l'API ChatGPT pour créer des courriels de phishing réalistes, des logiciels malveillants polymorphes et des demandes de paiement frauduleuses convaincantes. Et même si Open AI a imposé des limites à ce que ChatGPT peut produire, les cybercriminels ont réagi en créant leurs propres formes malveillantes d'IA générative. Par exemple, WormGPT n'a pas les garde-fous des outils open source qui empêchent les mauvais acteurs de les utiliser de manière contraire à l'éthique. De même, FraudGPT est une plateforme sur abonnement qui utilise des algorithmes d'apprentissage automatique raffinés pour générer du contenu trompeur.

Attaques réelles (probablement) générées par l'IA

Au cours de l'année écoulée, Abnormal a détecté un certain nombre d'attaques probablement générées par l'IA. Comme pour tous les modèles d'IA, il est pratiquement impossible de déterminer avec une certitude absolue si une attaque a été créée par l'IA. Cependant, certains outils tels que CheckGPT fournissent de fortes indications sur l'implication de l'IA. Vous trouverez ci-dessous plusieurs exemples d'attaques détectées par Abnormal, ainsi que d'autres exemples dans le dernier rapport de recherche.

L'attaquant se fait passer pour une compagnie d'assurance pour tenter de diffuser un logiciel malveillant

Dans cette attaque, l'auteur de la menace se fait passer pour un représentant d'une compagnie d'assurance et informe le destinataire que l'e-mail contient en pièce jointe des informations sur les prestations, ainsi qu'un formulaire d'inscription qui doit être rempli dans son intégralité et renvoyé. Si le destinataire ne le fait pas, il est informé qu'il risque de perdre sa couverture.

L'auteur utilise un nom d'affichage apparemment authentique ("Customer Benefits Insurance Group" et un courriel d'expéditeur ("alerts@pssalerts[.]info", mais les réponses sont redirigées vers un compte Gmail contrôlé par l'auteur de l'attaque. Malgré une façade professionnelle, la plateforme d'Abnormal a déterminé que la pièce jointe contenait probablement des logiciels malveillants, exposant l'ordinateur du destinataire à des risques de virus et de vol de données d'identification.


L'analyse de l'attaque, réalisée par Giant Language Model Test Room (GLTR), montre la probabilité qu'elle soit générée par l'IA. Les modèles codent les mots par couleur en fonction de la probabilité de prédiction de chaque mot compte tenu du contexte à gauche. Le vert indique qu'un mot fait partie des 10 premiers mots prédits, tandis que le jaune indique un mot parmi les 100 premiers mots prédits. Les mots en rouge sont classés parmi les 1 000 premiers mots prédits, tandis que tous les autres mots sont en violet.


Comme vous pouvez le...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !