Cependant, de nouvelles recherches menées par Hoxhunt suggèrent que l'IA n'est peut-être pas si douée que cela pour le phishing.
L'entreprise a analysé plus de 53 000 utilisateurs de courrier électronique dans plus de 100 pays afin de comparer le taux de réussite des attaques de phishing simulées créées par des ingénieurs sociaux humains et celles créées par des modèles de langage à grande échelle de l'IA. L'étude révèle que les "red teamers" professionnels ont induit un taux de clics de 4,2 %, contre 2,9 % pour le ChatGPT dans l'échantillon de population des utilisateurs de courrier électronique.
Les humains restent nettement meilleurs pour tromper d'autres humains, dépassant l'IA de 69 %. L'étude montre également que les utilisateurs plus expérimentés dans le cadre d'un programme de sensibilisation à la sécurité et de changement de comportement sont moins susceptibles de se laisser piéger par des attaques de phishing, qu'il s'agisse d'e-mails générés par l'homme ou par l'IA, les taux d'échec passant de plus de 14 % pour les utilisateurs moins bien formés à un taux compris entre 2 et 4 % pour les utilisateurs expérimentés.
"Une bonne formation à la sensibilisation à la sécurité, au phishing et au changement de comportement fonctionne", déclare Pyry Åvist, cofondateur et directeur technique de Hoxhunt. "La mise en place d'une formation suffisamment dynamique pour s'adapter à l'évolution constante du paysage des attaques continuera à protéger contre les violations de données. Les utilisateurs qui participent activement à la formation sont moins susceptibles de cliquer sur un phishing simulé, qu'il soit d'origine humaine ou robotique."
Source : Hoxhunt
Et vous ?
Trouvez-vous cette étude pertinente ?
Etes-vous d'accord avec les conclusions de cette étude ?
Voir aussi :
Le chatbot d'IA ChatGPT est capable de lancer des attaques de phishing dangereuses, et de concevoir des codes de téléchargement malveillant d'une efficacité redoutable
Une enquête révèle que certaines entreprises remplacent déjà les travailleurs par ChatGPT, malgré les avertissements selon lesquels il ne faut pas s'y fier pour "quoi que ce soit d'important"
Des experts en sécurité sont parvenus à créer un logiciel malveillant polymorphe "hautement évasif" à l'aide de ChatGPT, le logiciel malveillant serait capable d'échapper aux produits de sécurité
Des cybercriminels testent le chatbot ChatGPT pour créer des logiciels malveillants, et ravivent des craintes sur un futur où l'intelligence artificielle pourra surpasser l'humanité