L'étude, réalisée par la plateforme anti-fraude Sift, révèle que l'émergence et l'adoption croissante d'outils d'IA, y compris les chatbots accessibles au public, permettent aux cybercriminels de mener des attaques frauduleuses évolutives contre les particuliers et les entreprises.
Sur l'ensemble du Sift Global Data Network, les contenus frauduleux bloqués générés par les utilisateurs ont augmenté de 22 % au premier trimestre 2024 par rapport au même trimestre de 2023, ce qui montre à quel point cette technologie est devenue omniprésente dans l'économie de la fraude.
Grâce à l'IA, les anciens signaux d'alerte indiquant une escroquerie, comme les fautes de frappe et les problèmes de syntaxe, sont désormais plus rares, les outils de GenAI tels que ChatGPT permettant aux fraudeurs de créer des contenus écrits soignés et convaincants. Les fraudeurs utilisent des courriels de phishing, la manipulation de photos et de vidéos, et le clonage de voix pour contourner les techniques traditionnelles de détection des fraudes, ce qui pose des risques financiers et de réputation importants pour les entreprises de toutes tailles.
« Les acteurs de la fraude adoptent rapidement l'IA comme outil pour intensifier leurs attaques, et les entreprises comme les consommateurs en ressentent clairement l'impact », déclare Armen Najarian, directeur du marketing chez Sift. « Les entreprises doivent investir dans l'IA pour combattre le feu par le feu afin non seulement de contrer les menaces posées par l'IA elle-même, mais aussi de rationaliser l'expérience client et de transformer la prévention de la fraude en croissance rentable. »
Le rapport a également recueilli les réponses de plus de 1 000 consommateurs. Bien que 73 % des personnes interrogées se disent très confiantes ou assez confiantes dans leur capacité à identifier une escroquerie créée à l'aide de l'IA, près d'un tiers d'entre elles affirment que quelqu'un a déjà essayé de les escroquer à l'aide de l'IA, et plus d'une personne sur cinq tombe dans le piège de ces escroqueries.
La confiance est plus grande chez les jeunes : 84 % des milléniaux se disent très ou assez confiants dans leur capacité à identifier une escroquerie à l'IA, contre 81 % pour la génération Z, 70 % pour la génération X et 53 % pour les baby-boomers. 21 % des consommateurs ont été "hameçonnés" avec succès, plus d'un tiers des répondants de la génération Z étant tombés dans le piège de ce type d'escroquerie.
Dans l'ensemble, 69 % des consommateurs affirment qu'il est devenu plus difficile d'identifier les escroqueries. 79 % des consommateurs s'inquiètent de l'utilisation de l'IA pour les escroquer.
À propos de Sift
Sift est la plateforme de fraude alimentée par l'IA qui sécurise la confiance numérique pour les principales entreprises mondiales. Ses investissements importants dans l'apprentissage automatique et l'identité de l'utilisateur, son réseau de données qui enregistre 1 000 milliards d'événements par an et son engagement en faveur de la réussite à long terme de ses clients permettent à plus de 700 d'entre eux de se développer sans crainte. Des marques telles que DoorDash, Yelp et Poshmark s'appuient sur Sift pour débloquer la croissance et offrir des expériences transparentes aux consommateurs.
Source : "2024 Digital Trust Index" (étude de Sift)
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous les résultats de cette étude de Sift crédibles ou pertinents ?
Voir aussi :
Deepfake : un employé paye 25 millions de dollars à des escrocs après une réunion vidéo avec son directeur financier généré par IA, les anciennes conférences vidéos de ce directeur soupçonnées d'en être à l'origine
Le géant multinational Arup révèle avoir été victime d'une escroquerie "deepfake" de 25 millions de dollars, un employé du département finance a été dupé en participant à un appel vidéo deepfake
La terrifiante escroquerie à l'IA qui utilise la voix de votre proche pour simuler des situations de rançon, comment les cybercriminels se servent des avancées dans le clonage vocal