
Les tentatives de fraude par "deepfake" augmentent de plus de 2 000 pour cent, selon un rapport de Signicat. Le rapport révèle que 42,5 % des tentatives de fraude détectées dans le secteur financier sont désormais dues à l'IA. Mais malgré l'augmentation des tentatives de fraude basées sur l'IA, y compris les deepfakes, seulement 22 % des institutions financières ont mis en place des outils de prévention de la fraude basés sur l'IA.
L'inquiétude autour des deepfakes grandit depuis un certain temps. Un rapport publiée par ISMS.online en mai 2024 montre que les deepfakes se classent au deuxième rang des incidents de sécurité de l'information les plus courants pour les entreprises britanniques en 2023 et que plus d'un tiers (32%) des organisations en ont fait l'expérience.
Récemment, un rapport de Signicat révèle que les institutions financières sont confrontées à une augmentation significative des tentatives de fraude par deepfake, qui ont connu une croissance stupéfiante de 2 137 % au cours des trois dernières années. Le rapport révèle que 42,5 % des tentatives de fraude détectées dans le secteur financier sont désormais dues à l'IA.
Les données de Signicat, basées sur les réponses de 1 200 personnes travaillant dans les secteurs de la finance et des paiements dans sept pays européens, dont le Royaume-Uni, montrent que l'usurpation de compte est le principal type de fraude auquel leurs clients sont exposés, suivi par la fraude aux paiements par carte et le hameçonnage.
La fraude par Deepfake se divise en deux catégories d'attaques. Les attaques par présentation incluent des fraudeurs portant des masques et du maquillage pour usurper l'identité d'une autre personne, mais aussi lorsque la caméra filme un autre écran montrant un deepfake en temps réel, ciblant des activités telles que les reprises de compte ou les demandes de prêt frauduleuses.
Les attaques par injection impliquent que des logiciels malveillants ou des données non fiables sont délibérément insérés dans un programme, compromettant son intégrité ou sa fonctionnalité, par exemple sous la forme de vidéos préenregistrées, souvent au cours des processus d'onboarding ou de KYC auxquels sont soumises les banques, les sociétés fintech ou les entreprises de télécommunications.
Mais malgré l'augmentation des tentatives de fraude basées sur l'IA, y compris les deepfakes, seulement 22 % des institutions financières ont mis en place des outils de prévention de la fraude basés sur l'IA. Cette lacune laisse potentiellement de nombreuses entreprises vulnérables à des attaques plus sophistiquées.
"Il y a trois ans, les attaques par deepfake ne représentaient que 0,1 % de toutes les tentatives de fraude que nous avons détectées, mais aujourd'hui, elles représentent environ 6,5 %, soit un cas sur 15. Cela représente une augmentation de 2 137 % au cours des trois dernières années, ce qui est alarmant. Les fraudeurs utilisent des techniques basées sur l'IA que les systèmes traditionnels ne peuvent plus détecter complètement. Les organisations devraient envisager des systèmes de détection avancés qui combinent l'IA, la biométrie et la vérification de l'identité pour se protéger contre ces menaces", déclare Pinar Alpay, directeur des produits et du marketing chez Signicat.
Il ajoute : "Une configuration de détection multiple est cruciale. En combinant une évaluation précoce des risques, une vérification d'identité robuste et des méthodes d'authentification basées sur la biométrie faciale, ainsi qu'une surveillance continue, les entreprises peuvent mieux protéger à la fois leurs opérations et leurs clients. L'orchestration de ces outils dans une combinaison optimale est l'essence même d'une protection multicouche."
Un rapport de Jumio en mai 2024 avait également dressé le même tableau. Le rapport montrait que 72 % des consommateurs s'inquiètent quotidiennement d'être trompés par des "deepfakes". Cependant, les gens surestimaient leur capacité à repérer les "deepfakes" : 60 % d'entre eux pensent pouvoir détecter une deepfake, contre 52 % en 2023. Les hommes sont plus confiants dans leur capacité à repérer un "deepfake" (66 % contre 52 % en 2023) (66 % contre 55 % des femmes), les hommes âgés de 18 à 34 ans étant les plus confiants (75 %), tandis que les femmes âgées de 35 à 54 ans sont les moins confiantes (52 %).

Source : Signicat
Et vous ?


Voir aussi :



Vous avez lu gratuitement 3 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.