Le Federal Bureau of Investigation (FBI) a déclaré le jeudi 15 mai que des acteurs malveillants se sont fait passer pour de hauts fonctionnaires du gouvernement américain dans le cadre d'une campagne de messagerie textuelle et vocale, utilisant des textes de phishing et des messages audio générés par l'Intelligence artificielle (IA) pour inciter d'autres fonctionnaires à donner accès à leurs comptes personnels.Pour rappel, les « deepfakes » (portmanteau de « deep learning » et « fake ») sont des images, des vidéos ou des sons qui ont été édités ou générés à l'aide d'une intelligence artificielle, d'outils basés sur l'IA ou d'un logiciel de montage audiovisuel. Ils peuvent représenter des personnes réelles ou fictives et sont considérés comme une forme de média synthétique, c'est-à-dire un média généralement créé par des systèmes d'intelligence artificielle en combinant divers éléments médiatiques dans un nouvel artefact médiatique.
L'avertissement récent du FBI fournit peu de détails sur la campagne, qui a débuté en avril 2025 et semble se poursuivre. Les messages se présentaient sous la forme de textes ou de messages audio falsifiés de hauts fonctionnaires américains et étaient principalement envoyés à des « hauts fonctionnaires fédéraux ou d'État américains, actuels ou anciens, ainsi qu'à leurs contacts » afin d'obtenir l'accès à leurs comptes.
Le FBI conseille maintenant au public de ne pas présumer de l'authenticité d'un message prétendument envoyé par un haut fonctionnaire américain.
Il s'agit du dernier exemple en date d'acteurs malveillants utilisant l'IA et les techniques de « deepfake » pour imiter de manière réaliste la voix et la ressemblance d'autres personnes. La prolifération des modèles de langage et l'amélioration de leur capacité à créer des images vidéo et audio réalistes ont fait exploser leur utilisation dans les systèmes de phishing et les campagnes d'escroquerie.
L'utilisation la plus connue de cette technologie est sans doute l'usurpation d'identité de Joe Biden, alors président de la République, dans la période précédant les primaires présidentielles du New Hampshire en 2024. Le consultant politique Steve Kramer, en collaboration avec l'opposant démocrate Dean Phillips, a supervisé la création de l'audio, qui conseillait aux démocrates de ne pas se rendre aux urnes et qui a été envoyé aux électeurs quelques jours avant les primaires.
Steve Kramer a été condamné à une amende de 6 millions de dollars par la FCC pour cet incident et fait l'objet de poursuites pénales pour tentative de suppression d'électeurs en usurpant l'identité d'un candidat dans le New Hampshire.
Mais l'utilisation de deepfake audio dans le cadre d'escroqueries financières plus courantes et de projets d'espionnage et de cybercriminalité plus sophistiqués a fortement augmenté depuis l'apparition de cette technologie.
Pour ajouter aux inquiétudes, le ciblage apparent des comptes personnels dans cette campagne intervient alors que des organes de presse ont rapporté que de nombreux membres haut placés de l'administration Trump communiquent et coordonnent la politique du gouvernement américain à partir de leurs téléphones personnels et utilisent des versions tierces non sécurisées d'applications de messagerie chiffrées telles que Signal.
Les protections contre l'exploitation de ces technologies sont limitées. Il suffit d'être vigilant et de suivre les conseils de sécurité habituels, comme ne pas faire confiance à des interlocuteurs inconnus, vérifier les identités en appelant les numéros officiels et utiliser l'authentification multifactorielle pour sécuriser les comptes.
Lors d'une audition à la Chambre des représentants le même jour, le président de la Commission fédérale du commerce, Andrew Ferguson, a déclaré que la lutte contre l'usurpation d'identité par l'IA était l'une des principales priorités de l'agence, par le biais d'une nouvelle législation telle que la loi « Take It Down Act ».
« Je ne sais pas si quelqu'un a déjà reçu un appel d'un proche dont l'identité a été usurpée, mais j'ai des amis qui ont reçu des appels de membres de leur famille dont l'identité a été usurpée », a déclaré Andrew Ferguson aux législateurs. « C'est une expérience vraiment terrifiante. »
John Hultquist, analyste en chef du Google Threat Intelligence Group, a déclaré que « les adversaires pouvaient déjà falsifier du contenu auparavant, mais l'IA leur a certainement facilité la tâche et leur a permis de le faire à grande échelle ».
« Ils utilisent l'IA pour fabriquer des vidéos, du texte et du son depuis quelques années », a-t-il ajouté. « Et il est clair qu'ils s'améliorent ».
L'avertissement du FBI fait suite à la publication d'une fiche d'information sur la cybersécurité par la NSA, le FBI et la CISA, qui met en évidence la menace croissante des médias synthétiques. Le document met en garde contre le risque croissant que représentent les deepfakes pour les systèmes de sécurité nationale, le ministère de la défense et les infrastructures critiques, et invite à une prise de conscience accrue de la manière dont la tromperie induite par l'IA peut compromettre des informations sensibles.
Le contenu de la déclaration du FBI est présenté ci-après :
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.