IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une faille critique dans Microsoft Copilot, baptisée "EchoLeak", aurait pu permettre une attaque zéro clic donnant à un pirate l'accès à des données sans interaction de l'utilisateur
D'après des chercheurs

Le , par Anthony

0PARTAGES

6  0 
Une faille critique dans Microsoft Copilot, baptisée "EchoLeak", aurait pu permettre une attaque zéro clic donnant à un pirate l'accès à des données sans interaction de l'utilisateur, d'après des chercheurs

Une vulnérabilité critique récemment corrigée dans l'outil d'intelligence artificielle (IA) Copilot de Microsoft aurait pu permettre à un pirate informatique distant de voler des données sensibles à une organisation simplement en envoyant un e-mail, selon des chercheurs d'Aim Security.

L'identification de cette faille fait suite aux préoccupations antérieures concernant le traitement des informations sensibles par Copilot. Peu après le lancement de l'assistant IA, des utilisateurs ont signalé pouvoir accéder sans autorisation aux documents des ressources humaines et aux e-mails du PDG, suscitant des inquiétudes quant à la gouvernance des données de Microsoft Copilot et renforçant les préoccupations générales concernant les risques de sécurité liés au déploiement de l'IA dans les entreprises.

Selon les chercheurs d'Aim Security, qui ont publié leurs conclusions dans un article de blog du mercredi 11 juin 2025, la vulnérabilité, baptisée EchoLeak et identifiée sous le numéro CVE-2025-32711, aurait pu permettre à des pirates informatiques de lancer une attaque sans que l'utilisateur ciblé n'ait à faire quoi que ce soit. EchoLeak représente la première attaque zéro clic connue contre un agent IA, selon les chercheurs.

« Cette vulnérabilité représente une avancée significative dans la recherche sur la sécurité de l'IA, car elle démontre comment les attaquants peuvent automatiquement exfiltrer les informations les plus sensibles du contexte de Microsoft 365 Copilot sans nécessiter aucune interaction de la part de l'utilisateur », a déclaré Adir Gruss, cofondateur et directeur technique d'Aim Security.


Une attaque EchoLeak aurait pu exploiter ce que les chercheurs appellent une « violation de la portée LLM », dans laquelle des données non fiables provenant de l'extérieur d'une organisation peuvent détourner un modèle d'IA pour accéder à des données privilégiées et les voler.

Les données vulnérables pourraient potentiellement inclure tout ce à quoi Copilot a accès, y compris les historiques de chat, les documents OneDrive, le contenu Sharepoint, les conversations Teams et les données préchargées d'une organisation.

Adir Gruss a déclaré que la configuration par défaut de Microsoft Copilot exposait la plupart des organisations à un risque d'attaque jusqu'à récemment, tout en précisant qu'il n'y avait aucune preuve que des clients aient été réellement ciblés.

Microsoft, qui coordonne depuis des mois ses efforts avec les chercheurs sur cette vulnérabilité, a publié mercredi un avis indiquant que le problème avait été entièrement résolu et qu'aucune autre mesure n'était nécessaire de la part des clients.

« Nous remercions Aim Labs d'avoir identifié et signalé de manière responsable ce problème afin qu'il puisse être résolu avant que nos clients ne soient affectés », a déclaré un porte-parole de Microsoft.


Microsoft a déclaré avoir mis à jour ses produits afin d'atténuer le problème. La société met également en œuvre des mesures de défense en profondeur afin d'améliorer encore sa posture de sécurité.

Jeff Pollard, vice-président et analyste principal chez Forrester, a déclaré que cette vulnérabilité correspondait aux préoccupations précédemment soulevées concernant les risques potentiels pour la sécurité liés aux agents IA.

« Une fois que vous avez donné à quelque chose le pouvoir d'agir en votre nom pour analyser vos e-mails, planifier des réunions, envoyer des réponses et plus encore, les pirates trouveront un moyen d'exploiter cette fonctionnalité, compte tenu de la mine d'informations que recèlent les comptes de messagerie professionnels et personnels », a déclaré Jeff Pollard.

Cette dernière affirmation corrobore les avertissements précédents de chercheurs selon lesquels l'IA Copilot de Microsoft pourrait servir d'outil d'exfiltration de données et de phishing. Lors de la dernière conférence sur la sécurité Black Hat qui s'est tenue à Las Vegas, le chercheur Michael Bargury a notamment démontré cinq façons dont Copilot peut être manipulé par des attaquants malveillants, et ce en fournissant de fausses références à des fichiers, en exfiltrant des données privées et en contournant les protections de sécurité de Microsoft.

Ces risques ont incité le Congrès américain à interdire à son personnel d'utiliser Copilot, le chatbot IA de Microsoft. Invoquant des fuites potentielles de données vers des services cloud non approuvés, le bureau administratif de la Chambre des représentants a qualifié cet outil de menace pour la sécurité, soulignant ainsi les préoccupations plus générales du gouvernement concernant l'accès incontrôlé de l'IA à des informations institutionnelles sensibles.

Sources : Identification CVE de la vulnérabilité de Microsoft Copilot, Aim Security

Et vous ?

Quel est votre avis sur le sujet ?
Trouvez-vous les conclusions des chercheurs d'Aim Security crédibles ou pertinentes ?
Selon vous, l'utilisation de Microsoft Copilot dans un contexte professionnel est-elle judicieuse ou pertinente ?

Voir aussi :

L'exploitation de Microsoft Copilot Studio permet d'accéder à des données sensibles du cloud, un bug SSRF dans l'outil de création de Copilot personnalisée a potentiellement exposé des informations critiques

Vulnérabilité dans GitHub Copilot et Cursor : comment les pirates peuvent compromettre le code généré par l'IA avec des portes dérobées et des vulnérabilités en injectant des instructions malveillantes cachées

Recall de Windows 11 donne la possibilité à des tiers de voler tout ce que vous avez tapé ou regardé sur votre PC, d'après les tests effectués par un chercheur en sécurité
Vous avez lu gratuitement 49 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !