IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'exploitation de Microsoft Copilot Studio permet d'accéder à des données sensibles du cloud
Un bug SSRF dans l'outil de création de Copilot personnalisée a potentiellement exposé des informations critiques

Le , par Jade Emy

303PARTAGES

6  0 
Tenable Research a découvert une vulnérabilité critique de divulgation d'informations dans Copilot Studio de Microsoft via une falsification de requête côté serveur (SSRF). Combinée à un contournement utile de la protection SSRF, les chercheurs ont pu accéder à l'infrastructure interne de Microsoft pour Copilot Studio, y compris l'Instance Metadata Service (IMDS) et les instances internes de Cosmos DB. Cette faille peut exposer des informations potentiellement sensibles concernant les internes du service avec un impact potentiel entre les locataires.

Annoncé en 2023, Copilot Studio offre aux utilisateurs un moyen de personnaliser les assistants d'IA générative. Les utilisateurs peuvent adapter les outils "Copilot" et créer leurs propres outils d'IA générative. Il inclut l'accès à des capacités et solutions conversationnelles, des GPT personnalisés aux plugins d'IA générative et au-delà. Ainsi Copilot Studio permet de créer, tester et personnaliser rapidement des copilotes et des assistants d'IA, tout en disposant d'un contrôle total sur ses copilotes autonomes.

Basé sur le principe du "glisser-déposer", Microsoft Copilot Studio est techniquement un outil facile à utiliser. Les Copilot personnalisés permettent d'effectuer une variété de tâches de grand modèle de langage (LLM) et d'IA générative en exploitant les données ingérées à partir de l'environnement Microsoft 365, ou toute autre donnée que la Power Platform sur laquelle l'outil est construit.

Mais des chercheurs en sécurité ont critiqué l'outil, le qualifiant de "bien trop autorisé". Ils ont découvert 15 problèmes de sécurité avec l'outil qui permettraient la création de chatbots défectueux. Récemment, des chercheurs ont exploité une vulnérabilité dans l'outil Copilot Studio de Microsoft leur permettant d'effectuer des requêtes HTTP externes. Ils ont pu accéder ensuite à des informations sensibles concernant des services internes au sein d'un environnement cloud, avec un impact potentiel sur plusieurs locataires.

Les chercheurs de Tenable ont découvert la faille SSRF (server-side request forgery) dans l'outil de création de chatbot. Ils ont exploité pour accéder à l'infrastructure interne de Microsoft, y compris l'Instance Metadata Service (IMDS) et les instances internes de Cosmos DB. Repérée par Microsoft sous le nom de CVE-2024-38206, la faille permet à un attaquant authentifié de contourner la protection SSRF dans Microsoft Copilot Studio pour récupérer des informations sensibles basées sur le cloud via un réseau.


Fonctionnement de la vulnérabilité CVE-2024-38206

La faille existe lors de la combinaison d'une requête HTTP qui peut être créée à l'aide de l'outil avec un contournement de la protection SSRF, selon Tenable. "Une vulnérabilité SSRF se produit lorsqu'un attaquant est en mesure d'influencer l'application pour qu'elle effectue des requêtes HTTP côté serveur vers des cibles inattendues ou d'une manière inattendue", a expliqué Evan Grant, chercheur en sécurité chez Tenable.

Les chercheurs ont testé leur exploit pour créer des requêtes HTTP afin d'accéder aux données et services cloud de plusieurs locataires. Ils ont découvert que "bien qu'aucune information inter-locataires ne semble immédiatement accessible, l'infrastructure utilisée pour ce service Copilot Studio était partagée entre les locataires".

Tout impact sur cette infrastructure pourrait donc affecter plusieurs clients, ajoute Evan Grant : "Bien que nous ne connaissions pas l'ampleur de l'impact que pourrait avoir un accès en lecture/écriture à cette infrastructure, il est clair que le risque est amplifié du fait qu'elle est partagée entre les locataires. Les chercheurs ont également constaté qu'ils pouvaient utiliser leur exploit pour accéder à d'autres hôtes internes sans restriction sur le sous-réseau local auquel appartenait leur instance.

Les chercheurs de Tenable ont découvert la faille SSRF de l'outil lorsqu'ils ont examiné les vulnérabilités SSRF dans les API pour Azure AI Studio et Azure ML Studio de Microsoft, que l'entreprise elle-même a signalées et corrigées avant que les chercheurs ne puissent les signaler. Les chercheurs ont ensuite porté leur attention sur Copilot Studio pour voir s'il pouvait également être exploité de la même manière.

Microsoft a réagi rapidement à la notification de la faille par Tenable, et celle-ci a depuis été entièrement atténuée, sans qu'aucune action ne soit requise de la part des utilisateurs de Copilot Studio, a indiqué l'entreprise dans son avis de sécurité.


Voici le rapport de Tenable concernant cette découverte :

Exploiter une vulnérabilité de type SSRF avec l'aide de Copilot Studio

Contexte

Une vulnérabilité SSRF se produit lorsqu'un attaquant est en mesure d'influencer l'application pour qu'elle effectue des requêtes HTTP côté serveur vers des cibles inattendues ou d'une manière inattendue.

Par exemple, une caractéristique commune à de nombreuses applications modernes qui traitent de l'analyse des données ou de l'apprentissage automatique consiste à intégrer des données provenant de services externes. Pour ce faire, l'application doit effectuer des requêtes HTTP pour se connecter aux API de ces services externes. Si un attaquant est en mesure de contrôler la cible de ces requêtes, il pourrait diriger la requête vers une ressource interne sensible à laquelle l'application côté serveur a accès, même si l'attaquant n'y a pas accès, révélant ainsi des informations potentiellement sensibles.

Dans le contexte des applications cloud, une cible courante est l'IMDS, qui peut fournir des informations utiles et potentiellement sensibles pour un attaquant (Azure, AWS et...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !