IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une simple compromission du cloud computing peut donner naissance à une armée de robots sexuels alimentés par l'IA
Selon les chercheurs de Permiso Security

Le , par Bruno

386PARTAGES

5  0 
Une récente étude met en lumière l'utilisation malveillante des identifiants cloud volés pour alimenter des services de chat sexuels assistés par l'IA. Des chercheurs de Permiso Security ont observé une augmentation des attaques sur des infrastructures d'IA comme Bedrock d'Amazon, particulièrement après que des identifiants aient été exposés en ligne. Ils ont testé cette vulnérabilité en publiant une clé AWS, qui a rapidement été exploitée pour générer des interactions de chat à caractère sexuel, incluant des contenus illégaux tels que l'exploitation sexuelle d'enfants.

Amazon Bedrock est un service entièrement géré qui offre une large gamme de modèles de fondation développés par des entreprises d'IA telles qu'AI21 Labs, Anthropic, Cohere, Meta, Mistral AI, Stability AI et Amazon, le tout via une seule API. Ce service fournit également une multitude de fonctionnalités essentielles pour créer des applications d'IA générative. Avec Amazon Bedrock, il est possible de concevoir des agents capables d'effectuer des tâches en utilisant les systèmes d'entreprise et les sources de données. Étant un service sans serveur, les utilisateurs n'ont pas besoin de gérer d'infrastructure, ce qui leur permet d'intégrer et de déployer en toute sécurité des fonctionnalités d'IA générative dans leurs applications en utilisant les services AWS.

Dans le cadre d'une enquête sur l'utilisation abusive des comptes AWS de plusieurs organisations, la société Permiso Security a révélé que des cybercriminels avaient exploité des identifiants AWS volés pour accéder aux grands modèles de langage (LLM) disponibles sur Bedrock. Les chercheurs ont constaté que ces utilisateurs n'avaient pas activé la journalisation complète de l'activité LLM, ce qui leur a fait perdre toute visibilité sur les actions des cybercriminels.


Les cybercriminels, accédant aux modèles de langage d'Amazon, contournent les protections en utilisant des techniques de jailbreak. Bien que Bedrock inclue des garde-fous éthiques, les cybercriminels trouvent des moyens de contourner ces restrictions. Les recherches ont montré que la majorité des interactions étaient à caractère sexuel, avec des implications inquiétantes concernant la sécurité et l'éthique.

Pour mieux comprendre l'ampleur de l'abus, les chercheurs de Permiso ont décidé de publier leur propre clé AWS de test sur GitHub, tout en activant la journalisation. En quelques minutes, cette clé a été récupérée et utilisée par un service de chat sexuel alimenté par l'IA. Après analyse des interactions, il est apparu que l'attaquant exploitait un service de jeu de rôle d'IA. La majorité des scénarios de jeu de rôle étaient sexuels, certains abordant des sujets très sensibles, comme les abus sexuels sur les enfants. En seulement deux jours, plus de 75 000 requêtes de modèles avaient été effectuées, presque toutes à caractère sexuel.

Ian Ahl, vice-président senior de la recherche sur les menaces chez Permiso, a expliqué que les cybercriminels utilisant un compte cloud exploitent généralement cet accès pour des activités comme le minage de cryptomonnaie. Toutefois, au cours des six derniers mois, Bedrock est devenu l'une des cibles les plus prisées des cybercriminels.

Selon Ahl, ces derniers hébergent des services de chat payants, ne souhaitant pas couvrir les coûts des invites générées par leurs abonnés, ce qui les pousse à détourner l'infrastructure d'autres utilisateurs. Bien qu'une partie des conversations soit innocente, un certain pourcentage est lié à des contenus illégaux, tels que des fantasmes d'agression sexuelle. Bedrock utilise des modèles de langage d'Anthropic qui comportent des restrictions éthiques, mais les cybercriminels parviennent à contourner ces garde-fous en formulant des scénarios hypothétiques.

En juin 2024, Sysdig a également signalé une attaque similaire, où des attaquants avaient volé des identifiants dans le cloud pour cibler plusieurs LLM, vendant l'accès à d'autres criminels tout en engendrant des coûts astronomiques pour les propriétaires de comptes. Ahl a exprimé des doutes quant à l'identité des responsables de ces activités, mais a noté que Permiso soupçonne un lien avec une plateforme nommée « chub[.]ai », qui propose...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 09/10/2024 à 13:16
Il y a deux problèmes différents, le premier l'absence de sécurité dans les entreprises qui expose leur clé. Le second étant la sécurité des LLM.
Ici, on mélange les deux pour nous faire une étude en finissant par "vite régulons les IA !".
J'ai vraiment de plus en plus l'impression que l'on veut confisquer le droit d'accès à l'IA et même la possibilité de faire sa propre IA open-source.

Soyons clair, il y aura toujours des jails break d'IA : A partir du moment où une IA "connait" deux notions, on pourrait lui faire combiner ses notions d'une manière ou d'une autre.
Ainsi, une personne pourra toujours produire des contenus illicites de manière direct ou détourné.

Bref, on nous sort encore la carte "abus sur les enfants" et "terrorisme" pour nous faire accepter de la censure et des lois de "régulation" qui vont freiner ou saboter l'innovation et la vie privée.
Quand je vois comment ça a finit en Italie avec la censure totalement en roue libre avec le "piracy shield", je me dis que la "régulation" et juste l'autre mot pour ne pas dire censure.
Et dans le même temps, il y a de moins en moins de policier sur le terrain, et des juges qui prononcent des peines toujours plus légère.
4  1 
Avatar de floyer
Membre éclairé https://www.developpez.com
Le 09/10/2024 à 14:06
« D'abord, la vulnérabilité des systèmes cloud est mise en exergue. Les chercheurs ont pu démontrer, par leur propre expérience, à quel point il est facile pour des cybercriminels d'exploiter des clés exposées. » exploiter des clés exposées est assez logique… c’est le principe d’une clé. La question est plutôt pourquoi ces clés sont exposées. (Probablement stockée sur un autre serveur cloud donc accessible depuis Internet et mal protégée).

Mais c’est vrai qu’avec des systèmes internes (on-premise), il peut y avoir deux barrières : la protection périmétrique du SI et la clé d’accès à la ressource.
2  0