IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Anthropic impute la fuite du code source de l'agent IA Claude à ses employés et confirme une erreur humaine, qualifiant cet incident d'« erreur de publication plutôt que de faille de sécurité »

Le , par Jade Emy

46PARTAGES

7  0 
Anthropic impute la fuite du code source de l'agent IA Claude à ses employés et confirme une erreur humaine, qualifiant cet incident d'« erreur de publication plutôt que de faille de sécurité »

Récemment, le code source de Claude Code a fait l'objet d'une fuite, révélant de nombreuses fonctionnalités et modèles à venir. En réponse, Anthropic a confirmé qu'une erreur humaine était à l'origine de la fuite du code source de son agent IA, Claude Code, qui a fait perdre des milliards aux marchés boursiers mondiaux. L'entreprise a qualifié cet incident d'erreur de publication plutôt que de faille de sécurité. Cette divulgation fait suite à un autre incident au cours duquel des documents internes, notamment les plans de l’entreprise concernant un futur modèle d’IA, ont été découverts dans un cache de données accessible au public.

Anthropic est une entreprise américaine spécialisée dans l'intelligence artificielle (IA) dont le siège social est situé à San Francisco. Elle a développé une famille de grands modèles de langage (LLM) baptisée Claude. Anthropic fonctionne comme une société d'intérêt public qui mène des activités de recherche et de développement en IA afin « d'étudier leurs propriétés de sécurité à la frontière technologique » et d'utiliser ces recherches pour déployer des modèles sûrs destinés au grand public.

En février 2025, Anthropic a lancé Claude Code, une interface en ligne de commande qui s'exécute sur l'ordinateur de l'utilisateur. Elle se connecte à une instance de Claude hébergée sur les serveurs d'Anthropic via une API, et permet à cette instance d'exécuter des commandes, de lire et d'écrire des fichiers, ainsi que d'échanger des messages avec l'utilisateur. Claude peut exécuter des commandes en avant-plan ou en arrière-plan. Le comportement de Claude Code est généralement configuré via des documents Markdown sur l'ordinateur de l'utilisateur, tels que CLAUDE.md, AGENTS.md, SKILL.md, etc.

Récemment, le code source de Claude Code a fait l'objet d'une fuite, révélant de nombreuses fonctionnalités et modèles à venir. Tout a commencé dans la nuit du 31 mars 2026. Un ingénieur d'Anthropic pousse une mise à jour de routine du paquet npm de Claude Code. Dans l'archive publiée se glisse un fichier source map ; un artefact de débogage de 59,8 mégaoctets dont la vocation première est de relier le code minifié et obfusqué à son code source original, pour faciliter l'identification des bogues en développement. En production, ce type de fichier n'a rien à faire dans un paquet distribué publiquement. L'erreur de configuration a rendu publiques plus de 512 000 lignes de TypeScript constituant le cœur de Claude Code.



En réponse, Anthropic a confirmé qu'une erreur humaine était à l'origine de la fuite du code source de son agent IA, Claude Code, qui a fait perdre des milliards aux marchés boursiers mondiaux. L'entreprise a qualifié cet incident d'erreur de publication plutôt que de faille de sécurité. La start-up spécialisée dans l'IA a révélé qu'un problème de packaging avait involontairement exposé une partie de son code interne.

« Aucune donnée sensible ni aucun identifiant de client n'ont été concernés ou exposés. Il s'agissait d'un problème de packaging lié à la publication, causé par une erreur humaine, et non d'une faille de sécurité. Nous mettons en place des mesures pour éviter que cela ne se reproduise », a déclaré un porte-parole d’Anthropic.

La fuite, qui a fait surface en ligne via un paquet npm accessible au public, aurait exposé environ 2 200 fichiers et quelque 30 Mo de code TypeScript. L’incident a rapidement attiré l’attention, un post renvoyant vers le code ayant été vu des millions de fois, et a suscité des inquiétudes quant à l’ampleur des informations que cela pourrait fournir aux concurrents sur l’approche de développement d’Anthropic.

Cette divulgation fait suite à un autre incident au cours duquel des documents internes, notamment les plans de l’entreprise concernant un futur modèle d’IA, ont été découverts dans un cache de données accessible au public. Cet incident a braqué les projecteurs sur les pratiques internes de l’entreprise.


Les développeurs qui ont examiné le code divulgué ont découvert des fonctionnalités non encore publiées, telles qu'un agent d'arrière-plan toujours actif, également connu sous le nom de Kairos, et une fonctionnalité complémentaire comportant des éléments de gamification. Le code faisait également allusion à des fonctionnalités pour plusieurs agents IA et à des processus d'approbation des autorisations. Dans le même temps, la structure du code a suscité des réactions mitigées, certains rapports soulignant la présence de fichiers volumineux et complexes ainsi que des solutions de contournement pour les dépendances circulaires.

Anthropic, fondée en 2021 par d'anciens chercheurs d'OpenAI, a connu une croissance rapide grâce à sa famille de modèles d'IA Claude. Claude Code, lancé en mai, est utilisé par les développeurs pour écrire du code, corriger des bugs et automatiser les flux de travail, et a contribué à intensifier la concurrence avec des entreprises telles qu'OpenAI, Google et xAI.
L'entreprise envisagerait également une introduction en bourse potentielle plus tard cette année, ce qui ajoute de la pression alors qu'elle s'efforce de remédier à des défaillances répétées.

Source : Anthropic

Et vous ?

Pensez-vous que cette réponse d'Anthropic est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

Anthropic accuse DeepSeek et d'autres laboratoires chinois d'IA d'utiliser Claude pour extraire illicitement les capacités de Claude afin d'améliorer leurs propres modèles à l'aide de 24 000 comptes frauduleux

Anthropic force les marchés à envisager un futur où l'IA rend les applications inutiles : près de 1 000 Mds $ envolés tandis que les investisseurs se demandent si l'IA ne représente pas une menace existentielle

GitGuardian révèle une progression de 81 % des fuites liées aux services d'IA tandis que 29 millions de secrets sont détectés sur GitHub public
Vous avez lu gratuitement 85 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 01/04/2026 à 16:28
à toutes et tous,

En voilà une nouvelle surprenante, n'est-il pas ? Evidemment, c'est "une erreur humaine", on est bien obligé de les croire. Quoi, ils n'avaient pas un agent IA dernier cri super de la mort qui tue balèze et plus encore pour "automatiser" le processus ? C'est bête ça... Vite, vite, faisons une levée de fond de quelques milliards pour pouvoir régler ce léger soucis...

Quoi, leur "IA" est codée en "Typescript" ? Pas étonnant que ça consomme autant...

Quelle drôle d'époque...

BàV et Peace & Love.
6  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 02/04/2026 à 14:09
à toutes et tous,

Citation Envoyé par Alex Voir le message
Anthropic émet des demandes de retrait pour violation du droit d'auteur afin de supprimer plus de 8 000 copies du code source de Claude Code, une fuite qu'Anthropic impute à une erreur humaine de ses employés

Quel est votre avis sur le sujet ?
Exactement le même que lorsque l'ami Sam défendait le droit à la propriété intellectuel pour son business IA, tout en trouvant normal d'avoir violé ce même droit d'auteur pour instruire son IA, en donnant comme raison qu'il n'était pas possible d'avancer sans cela. Anthropic fait ici exactement la même choses... Après s'être assis sur le droit d'auteur, ils veulent qu'on l'applique pour eux.

Que je sache, ces informations, cette fuite, n'est pas le résultat d'un vol. C'est eux qui ont rendu ces documents public. Attaquer ensuite ceux et celles qui ont récupéré ces documents publiés, sous peine d'ennuis (c'est le moins que l'on puisse dire) avec la justice, c'est l'hôpital qui se fout de la charité.

Où est la justice dans cette affaire ? Si je mets sur le trottoir, même par erreur, un frigo tout neuf au lieu du vieux frigo dont je voulais me débarrasser, pourrais-je attaquer en justice celui qui l'aura récupéré ? Je ne pense pas. Deux poids, deux mesures. Si ceux qui ont récupéré ces documents avancent le même argument que ces sociétés, disant qu'il n'était pas possible d'avancer sans cela, je ne pense pas qu'on leur donnera raison...

On va me dire que ce sujet, c'est du passé, que cela a été réglé, admis ou accepté. Mais je reste sur ma position. Si moi je commet un vol, et qu'on me rattrape deux ans plus tard, je ne pourrais pas me défendre en disant que c'est du passé...

Ce n'est que mon avis, chacun à le sien et c'est très bien ainsi.

BàV et Peace & Love.
4  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 04/04/2026 à 12:47
à toutes et tous,

Toute cette histoire démontre que tout ce qui "touche" à l'IA est très fragile.

  • C'est fragile pour les investisseurs, car en quelques jours, une IA sortant de nulle part peut rendre "caduque" d'autres IA, et les investissements qui vont avec.
  • C'est fragile car pour pouvoir faire faire la moindre chose à une IA, il semble évident que pour l'instant, la fiabilité est assez loin d'être au top.
  • C'est fragile, car d'autres IA peuvent maintenant "réécrire/transformer" n'importe quoi. Une simple "fuite", et le business d'une entreprise peut s'écrouler à cause de simple erreurs.
  • C'est fragile, car si c'est une IA qui produit le code d'une IA, ce code est semble-t-il difficilement maintenable, posant des questions sur l'évolution du produit IA.
  • C'est fragile, car dans cette course à l'IA, il semble que la "qualité" et la "sécurité" ne soient pas une priorité.
  • C'est fragile. Dans le cas d'Anthropic, l'utilisation de "Typescript" comme langage de développement pose question.
  • C'est fragile, car l'IA repose sur le "Cloud", lui-même étant "fragile", les multiples "leaks" et "fuites" sont loin d'être "rares".
  • C'est fragile car, vu de l'extérieur, l'utilisation "d'agents" se limitant à une fonctionnalité, est à la base un bon principe, mais l'interconnexion de ces différents "agents" (que l'on veut 'autonome de surcroît) semble difficilement maîtrisable ou même compréhensible par un humain.
  • C'est "fragile" car lorsque l'on retrouve dans une "base de code" des fichiers de milliers de lignes de "code", des fonctions avec 25 niveau d'indentation, c'est assez déreangeant.
  • C'est fragile car cela propage de mauvaises "pratiques", dont le "vide-coding", qui fait croire que n'importe qui peut "programmer" n'importe quoi n'importe comment. On va vers du "code kleenex", qui n'a de la "valeur" qu'un court instant. Peut-être qu'une future "fuite" laissera "sortir" le code de la suite Office de MS (c'est un exemple), qui pourrait en quelque jours être récupéré et transcripté sans possibilité de garder une quelconque "parternité" revendiquée sur ce "nouveau code".


C'est "fragile", car au final, tout repose sur une confiance dans une "technologie" assez "opaque" , ressemblant plus à un château de carte qu'à un développement maîtrisé... Pour l'instant, j'ai perso l'impression que l'IA détruit plus de "valeurs" qu'elle n'en crée réellement, fiablemment, pérennement.

Ce n'est que mon petit avis de petit développeur.

BàV et Peace & Love.
2  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 08/04/2026 à 10:17
à toutes et tous,

Il me semble qu'il est plus difficile de maîtriser une IA qu'un développement classique. Ces compétences sont différentes, mais le soucis vient du fait que ces IA sont utilisées par des personnes n'ayant que peu d'expérience dans le développement (voir pas du tout), mais qui (en plus), n'ont pas la moindre culture du risque des outils qu'ils utilisent aveuglément, par facilité, pour la rapidité, et la sécurité n'est absolument pas prise en compte, c'est un point négatif de plus pour l'IA, qui commence a montrer ses limites, et des compromis qu'elle doit faire sans cesse. De plus, si j'ai bien compris l'article, l'implémentation et l'utilisation des IA, basée sur des jetons, vendu à perte, deviendra intenable si l'IA continue de se développer tel qu'actuellement.

Ce n'est que mon petit avis de petit développeur.
BàV et Peace & Love.
2  1 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 10/04/2026 à 14:39
Citation Envoyé par Ryu2000 Voir le message
C'est normal, les outils IA sont loin d'avoir atteint le stade auquel ils seront fiable et performant.
C'est un accès anticipé (early access) quelque part. OpenAI dit que si il peut dépenser des centaines de milliards chaque année, alors peut-être qu'à partir de 2030 ChatGPT sera rentable (pour être rentable il faut beaucoup d'utilisateurs payants, pour avoir des utilisateurs payants il faut proposer un outil de qualité, donc OpenAI fera un travail de qualité en 2030 (dans le meilleur scénario possible)).
Nous n'avons pas a être des bêta testeurs pour OpenIA. Qu'ils mettent leur brol au point avant de déstabiliser toute une fillière.

Citation Envoyé par Ryu2000 Voir le message
De mon point de vue, si l'erreur vient de Claude c'est beaucoup moins grave que si l'erreur est humaine. Claude est en version alpha, c'est normal que des erreurs aient lieux... (tous les chatbots IA sont en version alpha selon comment on regarde (en tout cas ils produisent plein d'erreurs))
Pareil, il faut en finir avec des produits sortant étant non fiables, dangereux, et en bêta tests permanent.

Citation Envoyé par Ryu2000 Voir le message
Alors que les humains qui sont embauchés sont censés être des "talents", donc ils doivent connaître les règles de sécurité. À un moment donné il y a une histoire d'un fichier de débogage .map qui s'est retrouvé sur un dépôt Git (en gros).
Quelque soit ton "talent", si tu n'est pas au courant de comment fonctionne une IA (et ils gardent jalousement leurs secrets), tu n'as pas les moyens de vérifier des choses dont tu n'est même pas au courant, par opacité, faute de documentation, etc... Tu ne va pas monter dans une voiture révolutionnaire à 3 roues et sans volant quand même ?

Citation Envoyé par Ryu2000 Voir le message
Bon après ils disent que c'est lié au logiciel Bun (alternative à Node.js) si un fichier .map s'est retrouvé dans la distribution publique. Mais Anthropic dit que c'est une erreur humaine, donc ça doit être un humain qui a mal configuré .npmignore, package.json, ou quelque chose du genre.
On ne peut plus se fier à ce que disent ce genre de grosses boîtes, elles ont menti et trop souvent que pour les croire sur parole. La confiance n'est plus là. Dans le cas d'Anthropic, sur quoi te bases-tu pour dire "ça doit être un humain qui a mal configuré .npmignore, package.json, ou quelque chose du genre." ? Tu as des sources ?

Citation Envoyé par Ryu2000 Voir le message
Les chatbots IA seront nuls en 2026, 2027, 2028, 2029, mais peut-être qu'après... Ou alors plusieurs centaines de milliards auront été dépensés pour rien. On verra...
Et bien laissons-les terminer leur produit, encore une fois, je ne suis pas payer pour être un bêta testeur.

BàT et Peace & Love.
1  0 
Avatar de der§en
Membre expérimenté https://www.developpez.com
Le 02/04/2026 à 18:32
8001, j’en ai fait une copie
0  0 
Avatar de v0bit
Nouveau Candidat au Club https://www.developpez.com
Le 03/04/2026 à 12:57
Tellement drôle. Evidemment que c'est une erreur de Claude, c'est lui qui code tout. Il aurait du penser à le rajouter dans le .gitignore.
Après, ils pourront toujours se défendre et dire que c'était une erreur humaine que de ne pas le remarquer, mais c'est un très bon exemple de ce qui peut arriver quand on a plus la maîtrise technique derrière les technos qu'on utilise.

Personnellement, je ne savais pas non plus que les source maps contenaient le code, et donc j'aurais vérifié ce que ça contenait avant de l'ajouter au Git public...
0  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 10/04/2026 à 9:30
Je crois bien que le plus drôle dans tout ça, c'est que la faille a été découverte par une autre IA et non par Mythos, qu'Anthropic dit beaucoup trop efficicace pour être commercialisé.
Pas si efficace que ça, apparemment

Anthropic annonce qu'il ne commercialiserait pas son dernier modèle, Mythos, car celui-ci s'avère trop efficace
0  0 
Avatar de Ryu2000
Inactif https://www.developpez.com
Le 02/04/2026 à 19:44
Citation Envoyé par der§en Voir le message
8001
Le code qui a fuité est préservé pour l'éternité.
Il va être copié, copié et re-copié derrière.
Il doit être plusieurs fois sur GitHub, il doit être en Torrent, il doit être sur eMule, Google Share et tout ce qui existe.

Anthropic a envoyé plus de 8 100 demandes de takedown DMCA à GitHub. Donc le code doit pas mal circuler.
Il y a des forks de tous les côtés. Ça ne va pas durer mais ça laissera des traces. Des gens auront le code sur leur PC.
0  1 
Avatar de Ryu2000
Inactif https://www.developpez.com
Le 10/04/2026 à 22:21
Citation Envoyé par OuftiBoy Voir le message
Nous n'avons pas a être des bêta testeurs pour OpenIA. Qu'ils mettent leur brol au point avant de déstabiliser toute une fillière.
Personne n'est obligé d'utiliser des outils IA.
Que tu soit une entreprise ou un particulier.

Ceux qui décident de l'utiliser savent que ça produit parfois des choses fausses.

Citation Envoyé par OuftiBoy Voir le message
il faut en finir avec des produits sortant étant non fiables, dangereux, et en bêta tests permanent.
Vous pouvez attendre que ce soit au point.
Les plus optimistes parlent de 2030.

Citation Envoyé par OuftiBoy Voir le message
Quelque soit ton "talent", si tu n'est pas au courant de comment fonctionne une IA
Officiellement c'est une erreur humaine.
Donc ça doit être un "talent" qui a fait de la merde et pas l'IA.

Bon après Anthropic peut mentir...
0  1