Anthropic impute la fuite du code source de l'agent IA Claude à ses employés et confirme une erreur humaine, qualifiant cet incident d'« erreur de publication plutôt que de faille de sécurité »Récemment, le code source de Claude Code a fait l'objet d'une fuite, révélant de nombreuses fonctionnalités et modèles à venir. En réponse, Anthropic a confirmé qu'une erreur humaine était à l'origine de la fuite du code source de son agent IA, Claude Code, qui a fait perdre des milliards aux marchés boursiers mondiaux. L'entreprise a qualifié cet incident d'erreur de publication plutôt que de faille de sécurité. Cette divulgation fait suite à un autre incident au cours duquel des documents internes, notamment les plans de l’entreprise concernant un futur modèle d’IA, ont été découverts dans un cache de données accessible au public.
Anthropic est une entreprise américaine spécialisée dans l'intelligence artificielle (IA) dont le siège social est situé à San Francisco. Elle a développé une famille de grands modèles de langage (LLM) baptisée Claude. Anthropic fonctionne comme une société d'intérêt public qui mène des activités de recherche et de développement en IA afin « d'étudier leurs propriétés de sécurité à la frontière technologique » et d'utiliser ces recherches pour déployer des modèles sûrs destinés au grand public.
En février 2025, Anthropic a lancé Claude Code, une interface en ligne de commande qui s'exécute sur l'ordinateur de l'utilisateur. Elle se connecte à une instance de Claude hébergée sur les serveurs d'Anthropic via une API, et permet à cette instance d'exécuter des commandes, de lire et d'écrire des fichiers, ainsi que d'échanger des messages avec l'utilisateur. Claude peut exécuter des commandes en avant-plan ou en arrière-plan. Le comportement de Claude Code est généralement configuré via des documents Markdown sur l'ordinateur de l'utilisateur, tels que CLAUDE.md, AGENTS.md, SKILL.md, etc.
Récemment, le code source de Claude Code a fait l'objet d'une fuite, révélant de nombreuses fonctionnalités et modèles à venir. Tout a commencé dans la nuit du 31 mars 2026. Un ingénieur d'Anthropic pousse une mise à jour de routine du paquet npm de Claude Code. Dans l'archive publiée se glisse un fichier source map ; un artefact de débogage de 59,8 mégaoctets dont la vocation première est de relier le code minifié et obfusqué à son code source original, pour faciliter l'identification des bogues en développement. En production, ce type de fichier n'a rien à faire dans un paquet distribué publiquement. L'erreur de configuration a rendu publiques plus de 512 000 lignes de TypeScript constituant le cœur de Claude Code.
Claude code source code has been leaked via a map file in their npm registry!
— Chaofan Shou (@Fried_rice) March 31, 2026
Code: https://t.co/jBiMoOzt8G pic.twitter.com/rYo5hbvEj8
En réponse, Anthropic a confirmé qu'une erreur humaine était à l'origine de la fuite du code source de son agent IA, Claude Code, qui a fait perdre des milliards aux marchés boursiers mondiaux. L'entreprise a qualifié cet incident d'erreur de publication plutôt que de faille de sécurité. La start-up spécialisée dans l'IA a révélé qu'un problème de packaging avait involontairement exposé une partie de son code interne.
« Aucune donnée sensible ni aucun identifiant de client n'ont été concernés ou exposés. Il s'agissait d'un problème de packaging lié à la publication, causé par une erreur humaine, et non d'une faille de sécurité. Nous mettons en place des mesures pour éviter que cela ne se reproduise », a déclaré un porte-parole d’Anthropic.
La fuite, qui a fait surface en ligne via un paquet npm accessible au public, aurait exposé environ 2 200 fichiers et quelque 30 Mo de code TypeScript. L’incident a rapidement attiré l’attention, un post renvoyant vers le code ayant été vu des millions de fois, et a suscité des inquiétudes quant à l’ampleur des informations que cela pourrait fournir aux concurrents sur l’approche de développement d’Anthropic.
Cette divulgation fait suite à un autre incident au cours duquel des documents internes, notamment les plans de l’entreprise concernant un futur modèle d’IA, ont été découverts dans un cache de données accessible au public. Cet incident a braqué les projecteurs sur les pratiques internes de l’entreprise.
Les développeurs qui ont examiné le code divulgué ont découvert des fonctionnalités non encore publiées, telles qu'un agent d'arrière-plan toujours actif, également connu sous le nom de Kairos, et une fonctionnalité complémentaire comportant des éléments de gamification. Le code faisait également allusion à des fonctionnalités pour plusieurs agents IA et à des processus d'approbation des autorisations. Dans le même temps, la structure du code a suscité des réactions mitigées, certains rapports soulignant la présence de fichiers volumineux et complexes ainsi que des solutions de contournement pour les dépendances circulaires.
Anthropic, fondée en 2021 par d'anciens chercheurs d'OpenAI, a connu une croissance rapide grâce à sa famille de modèles d'IA Claude. Claude Code, lancé en mai, est utilisé par les développeurs pour écrire du code, corriger des bugs et automatiser les flux de travail, et a contribué à intensifier la concurrence avec des entreprises telles qu'OpenAI, Google et xAI.
L'entreprise envisagerait également une introduction en bourse potentielle plus tard cette année, ce qui ajoute de la pression alors qu'elle s'efforce de remédier à des défaillances répétées.
Source : Anthropic
Et vous ?
Pensez-vous que cette réponse d'Anthropic est crédible ou pertinente ?
Quel est votre avis sur le sujet ?Voir aussi :
Anthropic accuse DeepSeek et d'autres laboratoires chinois d'IA d'utiliser Claude pour extraire illicitement les capacités de Claude afin d'améliorer leurs propres modèles à l'aide de 24 000 comptes frauduleux
Anthropic force les marchés à envisager un futur où l'IA rend les applications inutiles : près de 1 000 Mds $ envolés tandis que les investisseurs se demandent si l'IA ne représente pas une menace existentielle
GitGuardian révèle une progression de 81 % des fuites liées aux services d'IA tandis que 29 millions de secrets sont détectés sur GitHub public
Vous avez lu gratuitement 2 459 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
à toutes et tous,

