vendredi 3 avril 2026

TROP GROS

 Anthropic : La fuite, la guerre, l'arme. Ou comment une société se voit dépassée par un effet Frankenstein


À quoi ressemble une entreprise de 380 milliards de dollars qui remporte une guerre contre le Pentagone, survit à la première cyberattaque autonome par IA de l'histoire, divulgue un modèle secret qui terrifie ses propres créateurs et publie accidentellement son code source ? Exactement à ceci. Et le pire reste à venir.

AUJOURD'HUI : ANTHROPIC A DE NOUVEAU FUITE SON PROPRE CODE.

31 mars 2026. Chaofan Shou, chercheur en sécurité chez Fuzzland, une entreprise spécialisée dans la blockchain, ouvre le package npm officiel de Claude Code et y trouve un fichier appeléDisponible en évidence. Taille : 60 mégaoctets. Contenu : le code source TypeScript complet du produit.
À partir de ce seul fichier, il est possible de reconstituer 1 906 fichiers sources internes : conception de l’API interne, systèmes de télémétrie, outils de chiffrement, logique de sécurité, systèmes de plugins, etc. Le tout est téléchargeable au format ZIP directement depuis le bucket de stockage R2 d’Anthropic. En quelques heures, la publication a atteint 754 000 vues et près de 1 000 retweets. Des dépôts GitHub contenant le code restauré sont apparus immédiatement.
Une source map est un fichier de débogage JavaScript basique. Elle ne doit jamais être incluse dans un package de production. Il ne s'agit pas d'une attaque sophistiquée, mais des bases de la configuration de build : on apprend ça dès la première semaine. vous pouvez consulter le code ici :
Mais voici ce qui rend la chose véritablement insensée : c’est déjà arrivé auparavant.
Février 2025 – il y a exactement un an – même fuite, même fichier, même erreur. Anthropic a supprimé les anciennes versions de npm, retiré la carte et publié une nouvelle version. Tout le monde est passé à autre chose. Puis, la version 2.1.88 a de nouveau distribué le fichier.
Une entreprise valorisée à 380 milliards de dollars, qui développe le système de détection de vulnérabilités le plus performant au monde, a commis la même erreur élémentaire à deux reprises en un an. Pas de pirates informatiques. Pas d'attaque sophistiquée. Juste un processus de développement défaillant.
L'ironie est presque poétique. L'IA qui a découvert 500 vulnérabilités zero-day en une seule session. Le modèle utilisé pour attaquer de manière autonome 30 organisations à travers le monde. Et Anthropic a distribué son propre code source à quiconque prenait la peine d'examiner son package npm.
Deux fuites. À sept jours d'intervalle. Toutes deux dues à des erreurs de configuration basiques. Aucune compétence particulière n'est requise pour les exploiter.
Quiconque savait où chercher l'obtenait gratuitement.

IL Y A 5 JOURS : ANTHROPIC A DÉVOILÉ UN MODÈLE SECRET QUI EFFRAYE SES PROPRES CRÉATEURS

Le 26 mars 2026, les chercheurs en sécurité Roy Paz (LayerX Security) et Alexandre Pauwels (Université de Cambridge) découvrent qu'une erreur de configuration du système de gestion de contenu (CMS) du site web d'Anthropic a rendu accessibles au public environ 3 000 fichiers internes : brouillons d'articles de blog, PDF, documents internes et présentations. Ces fichiers étaient disponibles sur un espace de stockage de données non sécurisé et consultable. Aucune intervention du piratage n'était nécessaire.
À l'intérieur : deux versions du même brouillon d'article de blog, identiques en tout point sauf un : le nom du modèle. « Mythos » dans l'une, « Capybara » dans l'autre. Anthropic hésitait entre deux noms pour ce même projet confidentiel. L'entreprise a confirmé : l'entraînement est terminé et le modèle est déjà testé auprès de clients ayant un accès anticipé.
Joufflu♨️
@kimmonismus
Putain de merde, énorme fuite ! Fuite de Claude Opus 5 « Mythos » : Claude Mythos, un nouveau niveau au-delà des modèles Opus, offre des gains de performance majeurs par rapport à Opus 4.6 en matière de codage, de raisonnement académique et de cybersécurité, et marque un tournant dans les capacités de l'IA de pointe. Le modèle est tellement
Citation
M1
@M1Astra
Article de blog de Claude Mythos Enregistré avant sa suppression. m1astra-mythos.pages.dev
Il ne s'agit pas d'une mise à jour d'Opus. C'est un nouveau quatrième niveau, un modèle entièrement supérieur à Opus. La version préliminaire d'Anthropic le décrit comme « plus vaste et plus intelligent que nos modèles Opus, qui étaient jusqu'à présent les plus performants ». Il est nettement plus performant en matière de programmation, de raisonnement académique et de cybersécurité. Un porte-parole l'a qualifié de « véritable révolution » et de « modèle le plus performant que nous ayons conçu à ce jour ».
Mais voici ce qui compte vraiment.
Dans la version préliminaire qui a fuité, Anthropic décrit son propre modèle comme suit : il « pose des risques de cybersécurité sans précédent », est « bien plus avancé que tout autre modèle d’IA en matière de capacités cybernétiques » et « préfigure une vague à venir de modèles capables d’exploiter les vulnérabilités d’une manière qui surpasse largement les efforts des défenseurs ».
Anthropic admet publiquement avoir peur de son propre produit. Dans un brouillon de blog officiel.
AshutoshShrivastava
@ai_for_success
Détails du modèle anthropique Mythos / Capybara ayant fuité Claude Mythos - La nouvelle référence : Introduit comme premier modèle d'une nouvelle gamme, surpassant la puissance de la précédente gamme Claude Opus. - Force fondamentale : Conçue pour créer un lien profond entre les idées et les connaissances. -
Citation
M1
@M1Astra
Article de blog de Claude Mythos Enregistré avant sa suppression. m1astra-mythos.pages.dev
Le marché a réagi immédiatement. CrowdStrike a chuté de 7 %, Palo Alto Networks de 6 %, Zscaler de 4,5 %, Okta et SentinelOne de plus de 7 % et Tenable de 9 %. L'ETF iShares Cybersecurity a perdu 4,5 % en une seule séance. CrowdStrike a perdu à lui seul près de 15 milliards de dollars de capitalisation boursière en une journée. Le Bitcoin est retombé à 66 000 dollars. Les investisseurs ont interprété ces événements comme un signal d'alarme pour l'ensemble du secteur de la cybersécurité.
L’analyste Adam Borg de Stifel l’a exprimé clairement : ce modèle a « le potentiel de devenir l’outil de piratage ultime, capable de transformer n’importe quel pirate informatique ordinaire en adversaire d’un État-nation. »
Pourquoi Mythos n'est-il pas encore disponible au grand public ? Anthropic reconnaît que son exploitation est « très coûteuse » et qu'il n'est pas prêt pour une diffusion générale. Le plan : dans un premier temps, un petit groupe de partenaires en cybersécurité bénéficiera d'un accès anticipé afin de renforcer leurs défenses. Ensuite, l'API sera progressivement étendue. L'entreprise travaille à optimiser son efficacité avant tout déploiement à grande échelle.
Mais ce modèle existe déjà. Il est déjà testé. Et il a déjà provoqué l'effondrement d'un secteur entier du marché boursier, simplement en étant révélé par hasard.
Anthropic a conçu un modèle qu'elle décrit comme l'IA la plus dangereuse jamais créée pour la cybersécurité. Et a perdu le contrôle de l'annonce à cause d'une erreur de configuration d'infrastructure précisément due au type de problème que son propre modèle est censé détecter.

MARS 2026 : ANTHROPIC ENTRE EN GUERRE CONTRE LE PENTAGONE. ET GAGNA

Juillet 2025. Anthropic signe un contrat de 200 millions de dollars avec le département de la Défense. Un contrat classique. Mais lorsque de véritables négociations ont débuté concernant le déploiement de Claude sur les bases militaires…La plateforme s'est effondrée.
Le Pentagone souhaitait un accès illimité à Claude pour « toutes fins légitimes », y compris le développement d'armes entièrement autonomes et la surveillance de masse des citoyens américains. Anthropic a adopté deux positions intransigeantes et a refusé. Les négociations ont échoué en septembre 2025.
Puis la situation a dégénéré.
27 février 2026 - Trump publie un message sur Truth Social ordonnant à toutes les agences fédérales de « cesser IMMÉDIATEMENT » l'utilisation de la technologie d'Anthropic. Il qualifie l'entreprise d'« extrême gauche ».
Commentaire : Publications de Trump sur les réseaux sociaux concernant la vérité sur X
@TrumpTruthOnX
Les États-Unis d'Amérique ne permettront jamais à une entreprise d'extrême gauche, adepte du « woke », de dicter la manière dont nos forces armées mènent et gagnent les guerres ! Cette décision revient à votre commandant en chef et aux excellents dirigeants que je nomme pour diriger nos forces armées. Les cinglés d'extrême gauche d'Anthropic ont
5 mars 2026 – Le Pentagone désigne officiellement Anthropic comme « risque pour la chaîne d'approvisionnement ». Cette étiquette, auparavant réservée aux adversaires étrangers (entreprises chinoises, entités russes), est désormais appliquée à une entreprise américaine de San Francisco. Amazon, Microsoft et Palantir sont tenus de certifier qu'ils n'utilisent pas Claude dans le cadre d'activités militaires.
Le directeur technique du Pentagone, Emile Michael, a expliqué la logique : Claude pourrait « contaminer » la chaîne d’approvisionnement car différentes « préférences politiques sont intégrées au modèle ». Traduction : une IA qui refuse d’aider à tuer sans restrictions constitue une menace pour la sécurité nationale.
26 mars 2026 – La juge fédérale Rita Lin rend une décision de 43 pages bloquant l'ensemble des activités du Pentagone. Elle déclare : « Rien dans la loi en vigueur ne justifie l'idée orwellienne qu'une entreprise américaine puisse être qualifiée d'adversaire potentiel pour avoir exprimé son désaccord avec le gouvernement. Sanctionner Anthropic pour avoir exposé publiquement la position du gouvernement constitue une mesure de représailles illégale et flagrante, contraire au Premier Amendement. » Un mémoire d'amicus curiae qualifie les agissements du Pentagone de « tentative d'assassinat d'entreprise ».
Le gouvernement a tenté de détruire Anthropic. Au lieu de cela, il a contribué à sa renommée. L'application Claude a dépassé ChatGPT sur l'App Store pour la première fois. Plus d'un million de nouveaux inscrits par jour.
Une entreprise spécialisée en intelligence artificielle a dit non à la plus puissante armée du monde. Et un juge lui a donné raison.
Sous-secrétaire à la Guerre Emil Michael
@USWREMichael
Ce jugement de 42 pages, rendu à la hâte en 48 heures, EN PLEINE PÉRIODE DE CONFLIT, et qui vise à bouleverser l'ordre établi, comporte des dizaines d'erreurs factuelles.rôle de commandant en chef et perturbationLa pleine capacité de mener des opérations militaires avec les partenaires de son choix. Une honte.
Citation
Will Chamberlain
@willchamberlain
Il s'agit peut-être de l'ordonnance la plus extravagante et absurde que j'aie vue d'un juge cette année, et c'est peu dire ! x.com/ewess92/status…

NOVEMBRE 2025 : LA PREMIÈRE CYBERATTAQUE DE L'HISTOIRE MENÉE PAR UNE IA

14 novembre 2025. Anthropic publie un rapport qui bouleverse tout. Un groupe de pirates informatiques parrainé par l'État chinois a utilisé Claude Code pour attaquer de manière autonome 30 organisations – géants de la technologie, banques, agences gouvernementales – dans plusieurs pays.
La répartition des tâches : les humains choisissaient les cibles et approuvaient les décisions clés. C’est tout. Quatre à six interventions par campagne. L’IA gérait tout le reste : reconnaissance, identification des vulnérabilités, développement des exploits, vol de données, création de portes dérobées. 80 à 90 % de l’attaque. Des milliers de requêtes par seconde. Une vitesse qu’aucune équipe humaine ne pourrait égaler.
Comment ont-ils contourné les garde-fous de Claude ? Ils ne les ont pas forcés. Ils ont menti. Ils ont fractionné l’attaque en petites tâches anodines et ont convaincu Claude qu’il s’agissait d’une entreprise de sécurité légitime effectuant des « tests de défense autorisés ». De l’ingénierie sociale, sauf que la victime était l’IA.
Plusieurs attaques ont été couronnées de succès. Claude a cartographié de manière autonome des topologies de réseau complètes, trouvé des bases de données et extrait des données sans la moindre intervention humaine.
La seule chose qui les a ralentis ? Claude avait parfois des hallucinations : il inventait des identifiants, prétendait avoir volé des documents déjà publics. Pour l’instant, c’est l’un des derniers véritables obstacles aux cyberattaques totalement autonomes.
Lors de la conférence RSAC 2026, Rob Joyce, ancien responsable de la cybersécurité à la NSA, a qualifié la situation de « test de Rorschach » pour le monde de la sécurité. La moitié de l'assistance l'a balayée d'un revers de main, tandis que l'autre moitié était terrifiée. Joyce appartenait à ce second groupe. « C'est vraiment effrayant », a-t-il déclaré.

Ce n'était pas une prédiction. C'était en septembre 2025. C'est déjà arrivé.

FÉVRIER 2026 : 500 JOURS ZÉRO EN UNE SEULE SESSION
5 février 2026. Anthropic publie Claude Opus 4.6. Parallèlement, un document de recherche qui bouleverse le secteur de la cybersécurité.
Configuration : Claude a été placé dans une machine virtuelle isolée avec des outils standard : Python, débogueurs, fuzzers. Aucune instruction particulière, aucune invite personnalisée. Juste : « Trouver des vulnérabilités. »
Résultat : Plus de 500 failles zero-day critiques et jusqu’alors inconnues dans le code de production. Certaines avaient résisté à des décennies d’analyse par des experts et à des millions d’heures de tests automatisés.
Puis vint RSAC 2026. Le chercheur Nicholas Carlini monta sur scène et présenta Ghost à Claude : un CMS comptant 50 000 étoiles sur GitHub et aucune vulnérabilité critique à son actif. 90 minutes plus tard : injection SQL aveugle. Prise de contrôle totale du compte d’administrateur par un utilisateur non authentifié. Il présenta ensuite le noyau Linux à Claude. Même résultat.
Quinze jours plus tard, Anthropic lançait Claude Code Security, un produit qui raisonne sur le code au lieu de rechercher des correspondances de modèles comme tous les scanners précédents.
Mais le porte-parole d'Anthropic a lui-même formulé cette idée sous silence : « Le même raisonnement qui permet à Claude de trouver et de corriger les vulnérabilités pourrait permettre à un attaquant de les exploiter. » Même capacité. Même modèle. Entre d'autres mains.
chef du autisme
@chefautisme
Quelqu'un chez ANTHROPIC vient de montrer à CLAUDE comment détecter des vulnérabilités zero-day lors d'une démo en direct pendant une conférence. Claude a découvert une faille zero-day dans Ghost, 50 000 étoiles sur GitHub, qui n'a jamais présenté de vulnérabilité de sécurité critique dans toute son histoire… Il a détecté l'injection SQL aveugle en 90 minutes.

CE QUE TOUT CELA SIGNIFIE ENSEMBLE

Chacune de ces histoires, prise individuellement, aurait fait la une du mois. Elles se sont toutes déroulées en six mois, au sein d'une seule et même entreprise.
Anthropic a conçu un modèle capable de détecter les vulnérabilités plus rapidement que n'importe quel être humain. Des pirates informatiques chinois ont transformé la version précédente en une cyberarme autonome. L'entreprise travaille actuellement sur une nouvelle version, encore plus puissante, et admet, dans des documents qui ont fuité, qu'elle la craint.
Le gouvernement américain a tenté de les détruire, non pas en raison de la dangerosité de la technologie, mais parce qu'Anthropic a refusé de la céder sans restriction. Parallèlement, ils ont divulgué leur propre code source à deux reprises via le même fichier dans le même paquet npm.
Une entreprise valorisée à 380 milliards de dollars. Une introduction en bourse de 60 milliards de dollars prévue pour octobre 2026. Une entreprise qui affirme ouvertement développer « l'une des technologies les plus révolutionnaires et potentiellement dangereuses de l'histoire de l'humanité » – et qui poursuit malgré tout son développement. Car elle estime qu'il est préférable qu'elle le fasse elle-même plutôt que quelqu'un d'autre.
La carte source du package npm est tout simplement le détail le plus cocasse d'une des histoires les plus troublantes qui se déroulent actuellement.
Mythos n'est même pas encore sorti.
Sources : Fortune, CNBC, Axios, The Register, CNN, NPR, blog officiel d’Anthropic, recherches de l’équipe rouge d’Anthropic, documents de la cour fédérale et publications primaires sur X de chercheurs et de responsables impliqués.

Aucun commentaire:

Enregistrer un commentaire