samedi 4 avril 2026

CA VA BIEN SE PASSER

 L’IA et l’évaporation des « bullshit jobs » (boulot de merde).

Constat affolant fait dans le journal de révérence : Le Monde explique dans une récente chronique que malgré des gains de productivité énormes (une multiplication par six en 70 ans), le temps de travail n’a diminué que de 39 %. Pour le commun des mortels, la question qui s’impose est alors : « mais où sont donc passés ces gains de productivité ? »


La réponse est assez simple lorsqu’on observe la boursouflure invraisemblable des systèmes fiscaux et sociaux de nos sociétés modernes, qui permettent chaque jour à davantage de personnes de profiter confortablement du travail d’autrui.

Cependant, ce constat ne sera surtout pas dressé dans la chronique du Monde, ce qui lui évitera toute remise en question de l’actuel modèle social qui ancre durablement tout le monde dans une absence d’opulence. Le journaliste préfère s’interroger sur l’avenir des travailleurs, alors que l’intelligence artificielle promet des gains de productivité encore plus impressionnants : l’IA pourrait-elle favoriser les « bullshit jobs » ? se demande-t-il avec gourmandise.

Le « bullshit job » est ce concept forgé par l’anthropologue américain David Graeber, d’abord dans un essai incendiaire en 2013, puis dans un livre éponyme en 2018. Sa thèse est dévastatrice : jusqu’à 40 % des emplois modernes seraient perçus comme dénués de sens par ceux-là mêmes qui les occupent. Coordinateurs de coordination, analystes de rapports que personne ne lit, consultants internes en conformité procédurale, « Chief Happiness Officers »… Le point commun : leur disparition du jour au lendemain ne changerait strictement rien au fonctionnement réel de l’organisation. Le capitalisme, censé être d’une efficacité impitoyable, aurait ainsi engendré une bureaucratie aussi absurde que celle de l’Union soviétique, mais mieux payée et climatisée.

La question initiale du journaliste n’est donc pas innocente : comme beaucoup de travailleurs confrontés aux révolutions les plus récentes, il comprend confusément que son propre job est éminemment remplaçable. Ferait-il lui aussi partie de ces « bullshit jobs » ? En tout cas, plusieurs études récentes montrent que la pénétration de plus en plus rapide de l’intelligence artificielle dans les entreprises redéfinit de façon vigoureuse ce qu’est un travail pertinent, et pousse toujours plus d’emplois dans la catégorie des occupations un peu douteuses, voire superfétatoires.

Dès 2025, le mouvement était déjà bien engagé.

Selon le cabinet américain Challenger, Gray & Christmas, près de 55 000 suppressions de postes ont été explicitement justifiées par l’intégration de l’IA sur l’année. En octobre 2025, le pays enregistrait 153 074 licenciements sur le seul mois, soit 175 % de plus que l’année précédente. L’IA est devenue une ligne comptable assumée dans les plans de restructuration. Parallèlement, une étude de Stanford documentait le phénomène en expliquant que l’IA remplace en priorité les tâches intellectuelles répétitives, la compilation, la synthèse, le code basique, pour déplacer toute la valeur vers la supervision et l’expertise. Les avantages d’un LLM sur un consultant en stratégie sont d’ailleurs évidents : le premier parvient à débiter exactement le même volume d’évidences tièdes, mais sans avoir à facturer le PowerPoint ni le taxi.

Les premiers mois de l’année 2026 n’ont fait que confirmer la tendance, et en accélérer le rythme. En mars, Anthropic a publié une cartographie des métiers les plus exposés : programmeurs, agents du service client, opérateurs de saisie, analystes de marché. Fortune n’hésite plus à qualifier le scénario en cours de « Grande Récession des cols blancs ». Côté américain toujours, l’enquête SHRM révèle qu’au moins la moitié des tâches sont déjà automatisées pour 23,2 millions de travailleurs. Et Goldman Sachs projette 300 millions d’emplois affectés mondialement sur la prochaine décennie, avec un écart de revenus entre travailleurs « augmentés » par l’IA et travailleurs « remplacés » qui explose de 42 à 71 points de pourcentage entre 2022 et 2026.

En somme, le drame moderne du col blanc contemporain, c’est de découvrir qu’un modèle statistique bêtement entraîné sur Reddit peut accomplir en dix secondes le travail qui justifiait tout son Master 2 un peu bidon.

En réalité, plusieurs phénomènes sont en train de se rattraper et d’entrer en collision de façon très intéressante.

Premièrement, il semble bien que ceux qui ricanaient quand les automates remplaçaient les caissières transpirent aujourd’hui à grosses gouttes en voyant ChatGPT rédiger leurs notes de synthèse. On s’inquiétait que l’IA remplace les ouvriers ; elle a finalement commencé par éliminer les « Project Managers » et les « Chief Happiness Officers », dans une sorte de karma algorithmique pas dénué d’humour.

Deuxièmement, il va être difficile d’éviter la collision de deux tendances.

D’un côté, l’État a mis des décennies à inventer le formulaire bureaucratique, qu’un individu moyen met des plombes à remplir, le bic tremblant. De l’autre, l’IA fournit désormais à tout un chacun la possibilité de le remplir en 120 millisecondes. L’administration, engluée dans ses process, ses vérifications, ses directives et ses décrets, ne pourra pas s’adapter à ce changement paradigmatique trop rapide : la bureaucratie va se retrouver perdue dans ses propres cerfas, correctement remplis mais impossibles à traiter sans utiliser l’IA qu’elle s’interdira d’utiliser par principe (et parce qu’elle ne sera vraisemblablement ni française, ni même sécurisée). La bureaucratie avait réussi le prodige d’inventer le travail sans utilité ; l’intelligence artificielle va encore plus loin en inventant l’inutilité sans travail.

Enfin, cerise algorithmique sur le gâteau générationnel, il apparaît que ce sont les digital natives, les « compétents numériques » autoproclamés, qui trinquent les premiers. Stanford et Goldman Sachs documentent une chute de 6 à 20 % de l’emploi des 22-25 ans dans les métiers les plus exposés. Les seniors, eux, voient leurs postes se renforcer. Eh oui : pour le moment en tout cas, l’expérience et le jugement valent plus qu’un Master en « Data-Driven Innovation Strategy ».

Selon toute vraisemblance, cela ne durera pas. Mais on peut en attendant goûter à l’ironie de la situation : la génération qui ne jurait que par la « disruption » découvre avec effarement que ça va la concerner au premier chef.

OPTION DE CONSCRIPTION

Une autorisation de l’armée pour séjourner à l’étranger ? L’article d’une loi allemande sur le service militaire indique que les hommes « doivent obtenir une autorisation du centre de recrutement » de l’armée, s’ils quittent le pays pendant plus de trois mois.

Cette réglementation a suscité une vie polémique en Allemagne. Les conséquences pour ceux qui ne demanderaient pas l’autorisation sont pour l’heure inconnues. Entrée en vigueur le 1er janvier 2026, cette loi sur le service militaire vise à augmenter les effectifs de l’armée allemande, en passant le nombre de militaires actifs de 180 000 à 270 000, d’ici 2035. 

Le Parisien

LIMOGEAGES

 







vendredi 3 avril 2026

VOTRE ARGENT, VOS DETTES

 C'est notre argent distribué par macron, vous pigez maintenant, pourquoi il faut que vous travailliez plus pour qu'il gagne plus...? Une sorte de solidarité, alors soyez débonnaires et surtout généreux... 2 ans... voire même 5 ans c'est rien, c'est vite passé

Et dans ces transferts d'argent...combien de rétro commissions sur des comptes offshore ?

TROP GROS

 Anthropic : La fuite, la guerre, l'arme. Ou comment une société se voit dépassée par un effet Frankenstein


À quoi ressemble une entreprise de 380 milliards de dollars qui remporte une guerre contre le Pentagone, survit à la première cyberattaque autonome par IA de l'histoire, divulgue un modèle secret qui terrifie ses propres créateurs et publie accidentellement son code source ? Exactement à ceci. Et le pire reste à venir.

AUJOURD'HUI : ANTHROPIC A DE NOUVEAU FUITE SON PROPRE CODE.

31 mars 2026. Chaofan Shou, chercheur en sécurité chez Fuzzland, une entreprise spécialisée dans la blockchain, ouvre le package npm officiel de Claude Code et y trouve un fichier appeléDisponible en évidence. Taille : 60 mégaoctets. Contenu : le code source TypeScript complet du produit.
À partir de ce seul fichier, il est possible de reconstituer 1 906 fichiers sources internes : conception de l’API interne, systèmes de télémétrie, outils de chiffrement, logique de sécurité, systèmes de plugins, etc. Le tout est téléchargeable au format ZIP directement depuis le bucket de stockage R2 d’Anthropic. En quelques heures, la publication a atteint 754 000 vues et près de 1 000 retweets. Des dépôts GitHub contenant le code restauré sont apparus immédiatement.
Une source map est un fichier de débogage JavaScript basique. Elle ne doit jamais être incluse dans un package de production. Il ne s'agit pas d'une attaque sophistiquée, mais des bases de la configuration de build : on apprend ça dès la première semaine. vous pouvez consulter le code ici :
Mais voici ce qui rend la chose véritablement insensée : c’est déjà arrivé auparavant.
Février 2025 – il y a exactement un an – même fuite, même fichier, même erreur. Anthropic a supprimé les anciennes versions de npm, retiré la carte et publié une nouvelle version. Tout le monde est passé à autre chose. Puis, la version 2.1.88 a de nouveau distribué le fichier.
Une entreprise valorisée à 380 milliards de dollars, qui développe le système de détection de vulnérabilités le plus performant au monde, a commis la même erreur élémentaire à deux reprises en un an. Pas de pirates informatiques. Pas d'attaque sophistiquée. Juste un processus de développement défaillant.
L'ironie est presque poétique. L'IA qui a découvert 500 vulnérabilités zero-day en une seule session. Le modèle utilisé pour attaquer de manière autonome 30 organisations à travers le monde. Et Anthropic a distribué son propre code source à quiconque prenait la peine d'examiner son package npm.
Deux fuites. À sept jours d'intervalle. Toutes deux dues à des erreurs de configuration basiques. Aucune compétence particulière n'est requise pour les exploiter.
Quiconque savait où chercher l'obtenait gratuitement.

IL Y A 5 JOURS : ANTHROPIC A DÉVOILÉ UN MODÈLE SECRET QUI EFFRAYE SES PROPRES CRÉATEURS

Le 26 mars 2026, les chercheurs en sécurité Roy Paz (LayerX Security) et Alexandre Pauwels (Université de Cambridge) découvrent qu'une erreur de configuration du système de gestion de contenu (CMS) du site web d'Anthropic a rendu accessibles au public environ 3 000 fichiers internes : brouillons d'articles de blog, PDF, documents internes et présentations. Ces fichiers étaient disponibles sur un espace de stockage de données non sécurisé et consultable. Aucune intervention du piratage n'était nécessaire.
À l'intérieur : deux versions du même brouillon d'article de blog, identiques en tout point sauf un : le nom du modèle. « Mythos » dans l'une, « Capybara » dans l'autre. Anthropic hésitait entre deux noms pour ce même projet confidentiel. L'entreprise a confirmé : l'entraînement est terminé et le modèle est déjà testé auprès de clients ayant un accès anticipé.
Joufflu♨️
@kimmonismus
Putain de merde, énorme fuite ! Fuite de Claude Opus 5 « Mythos » : Claude Mythos, un nouveau niveau au-delà des modèles Opus, offre des gains de performance majeurs par rapport à Opus 4.6 en matière de codage, de raisonnement académique et de cybersécurité, et marque un tournant dans les capacités de l'IA de pointe. Le modèle est tellement
Citation
M1
@M1Astra
Article de blog de Claude Mythos Enregistré avant sa suppression. m1astra-mythos.pages.dev
Il ne s'agit pas d'une mise à jour d'Opus. C'est un nouveau quatrième niveau, un modèle entièrement supérieur à Opus. La version préliminaire d'Anthropic le décrit comme « plus vaste et plus intelligent que nos modèles Opus, qui étaient jusqu'à présent les plus performants ». Il est nettement plus performant en matière de programmation, de raisonnement académique et de cybersécurité. Un porte-parole l'a qualifié de « véritable révolution » et de « modèle le plus performant que nous ayons conçu à ce jour ».
Mais voici ce qui compte vraiment.
Dans la version préliminaire qui a fuité, Anthropic décrit son propre modèle comme suit : il « pose des risques de cybersécurité sans précédent », est « bien plus avancé que tout autre modèle d’IA en matière de capacités cybernétiques » et « préfigure une vague à venir de modèles capables d’exploiter les vulnérabilités d’une manière qui surpasse largement les efforts des défenseurs ».
Anthropic admet publiquement avoir peur de son propre produit. Dans un brouillon de blog officiel.
AshutoshShrivastava
@ai_for_success
Détails du modèle anthropique Mythos / Capybara ayant fuité Claude Mythos - La nouvelle référence : Introduit comme premier modèle d'une nouvelle gamme, surpassant la puissance de la précédente gamme Claude Opus. - Force fondamentale : Conçue pour créer un lien profond entre les idées et les connaissances. -
Citation
M1
@M1Astra
Article de blog de Claude Mythos Enregistré avant sa suppression. m1astra-mythos.pages.dev
Le marché a réagi immédiatement. CrowdStrike a chuté de 7 %, Palo Alto Networks de 6 %, Zscaler de 4,5 %, Okta et SentinelOne de plus de 7 % et Tenable de 9 %. L'ETF iShares Cybersecurity a perdu 4,5 % en une seule séance. CrowdStrike a perdu à lui seul près de 15 milliards de dollars de capitalisation boursière en une journée. Le Bitcoin est retombé à 66 000 dollars. Les investisseurs ont interprété ces événements comme un signal d'alarme pour l'ensemble du secteur de la cybersécurité.
L’analyste Adam Borg de Stifel l’a exprimé clairement : ce modèle a « le potentiel de devenir l’outil de piratage ultime, capable de transformer n’importe quel pirate informatique ordinaire en adversaire d’un État-nation. »
Pourquoi Mythos n'est-il pas encore disponible au grand public ? Anthropic reconnaît que son exploitation est « très coûteuse » et qu'il n'est pas prêt pour une diffusion générale. Le plan : dans un premier temps, un petit groupe de partenaires en cybersécurité bénéficiera d'un accès anticipé afin de renforcer leurs défenses. Ensuite, l'API sera progressivement étendue. L'entreprise travaille à optimiser son efficacité avant tout déploiement à grande échelle.
Mais ce modèle existe déjà. Il est déjà testé. Et il a déjà provoqué l'effondrement d'un secteur entier du marché boursier, simplement en étant révélé par hasard.
Anthropic a conçu un modèle qu'elle décrit comme l'IA la plus dangereuse jamais créée pour la cybersécurité. Et a perdu le contrôle de l'annonce à cause d'une erreur de configuration d'infrastructure précisément due au type de problème que son propre modèle est censé détecter.

MARS 2026 : ANTHROPIC ENTRE EN GUERRE CONTRE LE PENTAGONE. ET GAGNA

Juillet 2025. Anthropic signe un contrat de 200 millions de dollars avec le département de la Défense. Un contrat classique. Mais lorsque de véritables négociations ont débuté concernant le déploiement de Claude sur les bases militaires…La plateforme s'est effondrée.
Le Pentagone souhaitait un accès illimité à Claude pour « toutes fins légitimes », y compris le développement d'armes entièrement autonomes et la surveillance de masse des citoyens américains. Anthropic a adopté deux positions intransigeantes et a refusé. Les négociations ont échoué en septembre 2025.
Puis la situation a dégénéré.
27 février 2026 - Trump publie un message sur Truth Social ordonnant à toutes les agences fédérales de « cesser IMMÉDIATEMENT » l'utilisation de la technologie d'Anthropic. Il qualifie l'entreprise d'« extrême gauche ».
Commentaire : Publications de Trump sur les réseaux sociaux concernant la vérité sur X
@TrumpTruthOnX
Les États-Unis d'Amérique ne permettront jamais à une entreprise d'extrême gauche, adepte du « woke », de dicter la manière dont nos forces armées mènent et gagnent les guerres ! Cette décision revient à votre commandant en chef et aux excellents dirigeants que je nomme pour diriger nos forces armées. Les cinglés d'extrême gauche d'Anthropic ont
5 mars 2026 – Le Pentagone désigne officiellement Anthropic comme « risque pour la chaîne d'approvisionnement ». Cette étiquette, auparavant réservée aux adversaires étrangers (entreprises chinoises, entités russes), est désormais appliquée à une entreprise américaine de San Francisco. Amazon, Microsoft et Palantir sont tenus de certifier qu'ils n'utilisent pas Claude dans le cadre d'activités militaires.
Le directeur technique du Pentagone, Emile Michael, a expliqué la logique : Claude pourrait « contaminer » la chaîne d’approvisionnement car différentes « préférences politiques sont intégrées au modèle ». Traduction : une IA qui refuse d’aider à tuer sans restrictions constitue une menace pour la sécurité nationale.
26 mars 2026 – La juge fédérale Rita Lin rend une décision de 43 pages bloquant l'ensemble des activités du Pentagone. Elle déclare : « Rien dans la loi en vigueur ne justifie l'idée orwellienne qu'une entreprise américaine puisse être qualifiée d'adversaire potentiel pour avoir exprimé son désaccord avec le gouvernement. Sanctionner Anthropic pour avoir exposé publiquement la position du gouvernement constitue une mesure de représailles illégale et flagrante, contraire au Premier Amendement. » Un mémoire d'amicus curiae qualifie les agissements du Pentagone de « tentative d'assassinat d'entreprise ».
Le gouvernement a tenté de détruire Anthropic. Au lieu de cela, il a contribué à sa renommée. L'application Claude a dépassé ChatGPT sur l'App Store pour la première fois. Plus d'un million de nouveaux inscrits par jour.
Une entreprise spécialisée en intelligence artificielle a dit non à la plus puissante armée du monde. Et un juge lui a donné raison.
Sous-secrétaire à la Guerre Emil Michael
@USWREMichael
Ce jugement de 42 pages, rendu à la hâte en 48 heures, EN PLEINE PÉRIODE DE CONFLIT, et qui vise à bouleverser l'ordre établi, comporte des dizaines d'erreurs factuelles.rôle de commandant en chef et perturbationLa pleine capacité de mener des opérations militaires avec les partenaires de son choix. Une honte.
Citation
Will Chamberlain
@willchamberlain
Il s'agit peut-être de l'ordonnance la plus extravagante et absurde que j'aie vue d'un juge cette année, et c'est peu dire ! x.com/ewess92/status…

NOVEMBRE 2025 : LA PREMIÈRE CYBERATTAQUE DE L'HISTOIRE MENÉE PAR UNE IA

14 novembre 2025. Anthropic publie un rapport qui bouleverse tout. Un groupe de pirates informatiques parrainé par l'État chinois a utilisé Claude Code pour attaquer de manière autonome 30 organisations – géants de la technologie, banques, agences gouvernementales – dans plusieurs pays.
La répartition des tâches : les humains choisissaient les cibles et approuvaient les décisions clés. C’est tout. Quatre à six interventions par campagne. L’IA gérait tout le reste : reconnaissance, identification des vulnérabilités, développement des exploits, vol de données, création de portes dérobées. 80 à 90 % de l’attaque. Des milliers de requêtes par seconde. Une vitesse qu’aucune équipe humaine ne pourrait égaler.
Comment ont-ils contourné les garde-fous de Claude ? Ils ne les ont pas forcés. Ils ont menti. Ils ont fractionné l’attaque en petites tâches anodines et ont convaincu Claude qu’il s’agissait d’une entreprise de sécurité légitime effectuant des « tests de défense autorisés ». De l’ingénierie sociale, sauf que la victime était l’IA.
Plusieurs attaques ont été couronnées de succès. Claude a cartographié de manière autonome des topologies de réseau complètes, trouvé des bases de données et extrait des données sans la moindre intervention humaine.
La seule chose qui les a ralentis ? Claude avait parfois des hallucinations : il inventait des identifiants, prétendait avoir volé des documents déjà publics. Pour l’instant, c’est l’un des derniers véritables obstacles aux cyberattaques totalement autonomes.
Lors de la conférence RSAC 2026, Rob Joyce, ancien responsable de la cybersécurité à la NSA, a qualifié la situation de « test de Rorschach » pour le monde de la sécurité. La moitié de l'assistance l'a balayée d'un revers de main, tandis que l'autre moitié était terrifiée. Joyce appartenait à ce second groupe. « C'est vraiment effrayant », a-t-il déclaré.

Ce n'était pas une prédiction. C'était en septembre 2025. C'est déjà arrivé.

FÉVRIER 2026 : 500 JOURS ZÉRO EN UNE SEULE SESSION
5 février 2026. Anthropic publie Claude Opus 4.6. Parallèlement, un document de recherche qui bouleverse le secteur de la cybersécurité.
Configuration : Claude a été placé dans une machine virtuelle isolée avec des outils standard : Python, débogueurs, fuzzers. Aucune instruction particulière, aucune invite personnalisée. Juste : « Trouver des vulnérabilités. »
Résultat : Plus de 500 failles zero-day critiques et jusqu’alors inconnues dans le code de production. Certaines avaient résisté à des décennies d’analyse par des experts et à des millions d’heures de tests automatisés.
Puis vint RSAC 2026. Le chercheur Nicholas Carlini monta sur scène et présenta Ghost à Claude : un CMS comptant 50 000 étoiles sur GitHub et aucune vulnérabilité critique à son actif. 90 minutes plus tard : injection SQL aveugle. Prise de contrôle totale du compte d’administrateur par un utilisateur non authentifié. Il présenta ensuite le noyau Linux à Claude. Même résultat.
Quinze jours plus tard, Anthropic lançait Claude Code Security, un produit qui raisonne sur le code au lieu de rechercher des correspondances de modèles comme tous les scanners précédents.
Mais le porte-parole d'Anthropic a lui-même formulé cette idée sous silence : « Le même raisonnement qui permet à Claude de trouver et de corriger les vulnérabilités pourrait permettre à un attaquant de les exploiter. » Même capacité. Même modèle. Entre d'autres mains.
chef du autisme
@chefautisme
Quelqu'un chez ANTHROPIC vient de montrer à CLAUDE comment détecter des vulnérabilités zero-day lors d'une démo en direct pendant une conférence. Claude a découvert une faille zero-day dans Ghost, 50 000 étoiles sur GitHub, qui n'a jamais présenté de vulnérabilité de sécurité critique dans toute son histoire… Il a détecté l'injection SQL aveugle en 90 minutes.

CE QUE TOUT CELA SIGNIFIE ENSEMBLE

Chacune de ces histoires, prise individuellement, aurait fait la une du mois. Elles se sont toutes déroulées en six mois, au sein d'une seule et même entreprise.
Anthropic a conçu un modèle capable de détecter les vulnérabilités plus rapidement que n'importe quel être humain. Des pirates informatiques chinois ont transformé la version précédente en une cyberarme autonome. L'entreprise travaille actuellement sur une nouvelle version, encore plus puissante, et admet, dans des documents qui ont fuité, qu'elle la craint.
Le gouvernement américain a tenté de les détruire, non pas en raison de la dangerosité de la technologie, mais parce qu'Anthropic a refusé de la céder sans restriction. Parallèlement, ils ont divulgué leur propre code source à deux reprises via le même fichier dans le même paquet npm.
Une entreprise valorisée à 380 milliards de dollars. Une introduction en bourse de 60 milliards de dollars prévue pour octobre 2026. Une entreprise qui affirme ouvertement développer « l'une des technologies les plus révolutionnaires et potentiellement dangereuses de l'histoire de l'humanité » – et qui poursuit malgré tout son développement. Car elle estime qu'il est préférable qu'elle le fasse elle-même plutôt que quelqu'un d'autre.
La carte source du package npm est tout simplement le détail le plus cocasse d'une des histoires les plus troublantes qui se déroulent actuellement.
Mythos n'est même pas encore sorti.
Sources : Fortune, CNBC, Axios, The Register, CNN, NPR, blog officiel d’Anthropic, recherches de l’équipe rouge d’Anthropic, documents de la cour fédérale et publications primaires sur X de chercheurs et de responsables impliqués.