Le Pentagone veut son Terminator, Anthropic (IA Claude) résiste encore.
L'affaire a éclaté publiquement en février 2026: le Pentagone menace de rompre son contrat de 200 millions de dollars avec Anthropic si l'entreprise refuse de lever ses restrictions sur l'utilisation militaire de Claude.
Au cœur du conflit, deux lignes rouges qu'Anthropic refuse de franchir:
- la surveillance de masse de la population américaine
- le développement d'armes entièrement autonomes, c'est-à-dire capables de tuer sans intervention humaine.
L'été dernier, le Pentagone avait signé des contrats allant jusqu'à 200 millions de dollars avec les quatre grands laboratoires d'IA américains (Anthropic, OpenAI, Google et xAI) pour adapter leurs modèles aux usages militaires. Claude est allé plus loin que les autres : il a été le premier modèle d'IA à être déployé sur les réseaux classifiés du Département de la Défense, notamment via le partenariat avec Palantir, le controversé contractant militaire spécialisé dans le traitement de données de surveillance.
Cependant, les négociations sur les conditions d'utilisation "à venir" ont déraillé. Le Pentagone exige que Claude puisse être utilisé pour toutes fins légales, sans qu'Anthropic puisse imposer des restrictions supplémentaires. OpenAI, Google et xAI ont déjà accepté ce principe pour leurs systèmes non-classifiés. Anthropic est le seul à résister.
La position du Pentagone ouvre concrètement la porte à des usages que la science-fiction a longtemps anticipés. Les armes létales autonomes (drones armés, systèmes de défense ou d'attaque pouvant identifier et éliminer des cibles sans qu'un soldat appuie sur la gâchette) représentent le scénario "Terminator" par excellence. Si un modèle d'IA aussi puissant que Claude, capable de raisonner, d'analyser des données complexes et de planifier des actions, venait à être intégré dans de tels systèmes sans garde-fous éthiques, les conséquences pourraient être catastrophiques : erreurs d'identification de cibles civiles, escalade incontrôlée de conflits, ou décisions létales prises en millisecondes sans possibilité de révision humaine.
Claude a déjà été utilisé, via Palantir, dans l'opération militaire de capture de Nicolás Maduro au Venezuela — une opération au cours de laquelle des coups de feu ont été tirés. Anthropic aurait cherché à savoir si son IA avait été impliquée, ce que le Pentagone a interprété comme une ingérence inacceptable. Cet épisode illustre parfaitement le glissement progressif vers des usages militaires que l'entreprise elle-même ne maîtrise plus.
L'autre ligne rouge, la surveillance de masse, est tout aussi inquiétante. Le cadre juridique américain actuel sur la surveillance (les lois FISA, etc.) n'a pas été conçu pour l'ère de l'IA. Comme le soulignent certains observateurs, "la législation sur la surveillance de masse ne prend pas en compte l'IA". Ce vide réglementaire pourrait permettre des usages qui, dans les faits, constitueraient une surveillance totale, même s'ils sont techniquement "légaux". Le CEO d'Anthropic, Dario Amodei, est allé jusqu'à qualifier la surveillance de masse facilitée par l'IA de "crime contre l'humanité" dans un essai publié début 2026.
Face au refus d'Anthropic, la réaction du Pentagone est musclée. Le secrétaire à la Défense Pete Hegseth envisagerait de désigner Anthropic comme "risque pour la chaîne d'approvisionnement", une mesure normalement réservée aux adversaires étrangers comme la Chine. Cette désignation forcerait tous les contractants militaires, y compris Palantir, à couper tout lien avec Anthropic. Un haut responsable du Pentagone a déclaré : "Nous allons nous assurer qu'ils paient le prix de nous avoir forcé la main."
Ce conflit n'est pas qu'un désaccord commercial. Il pose une question fondamentale : qui contrôle les garde-fous éthiques de l'IA militaire ? Si les entreprises privées sont les derniers remparts contre des usages destructeurs, leur résistance peut être brisée par pression économique ou politique. Et si elles cèdent, comme OpenAI, Google et xAI l'ont déjà fait pour les systèmes non-classifiés, c'est la voie qui s'ouvre vers une IA militarisée sans véritable supervision humaine.
Le scénario Terminator n'est plus de la fiction : c'est une négociation contractuelle en cours à Washington, et le rapport de force entre l'État et la population va devenir tel que toute notion de démocratie ne pourra que disparaitre.
Aucun commentaire:
Enregistrer un commentaire