Anthropic face au Pentagone : un bras de fer inédit autour de l’IA Claude
Le 24 février 2026 marque un tournant dans les relations déjà tendues entre les géants de l’intelligence artificielle et l’appareil sécuritaire américain. Ce jour-là, Dario Amodei, cofondateur et directeur général d’Anthropic, est convoqué au siège du Department of War (DoW). Face à lui, Pete Hegseth, secrétaire américain à la Défense, lui transmet un ultimatum sans ambiguïté : l’entreprise dispose de 72 heures pour accorder au Pentagone un accès sans aucune restriction à son modèle d’IA Claude. À défaut, elle s’expose à des sanctions d’une sévérité rarement brandie contre une société américaine du secteur technologique.
Cette confrontation, révélée notamment par Axios et confirmée par plusieurs médias américains et européens, cristallise un conflit plus profond : celui de la souveraineté technologique, de l’éthique de l’IA et du contrôle des infrastructures critiques.
Un ultimatum aux allures de démonstration de force
Selon les informations disponibles, Pete Hegseth n’a pas mâché ses mots. Il aurait rappelé à Amodei qu’aucune entreprise privée ne saurait dicter au Pentagone ses usages opérationnels, encore moins dans un contexte où l’intelligence artificielle est devenue un pilier stratégique de la défense nationale. Le message est clair : l’armée américaine entend disposer d’un accès total à Claude, y compris pour des usages qu’Anthropic juge contraires à ses principes fondateurs.
Car c’est bien là le cœur du conflit. Anthropic, fondée en 2021 par d’anciens membres d’OpenAI, s’est construite sur une doctrine de sécurité stricte, baptisée Constitutional AI. Elle impose des limites fermes à l’usage de ses modèles, notamment en matière de surveillance de masse ou de développement d’armes létales autonomes. Deux lignes rouges que l’entreprise refuse de franchir, même pour le gouvernement américain.
Or, selon Les Échos et Le Monde, ces restrictions irritent profondément le DoW, qui estime que l’armée doit pouvoir déployer Claude dans n’importe quel scénario opérationnel, sans garde-fous imposés par un acteur privé.
Des sanctions lourdes et inédites
Le Pentagone a mis sur la table plusieurs menaces, toutes potentiellement dévastatrices pour Anthropic.
La rupture du contrat signé en 2025
Claude est aujourd’hui le seul grand modèle d’IA intégré aux systèmes classifiés du Pentagone. Une résiliation créerait un vide technologique immédiat pour l’armée, mais elle priverait aussi Anthropic d’un partenariat stratégique majeur.
L’étiquette de “risque pour la chaîne d’approvisionnement”
Cette désignation, habituellement réservée à des entreprises étr Bangères jugées hostiles, contraindrait tous les partenaires du DoW à exclure Claude de leurs opérations. Une telle mesure placerait Anthropic dans une position quasi inexploitables pour tout acteur travaillant de près ou de loin avec la défense américaine.
L’invocation du Defense Production Act (DPA)
Cette loi, rarement utilisée mais extrêmement puissante, permettrait au président d’obliger Anthropic à prioriser des contrats jugés essentiels à la sécurité nationale. Elle a été activée récemment pour des équipements médicaux durant la pandémie de COVID-19. L’appliquer à une entreprise d’IA constituerait un précédent historique.
Anthropic : entre fermeté éthique et pragmatisme stratégique
Malgré la pression, Anthropic ne cède pas sur ses principes. L’entreprise se dit prête à adapter certaines règles pour les besoins de la défense, mais refuse catégoriquement de permettre l’usage de Claude pour :
- la surveillance de masse des citoyens américains,
- la conception ou l’automatisation d’armes entièrement autonomes.
Ces positions ne sont pas nouvelles : elles figurent dans la philosophie même de l’entreprise. Mais elles se heurtent frontalement à la doctrine Hegseth, qui prône une utilisation sans entrave de l’IA dans le cadre militaire.
Le conflit révèle ainsi une tension structurelle : les entreprises d’IA veulent imposer des limites éthiques, tandis que les États exigent une souveraineté totale sur les outils qu’ils financent et déploient.
Un risque stratégique pour le Pentagone lui-même
Ironiquement, les sanctions envisagées par le DoW pourraient se retourner contre lui. Claude est actuellement le seul modèle d’IA de pointe intégré aux systèmes classifiés. Le retirer du jour au lendemain créerait un vide opérationnel difficile à combler.
Le Pentagone explore déjà des alternatives. Parmi elles :
- Grok, le modèle de xAI, propriété d’Elon Musk, avec lequel un accord militaire a été signé en janvier 2026 pour un usage « à toutes fins légales ».
- Gemini, le modèle de Google, considéré comme le successeur le plus plausible à Claude. Des discussions sont en cours entre Google et le DoW.
Mais aucun de ces modèles n’est encore intégré aux systèmes classifiés, et leur adaptation nécessiterait des mois, voire des années.
Un bras de fer qui dépasse Anthropic
Ce conflit n’est pas seulement un désaccord contractuel. Il symbolise une bataille plus large autour du contrôle des technologies d’IA avancées.
Trois visions s’affrontent :
- L’État, qui revendique un contrôle absolu sur les outils critiques pour la sécurité nationale.
- Les entreprises d’IA, qui veulent imposer des limites éthiques pour éviter des dérives potentiellement catastrophiques.
- Les acteurs privés concurrents, qui voient dans cette crise une opportunité de gagner du terrain.
L’affaire Anthropic pourrait devenir un précédent déterminant pour l’ensemble du secteur. Si le Pentagone impose sa volonté, les entreprises d’IA pourraient perdre la capacité de définir les usages acceptables de leurs modèles. Si Anthropic résiste, elle pourrait redessiner les rapports de force entre Big Tech et l’État américain.
72 heures pour décider de l’avenir de l’IA militaire
À l’heure où l’ultimatum approche de son terme, l’issue reste incertaine. Le Pentagone peut difficilement se passer de Claude, mais il ne peut pas non plus accepter qu’une entreprise privée lui impose des limites opérationnelles. Anthropic, de son côté, joue sa crédibilité éthique et son avenir industriel.
Ce bras de fer, inédit par son intensité, pourrait bien définir les règles du jeu pour toute l’industrie de l’IA dans les années à venir.
