Par , publié le 10 mars 2026

Pour Washington, Anthropic n’est plus seulement l’un des fleurons nationaux de l’intelligence artificielle générative. Depuis vendredi, la start-up est aussi officiellement considérée par le Pentagone comme un “risque pour la chaîne d’approvisionnement” des États-Unis. Une désignation sans précédent pour une entreprise américaine, qui lui ferme les portes du département de la Défense. Et qui devrait faire les affaires de son grand rival OpenAI, désormais en pole position pour récupérer un contrat pouvant atteindre 200 millions de dollars.

Cette décision est l’aboutissement d’un bras de fer. Jusqu’au bout, Anthropic a refusé que ses modèles d’IA soient utilisés pour alimenter des dispositifs de surveillance de masse et des armes entièrement autonomes. Les premiers représentent “des risques sérieux pour les libertés fondamentales”, justifie son patron Dario Amodei. Les secondes constituent, selon lui, une menace pour les soldats et les civils car les “systèmes d’IA ne sont pas assez fiables”. Le dirigeant pointe également l’absence de garde-fous permettant d’assurer un indispensable “jugement critique”.

Impact difficile à chiffrer

Deux lignes rouges jugées inacceptables par le Pentagone, qui explique ne pas pouvoir accepter qu’un fournisseur s’immisce dans ses décisions stratégiques. Mettant ses menaces à exécution, celui-ci a non seulement annulé le contrat signé l’été dernier avec la start-up pour mener des phases de test pendant deux ans, mais il a également décidé de la désigner comme un risque. Anthropic vient de saisir la justice pour contester des “représailles illégales”, alors que la législation invoquée par le département de la Défense vise à empêcher un “sabotage” de la part d’un “pays ennemi”.

L’impact économique pour Anthropic reste difficile à chiffrer. Au-delà du contrat perdu, tous les autres fournisseurs du Pentagone n’auront plus le droit, après une période transitoire de six mois, d’utiliser ses modèles Claude dans des projets liés à la défense. Ce sera notamment le cas du système Maven, conçu par Palantir pour analyser les images filmées par les drones de l’armée. En outre, d’autres administrations ont aussi coupé les ponts avec la start-up. Et elle risque surtout d’être exclue des prochains contrats, dont les montants devraient être bien plus élevés.

Bientôt devant OpenAI ?

Sans victoire devant la justice, le conflit avec le Pentagone pourrait donc perturber la trajectoire de croissance à long terme d’Anthropic. Dans sa plainte, le groupe assure que cette affaire pourrait aussi freiner son excellente dynamique commerciale. Selon Bloomberg, son chiffre d’affaires en rythme annualisé atteint désormais 19 milliards de dollars. Celui-ci ne s’élevait qu’à 14 milliards en février, au moment de l’officialisation de sa dernière levée de fonds, et à neuf milliards seulement fin 2025. Autrement dit, l’activité d’Anthropic a doublé en à peine plus de deux mois.

Ces performances s’expliquent notamment par le succès de Claude Code, son outil de code informatique dont le nombre d’utilisateurs a doublé sur les six premières semaines de l’année. En février, ses revenus annualisés dépassaient les 2,5 milliards. La start-up se rapproche d’OpenAI, qui affiche un chiffre d’affaires de 25 milliards en rythme annualisé, selon The Information. Compte tenu de son rythme de croissance plus soutenu, il ne serait pas surprenant qu’Anthropic dépasse rapidement le créateur de ChatGPT qui tire, lui, l’essentiel de ses recettes des abonnements payants.

Pour aller plus loin:
– En levant 30 milliards de dollars, Anthropic accentue la pression sur OpenAI
– Contrairement à ChatGPT, Anthropic promet de ne jamais afficher de publicités


No Comments Yet

Comments are closed

Contactez-nous  –  Politique de confidentialité