Vendredi 27 février, le Pentagone a désigné Anthropic, l’un des principaux laboratoires d’intelligence artificielle au monde, comme « risque pour la chaîne d’approvisionnement de la sécurité nationale ». Quelques heures plus tard, OpenAI, son rival direct, signait un accord avec le ministère de la Défense américain pour fournir ses technologies sur des systèmes classifiés. Le tout en une journée.

Un bras de fer sur les armes autonomes

Le conflit couvait depuis plusieurs semaines. Le Pentagone négociait un contrat de 200 millions de dollars avec Anthropic pour utiliser Claude, son modèle d’IA, sur des projets militaires. Une condition posée par les militaires : l’accès sans restriction à la technologie, pour tout usage « légal ». Anthropic a refusé, selon le New York Times. L’entreprise réclamait deux garde-fous précis : interdire l’utilisation de son IA dans des armes létales autonomes et dans la surveillance domestique de citoyens américains.

« Dans un nombre restreint de cas, nous pensons que l’IA peut saper, plutôt que défendre, les valeurs démocratiques », a déclaré Dario Amodei, patron d’Anthropic, dans un communiqué. Le Pentagone a rétorqué qu’un prestataire privé ne pouvait pas dicter les usages d’une technologie destinée à la sécurité nationale.

La riposte de Trump en cascade

Vendredi, à 17h01, le délai fixé par le Pentagone a expiré sans accord. Pete Hegseth, secrétaire à la Défense, a immédiatement publié sur X la désignation d’Anthropic comme « risque pour la sécurité nationale ». Cette étiquette coupe l’entreprise de tout contrat gouvernemental et interdit à ses sous-traitants de travailler avec elle. Selon des juristes cités par le New York Times, ce type de désignation n’avait jusqu’ici été appliqué qu’à des entreprises étrangères considérées comme des menaces, jamais à une société américaine.

Donald Trump a enfoncé le clou sur Truth Social, qualifiant Anthropic d’« entreprise IA de gauche radicale, dirigée par des gens qui n’ont aucune idée de ce qu’est le monde réel ». Dans la foulée, il a ordonné à toutes les agences fédérales de cesser d’utiliser les technologies d’Anthropic, une directive qui, selon le New York Times, pourrait compliquer le travail d’analyse du renseignement et les opérations de défense.

OpenAI rafle le contrat en quelques heures

Le même jour, OpenAI a annoncé avoir trouvé un accord avec le Pentagone. L’entreprise de Sam Altman a accepté de laisser les militaires utiliser ses systèmes d’IA pour « tout usage légal », tout en installant des « garde-fous techniques » contre la surveillance domestique et les armes autonomes. Autrement dit, les mêmes garanties qu’Anthropic réclamait, mais encadrées par des verrous techniques plutôt que par des clauses contractuelles.

« Dans toutes nos interactions, le ministère a fait preuve d’un profond respect pour la sécurité et d’une volonté de coopérer pour obtenir le meilleur résultat possible », a écrit Sam Altman sur X. Il a utilisé l’abréviation « DoW » pour Department of War, le nom que l’administration Trump préfère à celui de Department of Defense.

Le contraste est saisissant. Anthropic et OpenAI posaient les mêmes limites. L’une a été bannie, l’autre a décroché le contrat.

Une désignation « sans précédent » selon Anthropic

Anthropic a riposté par communiqué en annonçant qu’elle contesterait la décision en justice. « Désigner Anthropic comme risque pour la chaîne d’approvisionnement serait une action sans précédent, historiquement réservée aux adversaires des États-Unis, jamais appliquée publiquement à une entreprise américaine », a écrit la société. Anthropic affirme avoir négocié « de bonne foi » et soutenu « tous les usages légaux de l’IA pour la sécurité nationale », à deux exceptions près.

« Nous avons maintenu nos exceptions pour deux raisons », précise le communiqué. « Premièrement, nous ne pensons pas que les modèles d’IA de pointe actuels soient suffisamment fiables pour être utilisés dans des armes entièrement autonomes. Les autoriser mettrait en danger les combattants et les civils américains. Deuxièmement, la surveillance domestique de masse des Américains constitue une violation des droits fondamentaux. »

Un précédent qui dépasse la Silicon Valley

Cette séquence dépasse le simple différend commercial. Pour la première fois, une administration américaine utilise un outil de sécurité nationale, conçu pour écarter des fournisseurs étrangers (pensé à l’origine pour des cas comme Huawei ou Kaspersky), contre une entreprise basée à San Francisco. Le signal envoyé au secteur technologique est limpide : coopérer sans conditions ou être traité en adversaire.

L’affaire soulève aussi la question de la fiabilité des garde-fous. OpenAI promet des verrous techniques plutôt que contractuels. Mais aucune autorité indépendante ne vérifiera leur efficacité, puisque les systèmes seront classifiés. Le Pentagone, qui dépensait 1,8 milliard de dollars en IA en 2024 selon le Government Accountability Office, accélère ses investissements dans ce domaine depuis deux ans.

Anthropic, valorisée à 60 milliards de dollars lors de son dernier tour de table, tire environ 15 % de ses revenus de contrats fédéraux. Perdre l’accès au gouvernement américain l’obligerait à se recentrer sur le secteur privé, alors qu’OpenAI consolide sa position de partenaire privilégié de Washington. La bataille juridique qui s’ouvre devant les tribunaux pourrait redéfinir les limites que les entreprises technologiques peuvent poser à l’utilisation militaire de leurs produits.