L’administration américaine renforce le recours à des fournisseurs d’intelligence artificielle déjà implantés dans l’écosystème technologique du pays. Le Pentagone a conclu de nouveaux accords permettant d’utiliser des solutions portées par plusieurs acteurs, dans le cadre d’opérations classifiées. Cette décision s’inscrit aussi dans une volonté plus large de réduire la dépendance à un fournisseur unique et de conserver une flexibilité à long terme.
Quatre nouveaux fournisseurs intégrés aux usages classifiés
Quatre entreprises supplémentaires ont été ajoutées à la liste des fournisseurs “favorisés” par les autorités américaines. Les accords signés par le Pentagone concernent Microsoft, Reflection AI, Amazon et Nvidia. L’objectif est de permettre l’utilisation de leurs technologies pour des missions relevant de données classifiées.
Ces nouveaux noms s’ajoutent à un socle déjà établi, incluant OpenAI, xAI et Google. Désormais, le Département de la Défense peut recourir à ces outils “pour tout usage légal”, une formule qui a récemment alimenté une controverse.
Le différend autour d’Anthropic et la reconfiguration du rôle de ses modèles
Le point de friction a concerné Anthropic, notamment au sujet de la portée de l’expression “tout usage légal”. Le PDG de l’entreprise, Darius Amodei, a estimé que cette interprétation pourrait ouvrir la voie à l’usage de technologies d’Anthropic à des fins de surveillance de la population civile ou d’armes autonomes, sur des volets que l’entreprise souhaitait voir exclus.
En conséquence, le Pentagone a annulé un contrat de 200 millions de dollars avec Anthropic. L’entreprise a contesté la décision en justice, faisant valoir des pertes financières, ainsi que l’influence possible de choix politiques dans la rupture.
Parallèlement, les autorités américaines ont décrit Anthropic comme présentant un “risque” pour la chaîne d’approvisionnement, une qualification rarement utilisée pour une société basée aux États-Unis. Des éléments de communication gouvernementale ont également qualifié l’entreprise de “woke”.
Vers une stratégie “anti-verrouillage” et une utilisation plus large
Dans ses communications, le Pentagone met en avant la construction d’une architecture visant à limiter le verrouillage technologique (“vendor lock-in”) et à préserver des options sur le long terme. Les accords doivent fournir aux forces engagées des outils permettant d’agir avec davantage de confiance opérationnelle, tout en relevant les défis de sécurité.
Les usages visés couvrent des niveaux de classification importants, notamment des cas impliquant des données secrètes et les matériaux les plus hautement protégés. L’administration militaire parle d’une évolution vers une “force de combat d’abord alimentée par l’IA”.
À ce stade, on ignore si ces objectifs incluent aussi des déploiements au-delà du cadre strictement interne aux services de défense. Jusqu’ici, l’usage de l’IA générative par le Pentagone restait principalement cantonné à des tâches non classifiées, comme la rédaction, la synthèse de documents et des travaux de recherche.
Pourquoi multiplier les fournisseurs change l’équilibre
En élargissant la base de fournisseurs pour les systèmes d’IA utilisés par la défense et les acteurs de sécurité, les autorités cherchent à rendre leurs choix moins sensibles aux variations d’engagement de certains éditeurs. En pratique, plus la dépendance technologique est répartie, moins le risque de blocage lié aux positions d’un dirigeant ou aux décisions d’une entreprise semble déterminant.
Ce raisonnement s’inscrit dans un contexte où certaines grandes entreprises ont déjà pu modifier leurs pratiques après des tensions internes liées à l’usage de leurs technologies dans l’armement ou le conflit.
Un point de continuité : l’empreinte d’Anthropic dans des systèmes existants
Malgré la mise à l’écart contractuelle, des usages antérieurs d’Anthropic dans des environnements classifiés continuent d’alimenter le débat. L’IA Claude a notamment été utilisée dans le cadre de l’outil Maven de Palantir. Par ailleurs, des informations rapportent que le modèle Mythos d’Anthropic serait évalué ou employé dans des contextes liés à la cyberdéfense.
Selon les éléments évoqués, Mythos pourrait être examiné par un ensemble d’organisations, dont certaines administrations britanniques et américaines. Ces pratiques suggèrent que la place d’Anthropic, au-delà des contrats, pourrait dépendre d’architectures déjà installées et de calendriers d’évaluation distincts.
Vers un possible ajustement de la position publique
Des indications rapportées font état d’une volonté de réévaluer la posture la plus récente concernant Anthropic. L’idée serait de trouver une manière de concilier les impératifs politiques avec la continuité opérationnelle, tout en rappelant que l’administration affirme engager des discussions à travers le gouvernement et avec l’industrie autour de la sécurité nationale et de l’usage des laboratoires d’IA de pointe.
En toile de fond, cette séquence illustre une tendance déjà observée : les autorités américaines cherchent à gouverner l’IA non seulement par la performance technique, mais aussi par la gestion du risque, la réversibilité des choix fournisseurs et la capacité à maintenir des systèmes utilisables sur le plan opérationnel.
Pour approfondir côté pratique, certains lecteurs suivent aussi les outils qui servent à gérer des environnements de données et de travail pour l’IA. À titre d’exemple, un ordinateur de travail orienté GPU pour l’IA peut aider à reproduire localement des chaînes de traitement. De même, un cours ou kit de prise en main pour la mise en place de pipelines ML est utile pour mieux comprendre les contraintes d’intégration et de gouvernance des systèmes.

