Page 1 sur 1

L'armée américaine a utilisé l'IA d'Anthropic ...

Posté : mar. 3 mars 2026 08:30
par chtimi054
L'armée américaine a utilisé l'IA d'Anthropic pour analyser des renseignements et choisir des cibles lors de l'attaque en Iran, malgré l'interdiction de Trump
Ils se sont appuyés sur Claude

L'armée américaine a utilisé l'IA d'Anthropic pour analyser des renseignements et choisir des cibles lors de l'attaque en Iran, malgré l'interdiction de Trump, ils se sont appuyés sur Claude

Dans un développement frappant qui souligne la complexité de l'intégration de l'IA dans les systèmes de défense nationale, l'armée américaine aurait eu recours au modèle d'IA Claude d'Anthropic lors de ses récentes frappes contre l'Iran, quelques heures seulement après que le président américain Donald Trump ait qualifié l'entreprise de « risque pour la chaîne d'approvisionnement ». Selon des informations publiées par le Wall Street Journal, le département américain de la Défense aurait utilisé le modèle d'IA Claude d'Anthropic pour faciliter la collecte de renseignements, l'identification des cibles et les simulations de champ de bataille pendant l'opération.

Anthropic PBC est une société américaine d'intelligence artificielle (IA) dont le siège est à San Francisco. Elle a développé une famille de grands modèles de langage (LLM) nommée Claude. Anthropic fonctionne comme une société d'intérêt public qui recherche et développe l'IA afin d'« étudier ses propriétés de sécurité à la frontière technologique » et utilise ces recherches pour déployer des modèles sûrs pour le public.

Le patron d'Anthropic, Dario Amodei, a récemment rejeté la demande du Pentagone d'abandonner les garanties en matière d'IA. Anthropic préférerait ne pas travailler avec l'armée américaine plutôt que de permettre que l'IA soit utilisée pour la guerre et la surveillance de masse. Anthropic a déclaré qu'elle ne reculerait pas dans sa lutte avec le ministère américain de la défense concernant l'utilisation de sa technologie d'intelligence artificielle (IA).

Dans un développement frappant qui souligne la complexité de l'intégration de l'IA dans les systèmes de défense nationale, l'armée américaine aurait eu recours au modèle d'IA Claude d'Anthropic lors de ses récentes frappes contre l'Iran, quelques heures seulement après que le président américain Donald Trump ait qualifié l'entreprise de « risque pour la chaîne d'approvisionnement ».

Le 28 février, les forces américaines et israéliennes ont mené une offensive coordonnée contre des cibles iraniennes sous le nom de code « Operation Epic Fury ». Cette action militaire conjointe aurait ciblé des installations gouvernementales clés, notamment des sites nucléaires et des infrastructures militaires stratégiques. Selon des informations publiées par le Wall Street Journal, le département américain de la Défense aurait utilisé le modèle d'IA Claude d'Anthropic pour faciliter la collecte de renseignements, l'identification des cibles et les simulations de champ de bataille pendant l'opération.

Le moment choisi pour l'utilisation de Claude a attiré l'attention. Le président Trump avait ordonné à toutes les agences gouvernementales américaines de cesser d'utiliser les systèmes d'IA d'Anthropic, invoquant des raisons de sécurité nationale. Cependant, les responsables de la défense auraient indiqué qu'un retrait immédiat n'était pas possible. Claude reste le seul système d'IA actuellement intégré à certains réseaux classifiés du gouvernement américain. Par conséquent, la transition complète vers une autre plateforme devrait prendre jusqu'à six mois. Bien que l'administration ait annoncé son intention de supprimer progressivement ce modèle, les réalités opérationnelles semblent avoir nécessité son utilisation à court terme.

La décision de qualifier Anthropic de risque pour la chaîne d'approvisionnement découle de désaccords politiques entre le Pentagone et la start-up spécialisée dans l'IA. Le PDG d'Anthropic, Dario Amodei, s'est publiquement opposé à l'utilisation de Claude pour la surveillance de masse nationale ou le développement de systèmes d'armes autonomes. À la suite de la décision du gouvernement, Amodei a déclaré que l'entreprise contesterait devant les tribunaux le label « risque pour la chaîne d'approvisionnement ».

Alors que le Pentagone s'apprête à remplacer Claude, OpenAI aurait signé un accord pour fournir ses propres modèles d'IA à l'usage du gouvernement américain. Toutefois, la transition vers des systèmes d'IA avancés dans des environnements de défense classifiés est un processus complexe et long. Les responsables suggèrent que les modèles d'OpenAI devront faire l'objet de tests et d'une intégration importants avant de pouvoir être déployés efficacement.

Le PDG d'OpenAI, Sam Altman, a souligné que son entreprise maintenait également des limites strictes. Il insiste sur le fait qu'OpenAI n'autorisera pas l'utilisation de ses modèles à des fins de surveillance de masse au niveau national ou pour la création d'armes autonomes, une position qui fait écho à celle précédemment adoptée par Anthropic.
En refusant de céder aux exigences militaires américaines sur l'usage de son IA, Anthropic a perdu un contrat fédéral mais déclenché un mouvement populaire sans précédent. En moins de 48 heures, Claude est passé de la 131e à la première place des applications gratuites les plus téléchargées sur l'App Store américain. Derrière cet électrochoc commercial se cache une question de fond : peut-on, aujourd'hui, faire de l'éthique une arme concurrentielle dans la guerre des modèles d'IA ?

Cet épisode met en évidence la tension croissante entre les exigences de sécurité nationale et les cadres éthiques établis par les principales entreprises d'IA. Il reflète également à quel point les outils d'IA sont désormais profondément intégrés dans les opérations de défense modernes, rendant difficile la mise en œuvre rapide de changements de politique dans la pratique. Alors que le gouvernement américain travaille sur son plan de transition, l'opération Epic Fury pourrait devenir une étude de cas sur la manière dont la stratégie géopolitique, l'éthique de l'IA et les directives exécutives s'entrecroisent à une époque de plus en plus façonnée par l'intelligence artificielle.

merci à Developpez.com