Le Pentagone ébranle l’IA éthique : Anthropic menacé d’un label « risque »

Le Pentagone ébranle l’IA éthique : Anthropic menacé d’un label « risque »

Le département de la Défense des États-Unis souhaite classer le spécialiste de l’IA Anthropic comme une entreprise à risque, faute d’avoir obtenu gain de cause. Cette décision aurait un impact sur les fournisseurs du Pentagone dans le monde entier et envoie surtout un signal aux autres entreprises américaines d’IA.

Le département de la Défense des États-Unis (ou de la Guerre, selon l’administration Trump) souhaite qualifier le spécialiste de l’IA Anthropic de « risque pour la chaîne d’approvisionnement ». C’est ce que rapporte Axios. Le secrétaire à la Défense, Pete Hegseth, serait sur le point de trancher la question. Si Anthropic est désignée comme entreprise à risque, les conséquences seront considérables. Non seulement le Pentagone lui-même, mais aussi tous ses fournisseurs mondiaux, devraient alors bannir l’IA d’Anthropic de leurs systèmes.

Pas vraiment un risque

Les projets de Hegseth n’ont rien à voir avec un risque réel provenant d’Anthropic ou de son modèle d’IA Claude. Au contraire : Claude est le premier et le seul modèle d’IA actuellement autorisé sur les systèmes classifiés de la défense américaine. Le modèle d’IA aurait joué un rôle lors de l’enlèvement du président vénézuélien Maduro le 3 janvier de l’année dernière.

Le Pentagone s’offusque toutefois des restrictions qu’Anthropic souhaite imposer. Bien que l’entreprise d’IA soit prête à adapter ses conditions générales aux besoins de la défense, elle refuse de donner carte blanche pour l’utilisation de Claude. Ainsi, le PDG d’Anthropic, Dario Amodei, veut éviter que Claude ne soit utilisé pour espionner massivement les citoyens américains ou pour développer des armes capables de tirer de manière autonome (sans aucune forme d’intervention humaine).

Une législation insuffisante

Hegseth juge ces conditions trop restrictives et souhaite que l’armée puisse utiliser l’IA à toutes les fins légalement autorisées. De facto, il refuse qu’Anthropic assortisse la fourniture de ses services d’IA de ses propres conditions.

Anthropic souligne le fait que la législation est en retard sur les capacités de l’IA. Aujourd’hui déjà, les États-Unis peuvent, par exemple, extraire des informations dites « open source » d’Internet. Pensez aux publications sur les réseaux sociaux et aux photos accessibles au public. Avec l’IA, il devient possible d’analyser toutes ces informations à grande échelle et, par exemple, d’identifier rapidement qui critique le gouvernement et vit à proximité d’une base militaire.

Intimidation

Il semble que le Pentagone veuille intimider Anthropic, mais aussi d’autres acteurs de l’IA, par cette menace. Des négociations pour de nouveaux contrats sont en cours simultanément avec OpenAI, Google et xAI. Le ton est ainsi immédiatement donné par cette menace.

Dans un premier temps, l’impact de la rupture des liens entre Anthropic et le Pentagone serait limité. Le contrat en cours s’élève à 200 millions de dollars, alors qu’Anthropic lève environ 14 milliards de dollars par an. Les conséquences indirectes sont plus graves. Le label que Hegseth souhaite attribuer est en principe réservé aux entités étrangères hostiles. Il interdit également aux fournisseurs du monde entier de collaborer avec une entreprise sanctionnée.

lire aussi

Règles concrètes, impact clair : pourquoi les directives CMMC des États-Unis sont également importantes en Europe

Le Pentagone surveille étroitement le comportement numérique de ses fournisseurs, notamment via les nouvelles directives CMMC. Les entreprises européennes pourraient également subir des désagréments en raison de leurs liens, directs ou non, avec le département de la Défense des États-Unis.

La fin de l’IA éthique ?

Ce sont surtout les implications de troisième rang qui pourraient s’avérer impactantes à long terme. Le gouvernement américain montre ses muscles et fait comprendre aux grandes entreprises d’IA quelles peuvent être les conséquences si elles souhaitent appliquer leur propre code éthique et moral lors de la fourniture de services. Non seulement faire affaire avec le Pentagone devient impossible, mais les États-Unis feront tout pour provoquer un impact négatif étendu.

La décision de Hegseth démontre ainsi la difficulté de développer l’IA selon des directives éthiques dans le climat actuel aux États-Unis. C’est une mauvaise nouvelle pour l’IA éthique en général, étant donné que le centre de gravité du développement de l’IA se situe actuellement chez les grandes entreprises américaines qui convoitent de lucratifs contrats de défense.

lire aussi

Anthropic promet de prendre à sa charge les coûts énergétiques des centres de données d’IA aux États-Unis

L’autocontrôle de la plupart des entreprises est déjà médiocre. OpenAI a, par exemple, emprunté la voie de la publicité, risquant ainsi de privilégier les revenus publicitaires au détriment de la qualité. Quant au fait que xAI d’Elon Musk prend des libertés avec l’éthique, cela ne nécessite guère d’explications. Le modèle Grok générait avec plaisir des deepfakes à caractère sexuel et fait l’objet d’une enquête de l’UE, entre autres pour cette raison. Anthropic, en tant qu’acteur majeur, respecte encore un code éthique à l’heure actuelle et refuse, par exemple, d’associer des publicités aux discussions pour cette raison.

Une barre placée très bas

La barre est placée bas : tous les modèles sont largement entraînés sur des données provenant de personnes n’ayant pas donné leur consentement. Dans le cas de l’accord entre Anthropic et le Pentagone, Amodei est d’ailleurs prêt à faire de nombreuses concessions. Pourtant, cela ne semble pas suffisant.

Ainsi, le centre de gravité du développement de l’IA se trouve aujourd’hui dans un pays peu réglementé, où les entreprises d’IA, après d’immenses investissements, sont sous pression pour générer rapidement des bénéfices. Il n’est donc pas surprenant que le chiffre d’affaires prime plus facilement sur les principes. À cela s’ajoute désormais un gouvernement qui interprète même un minimum de règles telles que « pas d’espionnage de masse sur ses propres citoyens » et « pas de robots tueurs dotés d’IA » comme un affront.