Le spécialiste de l’IA Anthropic juge toujours inacceptable la proposition de contrat finale du Pentagone et ne prévoit pas d’abandonner totalement sa politique concernant l’utilisation sécurisée de l’IA.
Le PDG d’Anthropic, Dario Amodei, affirme qu’il n’y a « pratiquement aucun progrès » dans les négociations avec le Pentagone sur l’utilisation future de l’outil d’IA Claude. C’est ce que rapporte Axios. Une proposition de contrat finale du gouvernement américain ne contiendrait apparemment aucun changement significatif. Anthropic campe sur ses positions et refuse de fournir une IA sous des conditions illimitées, même si le Pentagone menace de lourdes conséquences.
Utilisation sans limites
Le département de la Défense des États-Unis (ou de la Guerre) souhaite en effet qu’Anthropic n’impose aucune condition d’utilisation au LLM, qui est le seul à être certifié et utilisé sur des systèmes classifiés. Anthropic ne veut pas en entendre parler. Pour Amodei, les restrictions concernant l’utilisation de l’IA doivent rester en vigueur.
Les points de friction pour le service sont, d’une part, l’interdiction de construire des robots capables d’attaquer et de tuer de manière autonome avec l’aide de l’IA et, d’autre part, l’interdiction d’utiliser l’IA pour effectuer une surveillance de masse nationale des citoyens.
C’est un problème majeur pour le Pentagone sous la direction de l’ancien présentateur de Fox News, Pete Hegseth qui, en tant que grand fidèle de Trump, veut avoir carte blanche pour déployer l’IA sans restrictions. Seule la loi devrait pouvoir fixer une limite à l’utilisation de l’IA par l’armée, et non le concepteur de l’IA lui-même. La législation sur le sujet, certainement aux États-Unis, est en retard sur les faits et n’impose par conséquent pas de réelles restrictions.
Date limite et représailles
Anthropic a jusqu’à 17h01, heure locale américaine, pour accepter la proposition du Pentagone. Hegseth menace de lourdes représailles si cela ne se produit pas. Deux pistes sont envisagées, toutes deux sans précédent dans cette situation.
D’une part, Hegseth veut qualifier Anthropic de « risque pour la chaîne d’approvisionnement ». Une entreprise à risque portant ce label ne peut pas faire affaire avec le Pentagone. De plus, d’autres organisations dans le monde qui fournissent le Pentagone ne pourraient pas non plus collaborer avec une telle entreprise à risque. Ce label n’est pas du tout destiné aux entreprises nationales, mais plutôt aux organisations de pays hostiles, comme les entreprises chinoises ayant des liens avec le gouvernement. Pourtant, Hegseth veut l’utiliser pour faire pression sur Anthropic.
lire aussi
Le Pentagone ébranle l’IA éthique : Anthropic menacé d’un label « risque »
D’autre part, le ministre de la Défense brandit le Defense Production Act (DPA). Il s’agit d’une loi permettant aux États-Unis, au nom de la sécurité nationale, de contraindre une entreprise à développer un produit sur mesure. De facto : une IA autorisée à piloter des robots tueurs et à surveiller les citoyens.
Amodei affirme que l’entreprise reste ouverte à la discussion. Anthropic est prête à adapter ses conditions d’utilisation pour le Pentagone, mais ne souhaite pas franchir les lignes rouges susmentionnées.
Conséquences mondiales
Cette affaire est plus qu’une question de politique intérieure pour les États-Unis. La plupart des entreprises d’IA qui sont aujourd’hui à la pointe du développement de l’IA sont originaires des États-Unis. Le gouvernement américain montre maintenant, par ses menaces et ses délais, à quel point il veut peser sur ces entreprises. Développer une IA éthique devient interdit, sous peine d’immenses conséquences économiques ou de contrainte.
