OpenAI obtient les garanties qu’Anthropic souhaitait dans un contrat du Pentagone repris de façon chaotique

OpenAI obtient les garanties qu’Anthropic souhaitait dans un contrat du Pentagone repris de façon chaotique

Après que le Pentagone a éconduit Anthropic et adopté OpenAI, il accorde à ce dernier spécialiste de l’IA les garanties que le premier désirait tant. Pourtant, Anthropic reste officiellement un « risque pour la chaîne d’approvisionnement ». Le message est clair : quiconque n’écoute pas le gouvernement en subira les conséquences.

OpenAI a modifié son tout nouvel accord avec le Pentagone. Le PDG Sam Altman admet lui-même que l’accord conclu à la fin de la semaine dernière semblait « opportuniste et désordonné ». Dans la nouvelle version, OpenAI bénéficie d’un certain nombre de garanties.

Ainsi, le contrat contient désormais des conditions visant à empêcher que les systèmes d’IA d’OpenAI ne soient utilisés pour une surveillance de masse intentionnelle des citoyens américains. La NSA américaine, connue pour la surveillance de masse des citoyens américains, n’obtient pas actuellement un accès direct aux modèles GPT d’OpenAI. Altman et ses collaborateurs auraient en outre reçu des garanties concernant l’interdiction de l’utilisation de l’IA pour des systèmes d’armes autonomes.

Quiconque a suivi l’histoire peut se gratter la tête. Passons-la en revue ensemble :

Le scandale commence

Il y a deux semaines, un différend a éclaté entre Anthropic et le département de la Défense des États-Unis. À ce moment-là, le modèle d’IA Claude d’Anthropic était le seul modèle d’IA approuvé fonctionnant sur les systèmes classifiés du Pentagone. Anthropic avait toutefois imposé des conditions d’utilisation : Claude ne pouvait pas être utilisé pour la surveillance de masse des citoyens américains ni pour des systèmes d’armes autonomes.

lire aussi

Le Pentagone ébranle l’IA éthique : Anthropic menacé d’un label « risque »

Le secrétaire à la Défense, Pete Hegseth, ne pouvait pas l’accepter. Il a affirmé que le Pentagone n’avait qu’à respecter la loi. Le fait que la loi aux États-Unis ne dise actuellement pas grand-chose sur l’utilisation de l’IA dans ces scénarios était alors une aubaine. Anthropic devait abandonner les conditions contractuelles, mais a refusé.

Le Pentagone a alors commencé à menacer Anthropic : si les conditions étaient maintenues, Anthropic serait désignée comme un « risque pour la chaîne d’approvisionnement ». Il s’agit d’une étiquette normalement réservée aux entreprises liées à des puissances hostiles. Ce label interdit aux entreprises faisant affaire avec le Pentagone de collaborer avec Anthropic. Anthropic perdrait également son propre contrat avec le Pentagone.

Davantage de menaces

La semaine dernière, Hegseth a encore jeté de l’huile sur le feu. Anthropic s’est vu imposer un délai pour céder aux exigences. Le PDG Dario Amodei a répété qu’il souhaitait être conciliant, mais qu’il y avait deux lignes rouges : l’interdiction de la surveillance de masse des citoyens américains et celle des systèmes d’armes autonomes.

Vendredi dernier, le délai n’a pas été respecté. Hegseth tenait tellement à un contrat sans conditions concernant la surveillance de masse des citoyens américains et les systèmes d’armes autonomes qu’il a persisté. Anthropic est désormais une entreprise à risque.

L’opportunisme d’OpenAI

Cela aurait été problématique pour le Pentagone, qui perdait ainsi son seul fournisseur d’IA. Heureusement pour Hegseth, Sam Altman est intervenu : en un rien de temps, un contrat a été élaboré pour que ChatGPT puisse remplacer Claude.

L’accord avait au moins une apparence d’opportunisme. C’est ce que pensent non seulement les utilisateurs qui passent massivement à une alternative, mais aussi Altman lui-même. Il a constaté que les négociations étaient peut-être allées un peu trop vite. « Les problèmes seraient extrêmement complexes », pense-t-il désormais, en référence à la surveillance de masse et au potentiel de création de robots tueurs dotés d’IA. « Une communication claire est nécessaire », remarque-t-il après une courte réflexion.

lire aussi

Le Pentagone écarte Anthropic au profit d’OpenAI

Le retour des conditions

Nous en arrivons ainsi à aujourd’hui. Altman veut bien aider le Pentagone, mais il a deux lignes rouges : l’interdiction de la surveillance de masse des citoyens américains et celle des systèmes d’armes autonomes.

Le lecteur attentif s’attend peut-être à ce qu’OpenAI reçoive également le badge de risque pour la chaîne d’approvisionnement, mais non. Le contrat déjà conclu et, selon Altman lui-même, désordonné, reçoit un amendement assorti de conditions. Dans celui-ci, le Pentagone accepte de ne pas utiliser ChatGPT pour la surveillance de masse des citoyens américains ni pour le développement de systèmes d’armes autonomes.

Que s’est-il passé ?

Après deux semaines de menaces, le Pentagone a maintenant renvoyé son fournisseur d’IA de confiance sans ménagement. Les services gouvernementaux doivent massivement se distancier de l’entreprise américaine. Une nouvelle grande entreprise d’IA américaine a repris le rôle, mais a finalement obtenu les mêmes conditions.

Pour l’utilisation de l’IA par le Pentagone, rien n’a donc changé. Sur le plan économique et éthique, cependant, un séisme s’est produit. Le gouvernement américain a montré qu’il n’hésite pas à s’attaquer à ses propres entreprises par tous les moyens disponibles s’il n’obtient pas ce qu’il veut.

Plus encore : en permettant à OpenAI d’obtenir finalement la fameuse condition, Hegseth a démontré que le gouvernement peut s’abaisser à des vendettas personnelles. Quiconque souhaite maintenir son propre code éthique face au gouvernement doit en assumer les conséquences. Le climat dans lequel se déroule aujourd’hui le développement le plus important des modèles d’IA à l’échelle mondiale a ainsi pris, en deux semaines, un air de menace, de peur et d’opportunisme.