En 2018, Google a présenté des politiques autour de l’IA. Au cœur de celles-ci se trouvait la promesse de ne surtout pas développer d’IA susceptible de causer des dommages. Cette promesse a aujourd’hui disparu du site web.
Faire des promesses est facile, les tenir un peu moins. En 2018, Google a publié des lignes directrices claires sur le développement de l’IA. Ce faisant, l’entreprise a déclaré que toute innovation reposerait sur des piliers tels que la confidentialité intégrée, la responsabilité, la sécurité et la valeur sociale ajoutée. Google a également écrit noir sur blanc les applications qu’elle n’explorerait pas :
- Technologies pouvant causer des dommages
- Armes ou autres technologies ayant pour but de blesser des personnes
- Une technologie de surveillance qui dépasse les normes internationales
- Applications contraires aux principes des droits de l’homme et du droit international
![Captures d'écran des principes que Google a abandonnés.](https://itdaily.fr/wp-content/uploads/2025/02/Google-principes.jpg)
« Au fur et à mesure que nous acquérons de l’expérience dans ce domaine, cette liste est susceptible d’évoluer », a ajouté Google. Ce n’était pas un mensonge. La section entière des recherches que Google ne mènerait pas a disparu. Les nouvelles lignes directrices autorisent le développement de l’IA à toutes les fins susmentionnées. La page d’origine peut toujours être consultée dans les archives. Le Washington Post a été le premier à découvrir que Google avait supprimé les lignes directrices.
Pas de principes réels
Cette décision montre à quel point les principes que les entreprises s’imposent à elles-mêmes sont sans valeur. La promesse de Google de ne pas faire quelque chose est restée en place jusqu’à ce que Google décide de le faire. La liste des applications interdites s’est donc avérée être plutôt une liste de recherches que Google n’avait tout simplement pas encore entreprises.
lire aussi
Microsoft et Google vous font avaler l’IA (et vous la font payer)
Il est révélateur que Google ait cessé d’oser dire qu’elle ne veut pas développer l’IA pour les armes. L’entreprise continue de mentionner qu’elle souhaite élaborer ses solutions dans le respect des principes largement acceptés du droit international et des droits de l’homme. Étant donné que, de nos jours, peu de ces principes sont largement acceptés ou suivis au niveau international, et que le siège de Google se trouve dans un pays où le président vient d’appeler au nettoyage ethnique, cela ouvre la voie à de nombreuses applications moins humaines.
La flexibilité morale au nom de la sécurité nationale
Dans un billet de blog, Google note que la technologie évolue rapidement et qu’il est nécessaire pour les pays démocratiques de développer une IA qui soutienne la sécurité nationale. Quoi qu’il en soit, ce que dit Google n’est pas très pertinent, car il peut être mis hors ligne à tout moment si un autre point de vue semble plus intéressant. Il n’y a rien de mal à avoir une vision progressiste, mais des principes flexibles ne sont généralement pas une bonne chose.
Google n’est pas le seul. OpenAI a déjà établi un partenariat avec le Pentagone et Anthropic travaille même avec Palantir, dont la technologie a soutenu les raids de l’ICE et collaboré à la politique de séparation des enfants de leurs parents et à leur emprisonnement dans des cages.
Par exemple, toutes les grandes entreprises d’IA collaborent actuellement avec des organisations de surveillance et de fabrication d’armes. En Europe, il existe une législation qui interdit à l’IA de se livrer à des pratiques d’une telle portée, mais les États-Unis ne disposent pas de telles protections.