L’UE lance un code de conduite pour les modèles d’IA puissants

europe ai act

Malgré une forte opposition des États-Unis et du secteur technologique, l’Europe persiste avec les règles d’IA les plus strictes au monde.

L’Union européenne a présenté aujourd’hui son code de conduite pour l’IA générative. Celui-ci doit apporter de la clarté sur les règles qui entreront en vigueur le mois prochain pour les grands modèles tels que GPT-4 d’OpenAI et Gemini de Google. Le code de conduite porte principalement sur la transparence, la protection des droits d’auteur et les tests de risques pour les systèmes avancés.

L’IA doit être sûre et innovante

Selon la commissaire européenne Henna Virkkunen, l’UE souhaite que l’IA soit non seulement innovante, mais aussi sûre et transparente. Le code de conduite n’est pas obligatoire. Les entreprises d’IA peuvent décider de s’y engager, mais doivent alors surveiller leurs modèles, évaluer les risques et prendre des mesures contre la réutilisation de matériel protégé par le droit d’auteur.

Le code fait toutefois l’objet de vives critiques. De grandes entreprises européennes telles qu’Airbus, BNP Paribas et Mistral ont appelé ce mois-ci à reporter de deux ans l’introduction des règles. De fortes pressions de lobbying sont également venues des États-Unis, ce qui a conduit à un assouplissement des règles.

Critique

Le code de conduite doit encore être formellement approuvé par la Commission européenne et les États membres, mais il suscite déjà des critiques de la part du secteur technologique. Le Financial Times écrit que la Computer & Communications Industry Association estime que les mesures sont déséquilibrées et affirme que les signataires sont désavantagés par rapport à ceux qui ne participent pas.