Accord historique sur la législation relative à l’IA dans l’UE

L’UE a mis trois jours de négociations pour trouver un accord sur la réglementation de l’intelligence artificielle (IA). Cette législation révolutionnaire est nécessaire pour limiter les plus grands dangers de l’IA et stimuler l’innovation.

Il faut une législation explicite pour répondre à l’essor spectaculaire de l’intelligence artificielle. Le Parlement européen se penche déjà depuis des mois sur ce sujet. Après trois jours de négociations entre les États membres du Parlement européen, un accord a finalement été trouvé pour réglementer l’intelligence artificielle. Ainsi, l’Union européenne sera le premier pays au monde qui appliquera une législation précise en matière d’IA.

Loi sur l’IA : sujet de discussion ancien

L’IA progresse à un rythme aussi rapide que les lois étaient toujours à la traîne. Et donc, il y a de fortes craintes à propos de ces développements rapides de l’IA. On travaille déjà depuis plus de deux ans sur une loi de l’IA, mais un accord semblait difficile à trouver.

Le jour était le 8 décembre : un accord a été trouvé à Bruxelles, après une énième réunion du Parlement européen.

Catégories IA

Cette nouvelle législation est fondée sur des catégories. On les attribue en fonction du degré de risque d’une application particulière de l’IA. Par exemple, les filtres anti-spam simples ou les systèmes d’IA qui donnent des conseils aux utilisateurs sont considérés comme étant à « risque minimal ».

Par contre, les systèmes d’IA utilisés dans les domaines de la justice, de la santé, de la biométrie et de la gestion de l’eau ou de l’énergie sont considérés comme présentant un « risque élevé » et les règles qui s’y appliquent sont donc plus strictes. De plus, les systèmes qui manipulent le comportement humain sont considérés comme présentant un « risque inacceptable ».

Finalement, il y a une dernière catégorie : le « risque de transparence ». Il faut avertir les utilisateurs de toute interaction avec l’IA. Cela comprend, par exemple, les chatbots et les « deep fakes ». Ces derniers sont de fausses vidéos de personnes existantes créées par l’IA et qui semblent très réalistes.

Toute violation est lourdement sanctionnée

Une infraction à ces règles d’IA a des conséquences majeures. On parle des amendes allant jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires mondial. Ce montant est déterminé en fonction du type de violation et de la taille de l’entreprise. Il est prévu que ces règles entrent en vigueur en 2026.

newsletter

Abonnez-vous gratuitement à ITdaily !

Category(Required)
This field is for validation purposes and should be left unchanged.
retour à la maison