Les États membres de l’UE s’accordent sur le point de départ de la loi sur l’IA

Le Conseil européen a adopté un texte de base pour une nouvelle loi sur l’IA. Cela inclut une définition plus stricte de l’intelligence artificielle. Les négociations avec le parlement commencent maintenant.

Les États membres de l’Union européenne ont donné leur feu vert à un texte de compromis comme point de départ d’une nouvelle réglementation sur l’IA. Cela élimine un obstacle important pour la législation, qui pourrait être prête vers le printemps 2023. Plus tôt, un projet de loi de la commission a été divulgué.

Le texte du Conseil européen est un point de départ, et le Parlement européen doit maintenant donner son avis. Cette version contient déjà des compromis importants pour chacun des États membres de l’UE.

Nouvelle définition

Par exemple, la définition de l’IA a été ajustée. Dans une première version, elle était trop large, risquant que trop de logiciels traditionnels soient couverts par les règles. La nouvelle définition se concentre sur les systèmes développés par l’apprentissage automatique. Le comité peut ajuster la définition à une date ultérieure si nécessaire.

En outre, les États membres ont convenu d’inclure également l’IA dite générale dans les règlements. Au départ, l’accent était trop mis sur les systèmes intelligents ayant une fonction spécifique (comme la reconnaissance faciale). L’IA générale est plus large et peut effectuer différentes tâches. Pensez à des systèmes comme Google Home ou Amazon Alexa, qui comprennent la langue et peuvent y associer différentes actions.

Les systèmes plus généraux forment un marché encore jeune. Les États membres voulaient éviter que la législation sur l’IA soit inadéquate dès le départ en ne l’incluant pas.

Pas de crédit social

Dans la proposition initiale de la commission, plusieurs principes restent inchangés. Par exemple, tout le monde est d’accord pour dire que l’IA ne devrait jamais être utilisée pour exploiter les vulnérabilités des gens ou construire des systèmes de crédit social comme en Chine. Initialement, l’intention était d’interdire aux gouvernements de construire de tels algorithmes, mais dans la nouvelle proposition, l’interdiction s’applique également aux entités privées. Cela devrait empêcher les gouvernements d’obtenir de toute façon ces logiciels par l’intermédiaire de tiers.

La loi sur l’IA définira plus précisément les applications à haut risque. Elles ne sont pas interdites mais doivent être réalisées dans un cadre juridique strict. Il s’agit de systèmes qui sont essentiels aux processus décisionnels et qui ont un impact sur les personnes ou les biens. La détection de Deepfake et la vérification des documents de voyage ont été retirées de cette catégorie, mais les systèmes liés aux infrastructures numériques critiques et à l’assurance maladie ont été ajoutés.

Pour les applications à haut risque, il existe des exigences strictes concernant, par exemple, la qualité du jeu de données utilisé pour la formation et la documentation technique pour expliquer les décisions. La loi sur l’IA devrait préciser davantage qui porte la responsabilité de la décision des systèmes d’IA.

Exceptions

Il est frappant que les États membres souhaitent intégrer diverses exceptions dans la loi pour les services d’ordre. Par exemple, les entreprises utilisant l’IA à haut risque doivent surveiller les systèmes même après leur implémentation, mais les services d’ordre seraient exemptés de cette obligation. Le Conseil souhaiterait en outre voir des exemptions pour les applications militaires et l’IA pour la sécurité nationale. Bien sûr, cette limitation rendrait la loi beaucoup moins pertinente.

Le texte n’est pas définitif, loin de là. Le Parlement européen va maintenant se lancer dans la rédaction de la proposition. Il y a de fortes chances pour que le Parlement fasse pression sur les exclusions. Un accord est possible dès le mois de mars de l’année prochaine.

newsletter

Abonnez-vous gratuitement à ITdaily !

Category(Required)
This field is for validation purposes and should be left unchanged.