CCFI

L’UE instaure les premières règles au monde contrôlant l’intelligence artificielle

Il aura fallu, au total, plus de trente-sept heures de négociations aux législateurs européens pour conclure un accord afin de réglementer l’intelligence artificielle.

C’est un accouchement dans la douleur : vendredi, tard en soirée, les législateurs européens sont parvenus à un accord politique pour réglementer l’intelligence artificielle (IA).

Cette loi européenne, la première aussi complète au monde, est aussi l’une des plus disputées de cette année à Bruxelles, tant les positions du Parlement et du Conseil européens, ainsi que de la Commission européenne, ont été difficiles à réconcilier.

Plus de trente-sept heures, réparties sur trois jours, de débats, parfois houleux, auront été nécessaires afin d’édicter des règles visant à contrôler une technologie présentée par certains comme une menace potentielle pour l’existence de l’humanité.

Carme Artigas, la ministre espagnole chargée de l’IA, a salué « la plus grande étape de l’histoire de la transformation numérique en Europe ». L’Espagne voulait à tout prix décrocher un accord sur l’IA, pendant qu’elle assure la présidence tournante de l’UE jusqu’à fin décembre.

Systèmes d’IA à haut risque

Concrètement, l’approche européenne consiste à imposer des obligations pour les systèmes d’IA à haut risque, en les classant de faible à inacceptable.

Mais les Européens ont eu un mal fou à trouver le bon équilibre entre la volonté de protéger les droits fondamentaux des citoyens et, en même temps, de ne pas entraver le développement de start-up européennes prometteuses avec des contraintes qui les étouffent.

En juin, cent cinquante entreprises parmi lesquelles Airbus, Siemens, Dassault et Renault avaient fait part de leurs inquiétudes face à des règles qu’elles jugeaient trop strictes et susceptibles d’entraver l’innovation.

« Plusieurs entreprises, soutenues par des pays tiers, ont tenté de nous décourager, a expliqué Thierry Breton, le commissaire européen au Marché intérieur. Ils savaient que le premier à établir des règles avait l’avantage d’être le premier à établir la norme mondiale. Cela a rendu le processus législatif particulièrement complexe ».

ChatGPT en ligne de mire

L’une des questions qui a le plus divisé concerne la réglementation de l’IA générative – systèmes comme ChatGPT . L’UE a établi des exigences plus fortes pour les modèles les plus puissants, tandis que les autres n’auront que des obligations de transparence.

Plusieurs pays, aux premiers rangs desquels la France et l’Allemagne prônaient l’autorégulation pour favoriser le développement des jeunes pousses.

Ils ont eu, en bonne partie, gain de cause, car les obligations posées aux acteurs potentiellement systémiques reposent majoritairement sur l’évaluation et le suivi de risques, et sont complétées par un code de conduite volontaire.

Des mesures jugées insuffisantes par le Bureau européen des consommateurs, qui regrette l’absence de « garde-fous nécessaires » vis-à-vis des systèmes comme ChatGPT ou Bard « pour que les consommateurs leur fassent confiance ».

Des exemptions pour la reconnaissance faciale

L’autre sujet qui a donné du fil à retordre aux législateurs concerne l’exploitation de l’IA par les forces de l’ordre.

Le texte formule plusieurs interdictions dont la très polémique reconnaissance faciale en temps réel, ces caméras qui scannent les visages, avec, toutefois, quelques exemptions. En cas de recherches de victimes, de prévention de menace terroriste ou de localisation et identification de personnes soupçonnées de crimes.

Le sujet a déchaîné les passions : le Parlement voulait une interdiction totale de la reconnaissance faciale en direct. Mais de nombreux pays de l’UE, dont la France, voulaient pouvoir l’utiliser en matière de sécurité nationale.

Le texte bannit par ailleurs la notation basée sur le comportement social et les systèmes d’IA qui manipulent les utilisateurs.

Il prétend apporter des gages aux acteurs de l’innovation, en offrant notamment la possibilité de tester les systèmes d’IA à haut risque dans des conditions réelles, donc en dehors des laboratoires.

Ainsi, pour Thierry Breton, la loi est « une rampe de lancement », qui « offre aux start-up et aux chercheurs la possibilité de s’épanouir en garantissant une sécurité juridique à leurs innovations ».

Un nouveau bureau européen de l’IA, dépendant de la Commission européenne, sera chargé de la surveillance de l’application de la loi, et pourra imposer des sanctions. « Une mise en oeuvre correcte sera essentielle, le Parlement continuera à surveiller de près », a prévenu Brando Benifei (eurodéputé S&D), l’un des corapporteurs du texte.

 

Lire : Les Echos du 9 décembre

 

Jean-Philippe Behr

Nos partenaires

Demande d’adhésion à la CCFI

Archives

Connexion

Vous n'êtes pas connecté.

Demande d’adhésion à la CCFI