Les députés européens ont approuvé de nouvelles règles de transparence et de gestion des risques pour les systèmes d’intelligence artificielle, afin de garantir un développement éthique en Europe.
Ce jeudi, les commissions du marché intérieur et des libertés civiles ont adopté un projet de mandat de négociation sur les premières règles au monde sur l’intelligence artificielle, par 84 voix pour, 7 contre et 12 abstentions.
Dans leurs amendements à la proposition de la Commission, les députés visent à garantir que les systèmes d’IA bénéficient d’un contrôle humain, qu’ils sont sûrs, transparents, traçables, non discriminatoires et respectueux de l’environnement. Ils souhaitent également disposer d’une définition uniforme de l’IA conçue pour être technologiquement neutre, afin de pouvoir l'appliquer aux systèmes d’IA d’aujourd’hui et de demain.
Une approche de l’IA fondée sur le risque
Les règles suivent une approche fondée sur le risque et établissent des obligations pour les fournisseurs et les utilisateurs en fonction du niveau de risque que l’IA peut générer. Les systèmes d’IA présentant un niveau de risque inacceptable pour la sécurité des personnes seront strictement interdits, notamment les systèmes qui déploient des techniques subliminales ou délibérément manipulatrices, exploitent les vulnérabilités des personnes ou sont utilisés pour la notation sociale (consistant à établir une classification des personnes en fonction de leur comportement social, de leur statut socio-économique, de leurs caractéristiques personnelles).
Les députés ont modifié la liste de manière substantielle, afin d’y inclure des interdictions d’utilisations des systèmes d’IA intrusifs et discriminatoires, comme :
- les systèmes d’identification biométrique à distance "en temps réel" dans les espaces accessibles au public ;
- les systèmes d'identification biométrique à distance "a posteriori", à la seule exception des services répressifs pour la poursuite d'infractions graves et seulement après autorisation judiciaire ;
- les systèmes de catégorisation biométrique utilisant des données sensibles (par exemple, le genre, la race, le statut de citoyenneté, la religion, l’orientation politique) ;
- les systèmes de police prédictifs (basés sur le profilage, la localisation ou le comportement criminel antérieur) ;
- les systèmes de reconnaissance des émotions (dans les domaines de l’application de la loi, de la gestion des frontières, sur le lieu de travail et dans les établissements d’enseignement) ;
- La récupération aveugle de données biométriques provenant des médias sociaux ou de la vidéosurveillance pour créer des bases de données de reconnaissance faciale (violation des droits humains et du droit à la vie privée).
L’intelligence artificielle à haut risque
Les députés ont élargi la classification de l’IA à haut risque pour y inclure les atteintes à la santé, à la sécurité, aux droits fondamentaux ou à l’environnement. Les députés ont également ajouté à la liste à haut risque les systèmes d’IA utilisés pour influencer les électeurs lors de campagnes politiques, ainsi que ceux des systèmes de recommandations utilisés par les plateformes de médias sociaux (avec plus de 45 millions d’utilisateurs dans le cadre de la législation sur les services numériques).
L’intelligence artificielle à usage général
Les députés ont inclus des obligations pour les fournisseurs de modèles de référence (un développement nouveau et en évolution rapide dans le domaine de l’IA) qui devront garantir un niveau élevé de protection des droits fondamentaux, de la santé et de la sécurité ainsi que de l’environnement, de la démocratie et de l’État de droit. Ils devront évaluer et limiter les risques, se conformer aux exigences en matière de conception, d’information et d’environnement, et s’enregistrer dans la bases de données de l’UE.
Les modèles génératifs, comme GPT, devront se conformer à des exigences de transparence supplémentaires, comme la communication du fait que le contenu a été généré par une IA, la conception du modèle pour prévenir la génération de contenu illégal et la publication de résumés de données protégées par le droit d’auteur, utilisées pour la formation des algorithmes.
Soutenir l’innovation et protéger les droits des citoyens
Pour soutenir l’innovation en matière d’IA, les députés ont ajouté des exemptions à ces règles pour les activités de recherche et les composants d’IA fournis dans le cadre de licences open source. La nouvelle législation promeut les "bacs à sable réglementaires", des environnements contrôlés, établis par les autorités publiques, où les systèmes d’IA peuvent être testés avant leur déploiement.
Les députés souhaitent soutenir le droit des citoyens à porter plainte contre des systèmes d’IA et à recevoir des explications concernant les décisions fondées sur des systèmes d’IA à haut risque qui ont une incidence significative sur leurs droits. Les députés ont également réformé le rôle de l'Office européen de l'IA, qui sera chargé de contrôler la mise en œuvre du règlement sur l'intelligence artificelle.