Le Parlement européen a adopté le projet d’IA Act, une étape significative dans la réglementation de l’intelligence artificielle en Europe. Ce projet est en cours de négociation avec la Commission et le Conseil européens.
🟠 Implications pour les services d’IA générative
Le texte introduit de nouvelles obligations pour les services d’IA générative, comme chat GPT. Il sera désormais obligatoire de déclarer l’utilisation de contenus protégés par le droit d’auteur pour entrainer les modèles d’IA. Ces modèles devront également être enregistrées dans une base de données européennes.
🟠 Risques et catégorisations
Selon le Parlement européen, les systèmes d’IA seront classés en fonction du niveau de risque qu’ils présentent. Les systèmes à « risque inacceptable » seront interdits, tandis que ceux à « risque élevé » seront soumis à des évaluations rigoureuses. Le Parlement insiste également sur la transparence, la traçabilité et le respect de l’environnement pour les systèmes d’IA.
Les systèmes d’IA identifiés comme à haut risque comprennent la technologie de l’IA utilisée notamment dans :
- L’identification biométrique et la catégorisation des personnes physiques,
- La gestion et l’exploitation des infrastructures critiques,
- L’éducation et la formation professionnelle,
- L’emploi, la gestion des travailleurs et l’accès au travail indépendant,
- D’autres domaines liés principalement à des prérogatives de puissance publique.
Les systèmes d’IA à risque inacceptable sont des systèmes considérés comme une menace pour les personnes et
seront interdits. Ils comprennent :
- La manipulation cognitivo-comportementale de personnes ou de groupes vulnérables spécifique (jouets pour enfant),
- Le score social : classer les personnes en fonction de leur comportement et de leur statut socio-économique,
- Des systèmes d’identification biométrique en temps réels et à distance, tels que la reconnaissance faciale.
S’agissant des systèmes d’identification biométriques ils peuvent tomber sous le coup de l’une ou l’autre des deux catégories
précitées en fonction de l’utilisation qui en est faites par les personnes publiques ou privés.
🟠 Alertes aux entreprises
L’approche choisie est fondée sur les risques. Cette notion se décline en quatre catégories hiérarchiquement organisées selon le degré de gravité des effets que l’Intelligence Artificielle pourraient avoir (Risque nul, Risque limité, Risque élevé, Risque inacceptable). Il est crucial pour les entreprises utilisant des technologies d’IA de suivre ces développements de près et de prendre attache avec leur conseil afin de sécuriser le périmètre d’utilisation des IA. Le non-respect de ces nouvelles réglementations pourraient entrainer des sanctions sévères. Ces sanctions suivent la même logique que celle du RGPD. En cas de non-respect des règles d’usage, la personne fautive encourt une amende de 30 millions d’euros ou pouvant aller jusqu’à 6% du chiffre d’affaires s’il est question d’une entreprise. Les entreprises doivent également être conscientes des différentes catégories de risque associées à l’utilisation de l’IA.
🟠 Prochainement
Le texte est en cours d’examen par la Commission et le Conseil européens. Des divergences pourraient survenir, notamment sur l’interdiction de l’identification biométrique. Les négociations devraient se conclure d’ici la fin de l’année.
Pour en savoir plus / sources https://www.europarl.europa.eu/news/fr/headlines/society/20230601STO93804/loi-sur-l-ia-de-l-ue-premiere-reglementation-de-l-intelligence-artificielle
Les services de notre cabinet d’avocats : https://evolutio-avocats.com/entreprises