>> L'intelligence artificielle facilite l'écriture, mais les histoires se ressemblent
>> Le cloud tempère la passion pour Microsoft et l'IA
>> Intel licencie 15% de ses employés pour réduire ses coûts
Le drapeau européen dans l'Est de la France, le 25 mars. |
Photo : AFP/VNA/CVN |
"Il s'agit du cadre pionnier de l'Europe pour une IA innovante et sûre. Il favorisera le développement d'une IA à laquelle les Européens peuvent faire confiance. Il aidera les PME et les jeunes entreprises européennes à mettre sur le marché des solutions d'IA de pointe", a affirmé la présidente de la Commission européenne, Ursula von der Leyen, sur le réseau social X.
Pour l'essentiel, cette législation s'appliquera réellement à partir de 2026, mais certaines dispositions deviendront contraignantes dès l'an prochain. Elle adopte une approche "fondée sur le risque" et impose aux différents systèmes d'intelligence artificielle des contraintes proportionnées aux dangers qu'ils représentent pour la société.
Les systèmes d'IA ne présentant qu'un risque limité seront soumis à des obligations de transparence très légères, tandis que les systèmes à haut risque, utilisés par exemple dans les infrastructures critiques, l'éducation, les ressources humaines ou le maintien de l'ordre, seront soumis à des exigences renforcées avant d'être autorisés dans l'UE.
Ces exigences incluront par exemple un contrôle humain sur la machine, l'établissement d'une documentation technique, ou encore la mise en place d'un système de gestion du risque.
Les interdictions seront rares. Elles concerneront les applications contraires aux valeurs européennes comme les systèmes de notation citoyenne ou de surveillance de masse utilisés en Chine.
Les interdictions "s'appliqueront à partir du 2 février prochain, avec des amendes pouvant aller jusqu'à 7% du chiffre d'affaires mondial en cas de violation", souligne Marcus Evans du cabinet d'avocats Norton Rose Fulbright, qui invite les entreprises à se préparer dès à présent.
Des règles spécifiques s'appliqueront aux IA génératives comme ChatGPT d'Open AI pour s'assurer de la qualité des données utilisées dans la mise au point des algorithmes et le respect des droits d'auteur.
Les sons, images et textes générés artificiellement devront clairement être identifiés comme tels pour éviter des manipulations de l'opinion. Le règlement avait été définitivement adopté par les 27 États membres de l'UE le 21 mai, après son adoption par le Parlement européen à une très large majorité.
Les co-législateurs de l'UE avaient trouvé un accord sur ce texte début décembre au terme de difficiles négociations, certains pays comme la France craignant un encadrement excessif qui menacerait le développement de ce secteur d'avenir.
AFP/VNA/CVN