>> Le chef de l'ONU soutient la création d'un organisme de surveillance de l'IA
>> Le secrétaire général de l'ONU lance un organisme consultatif sur l'intelligence artificielle
>> Un sommet au Royaume-Uni s'engage pour une IA sûre et responsable
Drapeau de l'Union européenne et de pays membres, le 14 décembre 2022. |
Photo : AFP/VNA/CVN |
Les colégislateurs de l'UE ont trouvé un "accord politique" sur un texte qui doit favoriser l'innovation en Europe, tout en limitant les possibles dérives de ces technologies très avancées.
"Historique ! L'UE devient le premier continent à fixer des règles claires pour l'utilisation de l'IA", s'est félicité le commissaire européen Thierry Breton, à l'origine du projet présenté en avril 2021.
Depuis cette date, les discussions ont traîné en longueur. Le dernier round de négociation, démarré mercredi après-midi 6 décembre, aura lui-même duré près de 35 heures...
Le processus avait été percuté en fin d'année dernière par l'apparition de ChatGPT, de la start-up californienne OpenAI, capable de rédiger des dissertations, des poèmes ou des traductions en quelques secondes.
Ce système, comme ceux capables de créer des sons ou des images, ont révélé au grand public le potentiel immense de l'IA. Mais aussi certains risques. La diffusion sur les réseaux sociaux de fausses photographies, plus vraies que nature, a par exemple alerté sur le danger de manipulation de l'opinion.
Ce phénomène des IA génératives a été intégré dans les négociations en cours, à la demande des eurodéputés qui insistent sur un encadrement spécifique pour ce type de technologies à fort impact. Ils ont réclamé notamment plus de transparence sur les algorithmes et les bases de données géantes au cœur de ces systèmes.
Les États membres craignaient qu'une régulation excessive tue dans l’œuf leurs champions naissants, comme Aleph Alpha en Allemagne et Mistral AI en France, en rendant prohibitifs les coûts de développement.
"Autonomie stratégique"
L'accord politique trouvé le 8 décembre doit être complété par un travail technique pour finaliser le texte. "Nous allons analyser attentivement le compromis trouvé aujourd'hui et nous assurer dans les prochaines semaines que le texte préserve la capacité de l'Europe à développer ses propres technologies d'IA et préserve son autonomie stratégique", a réagi le ministre français du Numérique, Jean-Noël Barrot.
Logo de ChatGPT, le 23 novembre à Francfort. |
Photo : AFP/VNA/CVN |
"Le vrai danger, c'est que se reconstitue avec l'IA les Gafa, c'est-à-dire la suprématie d'une toute petite poignée d'acteurs qui imposent leurs règles au monde", a-t-il insisté samedi 9 décembre sur France Inter.
Le secteur de la tech se montre critique. "La rapidité semble avoir prévalu sur la qualité, avec des conséquences potentiellement désastreuses pour l'économie européenne", a estimé Daniel Friedlaender, responsable Europe du CCIA, un de ses principaux lobbies. Selon lui, "un travail technique" est désormais "nécessaire" sur des détails cruciaux.
Sur les IA génératives, le compromis prévoit une approche à deux vitesses. Des règles s'imposeront à tous pour s'assurer de la qualité des données utilisées dans la mise au point des algorithmes et pour vérifier qu'ils ne violent pas la législation sur les droits d'auteur.
Les développeurs devront par ailleurs s'assurer que les sons, images et textes produits seront bien identifiés comme artificiels.
Des contraintes renforcées s'appliqueront aux seuls systèmes les plus puissants.
Le texte reprend les principes des réglementations européennes existantes en matière de sécurité des produits qui imposent des contrôles reposant d'abord sur les entreprises.
Le cœur du projet consiste en une liste de règles imposées aux seuls systèmes jugés à "haut risque", essentiellement ceux utilisés dans des domaines sensibles comme les infrastructures critiques, l'éducation, les ressources humaines, le maintien de l'ordre...
Ces systèmes seront soumis à une série d'obligations comme celles de prévoir un contrôle humain sur la machine, l'établissement d'une documentation technique, ou encore la mise en place d'un système de gestion du risque.
La législation prévoit un encadrement particulier des systèmes d'IA qui interagissent avec les humains. Elle les obligera à informer l'utilisateur qu'il est en relation avec une machine.
AFP/VNA/CVN