>> OpenAI affirme que l'IA est "suffisamment sûre" malgré les scandales
>> Nvidia garde son rythme effréné au premier trimestre, grâce à l'IA
>> IA : OpenAI veut rassurer avec la création d'un comité de surveillance
Un robot utilisant l'IA présenté au Sommet mondial AI for Good de l'Union internationale des télécommunications à Genève, le 30 mai en Suisse. |
Photo : AFP/VNA/CVN |
"Nous avons laissé le génie sortir de la bouteille", a déclaré Doreen Bogdan-Martin, directrice de l'Union internationale des télécommunications (UIT) des Nations unies.
"Nous sommes engagés dans une course contre la montre", a-t-elle déclaré lors de l'ouverture d'un sommet mondial de deux jours intitulé "AI for Good" (l'intelligence artificielle au service du bien) à Genève. "Les développements récents en matière d'IA sont tout simplement extraordinaires", a-t-elle reconnu.
Les milliers de participants à la conférence ont appris que les progrès de l'IA générative accélèrent déjà les efforts visant à résoudre certains des problèmes les plus urgents de la planète, tels que le changement climatique, la faim et l'aide sociale.
"Je pense que nous avons l'occasion, comme il en survient une fois par génération, de mettre l'IA au service de tous les habitants de la planète", a déclaré Mme Bogdan-Martin dans un courriel envoyé avant le sommet. Mais elle a déploré jeudi 30 mai qu'un tiers de l'humanité reste encore complètement déconnecté et soit "exclu de la révolution de l'IA sans pouvoir s'exprimer".
Une puissance concentrée
Mme Bogdan-Martin a souligné que l'IA recèle "un immense potentiel, tant pour le bien que pour le mal", et qu'il est essentiel de "sécuriser les systèmes d'IA".
Doreen Bogdan-Martin, directrice de l'Union internationale des télécommunications des Nations unies, le 7 mars à Genève. |
Photo : AFP/VNA/CVN |
Elle a déclaré que cela était particulièrement important aujourd'hui, étant donné que "2024 est la plus grande année électorale de l'histoire", avec des votes dans des dizaines de pays, y compris aux États-Unis.
Or, "avec la montée en puissance des campagnes de désinformation sophistiquées de type deep fake, c'est aussi l'année la plus controversée", a-t-elle ajouté.
"Non seulement cette mauvaise utilisation de l'IA menace la démocratie, mais elle met également en danger la santé mentale des jeunes et compromet la cybersécurité", prévient cette fonctionnaire.
Dans un discours prononcé à l'occasion d'un autre événement consacré à la gouvernance de l'IA cette semaine, le chef de l'UIT a mis en garde contre le fait que "le pouvoir de l'IA est concentré entre les mains d'un trop petit nombre".
L'image d'un cerveau sur un écran lors du Sommet mondial AI for Good de l'Union internationale des télécommunications à Genève, le 30 mai en Suisse. |
Photo : AFP/VNA/CVN |
"Il est risqué et éthiquement fragile d'être dans ce genre de position pour l'humanité", a-t-elle déclaré. D'autres experts présents à la conférence ont abondé dans ce sens.
"Nous devons comprendre vers quoi nous nous dirigeons", a déclaré Tristan Harris, un éthicien des technologies qui a cofondé le Center for Humane Technology.
Il a rappelé les leçons tirées des médias sociaux, initialement présentés comme un moyen de relier les gens et de donner une voix à chacun, mais qui ont également engendré dépendance, désinformation virale, harcèlement en ligne et explosion des problèmes de santé mentale chez les adolescents.
"Super-pouvoirs"
Si l'IA peut être bénéfique à l'humanité à bien des égards, M. Harris a averti que les motivations qui poussent les entreprises à déployer la technologie risquaient d'augmenter considérablement ces effets négatifs.
Le robot réaliste "Ai-Da" (gauche) utilisant l'IA présenté au Sommet mondial AI for Good de l'Union internationale des télécommunications à Genève, le 30 mai en Suisse. |
Photo : AFP/VNA/CVN |
"La principale motivation de l'Open AI ou du comportement de Google est la course à la domination du marché", a-t-il déclaré. Dans un tel monde, a-t-il ajouté, "une gouvernance qui évolue à la vitesse de la technologie" est vitale.
Le directeur d'OpenAI, Sam Altman, qui s'est fait connaître dans le monde entier après la sortie de ChatGPT en 2022, a reconnu que cette avancée technologique pouvait comporter des dangers.
S'exprimant par liaison vidéo, il a déclaré à l'assemblée que la "cybersécurité" était actuellement la plus grande préoccupation en ce qui concerne les potentiels effets négatifs de l'IA. Toutefois, à plus long terme, il a estimé qu'il faudrait probablement "modifier le contrat social, compte tenu de la puissance attendue de cette technologie".
Dans l'ensemble, cependant, il a insisté sur le fait que, du point de vue de l'évolution historique des nouvelles technologies, les systèmes d'IA étaient "généralement considérés comme sûrs et robustes".
Le Pdg d'OpenAI, Sam Altman (droite), sur l'écran géant, lors d'une conférence avec Nicholas Thompson, Pdg de The Atlantic, à l'occasion du Sommet mondial AI for Good de l'Union internationale des télécommunications. |
Photo : AFP/VNA/CVN |
Tout en se félicitant des discussions sur les réglementations visant à endiguer les effets négatifs à court terme de l'IA, il a averti qu'il était "difficile" de suggérer des réglementations visant à en limiter le développement.
Azeem Azhar, fondateur d'Exponential View, a également souligné la nécessité d'une réponse institutionnelle beaucoup plus solide "pour s'assurer que l'IA donne aux gens des super-pouvoirs plutôt que d'être considérée comme un outil pour les remplacer".
Mme Bogdan-Martin a salué le fait que les gouvernements et d'autres acteurs se soient récemment "empressés d'établir des protections" et des réglementations concernant l'utilisation de l'IA.
Par exemple, l'Union européenne a annoncé mercredi 29 mai la création d'un bureau de l'IA chargé de réglementer l'IA dans le cadre d'une nouvelle loi.
AFP/VNA/CVN