>> La photo à l'heure de l'intelligence artificielle
>> Elon Musk crée X.AI, une start-up d'intelligence artificielle
>> Formés aux IA, des profs utilisent déjà ChatGPT en classe
Geoffrey Hinton, pionnier de l’intelligence artificielle, s’exprime lors du Thomson Reuters Financial and Risk Summit à Toronto, le 4 décembre 2017. |
Photo : Reuters/CVN |
"Je suis parti pour pouvoir parler des dangers de l'IA sans me soucier d'un éventuel impact sur Google", a déclaré dans un tweet M. Hinton, après l'annonce de son départ dans le New York Times.
Les avancées dans ce secteur induisent "de profonds risques pour la société et l'humanité", estime dans le journal américain M. Hinton qui a créé une fondation dédiée aux systèmes d'IA.
"Regardez où nous en étions il y a cinq ans et la situation actuelle", poursuit-il en jugeant "effrayant" les perspectives d'avenir en faisant des projections sur les bases des progrès des dernières années.
Selon lui, "il est difficile de voir comment éviter que les mauvais acteurs l'utilisent pour de mauvaises choses".
Le déploiement à toute vitesse d'une intelligence artificielle (IA) de plus en plus "générale", dotée de capacités cognitives humaines et donc susceptible de bouleverser de nombreux métiers, a été symbolisée par le lancement en mars par OpenAI de GPT-4, une nouvelle version plus puissante du modèle de langage naturel qui opère ChatGPT.
Cette interface d'IA générative est utilisée par des millions de personnes depuis quelques mois pour rédiger des dissertations, des poèmes ou encore des lignes de code informatique. Ce lancement a aussi aiguillonné la compétition dans ce domaine.
M. Hinton met aussi en garde, dans le New York Times, contre la désinformation qui pourrait être générée par l'IA. L'expert a informé Google de sa démission le mois dernier, selon le journal.
Dans le tweet confirmant son départ il réfute toute volonté de critiquer le géant de la tech par cette décision. "Google s'est comporté de façon très responsable", écrit-il.
En mars, le milliardaire Elon Musk - un des fondateurs d'OpenAI dont il a ensuite quitté le conseil d'administration - et des centaines d'experts mondiaux ont réclamé une pause de six mois dans la recherche sur les IA plus puissantes que GPT-4, en évoquant "des risques majeurs pour l'humanité".
Geoffrey Hinton n'a pas fait partie des signataires, mais il a affirmé au New York Times que les scientifiques ne devraient pas faire encore monter en puissance ces IA "avant de savoir s'ils sont capables de les contrôler".
En 2019, M. Hinton avait reçu, avec deux autres spécialistes de l'intelligence artificielle, le prix Turing, l'équivalent du Nobel pour les informaticiens.
AFP/VNA/CVN