>> OpenAI donne la vision et la voix à ChatGPT
>> OpenAI veut changer la voix de ChatGPT, trop proche de celle de Scarlett Johansson
>> OpenAI affirme que l'IA est "suffisamment sûre" malgré les scandales
Un nouveau comité de surveillance doit, durant les 90 prochains jours, travailler à évaluer et renforcer la sécurité et les processus existants autour du développement d'une IA avancée. |
Photo : AFP/VNA/CVN |
Selon l'entreprise, le comité, au sein duquel siégera son patron Sam Altman, doit commencer à travailler au moment où OpenAI a lancé l'entraînement de son nouveau modèle d'IA, qui est censé dépasser les capacités de GPT-4, l'actuel système au coeur de ChatGPT.
"Nous sommes fiers de créer et proposer des modèles d'IA à la pointe de l'industrie, tant en matière de capacités que de sécurité et, en ce moment-clé, accueillons positivement le débat solide" qu'il suscite, a déclaré l'entreprise dans un communiqué.
Le comité, qui sera composé de membres de son conseil d'administration et de responsables, doit, durant les 90 prochains jours, travailler à évaluer et renforcer la sécurité et les processus existants autour du développement d'une IA avancée.
OpenAI a également assuré qu'elle recevra les avis de spécialistes externes durant cette période, parmi lesquels l'ancien responsable américain de la cybersécurité, Rob Joyce, qui était à la tête de cette division au sein de l'Agence nationale de sécurité (NSA), ainsi que John Carlin, ancien responsable du département de la Justice.
Le comité va faire le point sur les protocoles de sécurité déjà en place au sein d'OpenAI et avancer des recommandations en vue de possibles améliorations ou additions.
À l'issue des trois mois, un rapport du comité sera présenté au conseil d'administration avant d'être publié.
Le lancement de ce comité se veut la réponse au départ de plusieurs hauts responsables du groupe, inquiets au sujet du manque de priorité accordé, selon eux, par OpenAI à la sécurité de l'IA.
Au début du mois, l'entreprise avait démantelé son équipe chargée de la réduction des risques de long terme induits par l'IA.
Annonçant son départ, le responsable de l'équipe, Jan Leike, avait critiqué OpenAI, l'accusant, dans une série de tweets, de donner la priorité à de "nouveaux produits tous beaux" au détriment du travail essentiel de sécurisation de l'IA.
"Ces derniers mois, mon équipe naviguait à contre-courant", a-t-il ainsi déclaré.
L'entreprise a par ailleurs créé la polémique alors que sa dernière itération intégrait une voix très proche de celle de l'actrice américain Scarlett Johansson, même si OpenAI a assuré ne pas avoir cherché à copier la star hollywoodienne.
AFP/VNA/CVN