>> ChatGPT arrive sur les smartphones
>> Face à la méfiance anti-IA, le créateur de ChatGPT en tournée mondiale
>> USA : l'Agence de protection des consommateurs enquête sur OpenAI
Le symbole de ChatGPT sur l'écran d'une smartphone. |
Photo : AFP/VNA/CVN |
Les auteurs de étude parue mercredi 13 septembre ont toutefois souligné que les jours des médecins urgentistes n'étaient pas encore comptés, le chatbot étant potentiellement capable d'accélérer le diagnostic mais pas de remplacer le jugement et l'expérience d'un humain.
Trente cas traités dans un service d'urgence aux Pays-Bas en 2022 ont été examinés en alimentant ChatGPT en fonction des antécédents des patients, des tests en laboratoire et des observations des médecins, demandant au chatbot de proposer cinq diagnostics possibles.
Dans 87% des cas, le bon diagnostic se trouvait dans la liste des praticiens, contre 97% pour la version 3.5 de ChatGPT. Le chatbot "était capable de réaliser des diagnostics médicaux un peu comme l'aurait fait un médecin humain", a résumé Hidde ten Berg, du service d'urgence de l'hôpital Jeroen Bosch, dans le sud des Pays-Bas.
Le coauteur de l'étude Steef Kurstjens a souligné que celle-ci ne concluait pas que des ordinateurs pourraient un jour diriger les urgences mais que l'IA pouvait jouer un rôle vital en aidant les médecins sous pression. Le chatbot "peut aider à réaliser un diagnostic et peut, peut-être, proposer des idées auxquelles le médecin n'avait pas pensé", a-t-il déclaré.
De tels outils ne sont pas conçus comme des dispositifs médicaux, a-t-il toutefois relevé, partageant également des inquiétudes quant à la confidentialité des données médicales sensibles dans un chatbot. Et, comme dans d'autres domaines, ChatGPT a rencontré certaines limites.
L'IA peut soulager le travail sous pression des médecins. |
Photo : AFP/VNA/CVN |
Son raisonnement était "parfois médicalement invraisemblable ou incohérent, ce qui peut conduire à des informations erronées ou à un diagnostic incorrect, avec des implications importantes", note l'étude. Les scientifiques admettent également certaines lacunes dans leurs recherches, comme la petite taille de l'échantillon. De plus, seuls des cas relativement simples ont été examinés, avec des patients présentant une seule plainte principale.
L'efficacité du chatbot dans des cas complexes n'est pas claire. Parfois, ChatGPT ne fournissait pas le bon diagnostic dans les cinq possibilités, explique M. Kurstjens, notamment dans le cas d'un anévrisme aortique abdominal, une complication potentiellement mortelle, avec l'aorte qui enfle. Mais, consolation pour ChatGPT, dans ce cas, le médecin s'est également trompé. Le rapport signale en outre des "gaffes" médicales commises par le chatbot, par exemple en diagnostiquant une anémie (faible taux d'hémoglobine dans le sang) chez un patient présentant un taux d'hémoglobine normal.
Les résultats de l'étude, parus dans la revue spécialisée Annals of Emergency Medicine, seront présentés au Congrès européen de médecine d'urgence (EUSEM) de 2023 à Barcelone.
APS/VNA/CVN