>> CES : la tech s'invite au chevet de la santé mentale
>> Un salarié sur quatre se dit en mauvaise santé mentale
>> L'angoisse des jeunes face à l'actualité à son plus haut niveau
![]() |
"Même si on multipliait par dix le nombre de professionnels, ce ne serait pas assez" pour satisfaire la demande actuelle de soutien psychologique, plaide Nick Jacobson. "Donc on a besoin de quelque chose de différent pour y répondre."
Le professeur à l'université américaine de Dartmouth College pense à Therabot, son assistant IA patiemment mis au point avec des collègues depuis près de six ans.
À la différence de beaucoup de start-up qui ont déjà mis sur le marché leur application de thérapie IA, ces chercheurs ne souhaitent pas se presser. Pour Michael Heinz, psychiatre et copilote du projet, "on parle plutôt d'années que de mois" avant la mise en ligne.
"Nous devons encore creuser sur le terrain de la sécurité", justifie l'universitaire, "avoir vraiment une compréhension assurée du fonctionnement de ces choses avant de pouvoir se lancer". Pour développer son interface, l'équipe a d'abord utilisé des retranscriptions de consultations, puis des vidéos de formation, mais s'est retrouvée "dans une impasse", se rappelle Nick Jacobson, psychologue de formation.
Elle s'est finalement résolue à entrer, manuellement, des simulations de conversations, pour couvrir le champ le plus large possible et s'assurer de la qualité des réponses.
Fin mars, les chercheurs de Dartmouth ont publié la première étude clinique du genre, qui montre que Therabot améliore l'état de patients souffrant d'anxiété, de dépression ou de troubles du comportement alimentaire, par rapport à ceux qui n'en ont pas bénéficié. Ils travaillent déjà à un nouvel essai, qui comparerait cette fois les effets de leur assistant à ceux de thérapies classiques.
"Je vois un avenir avec des chatbots testés scientifiquement (...) et développés à des fins de santé mentale", commente Vaile Wright, responsable de l'innovation au sein de l'Association américaine de psychologie.
Mais à part Therabot, qui n'est pas encore commercialisé, "il n'y a pas de produit comme ça sur le marché", avance-t-elle. "Certains ne sont même pas élaborés par des experts".
Patron de la plateforme Earkick, qui compte plus de 100.000 utilisateurs, pour l'essentiel aux États-Unis, Herbert Bay refuse l'étiquette accolée à d'autres start-up et assure que son thérapeute IA, baptisé Panda, est "super sûr".
"Ce qu'il s'est passé avec Character AI ne pourrait pas arriver chez nous", clame cet entrepreneur en série, en référence au suicide en octobre d'un jeune utilisateur de 14 ans de cette autre application, dont la mère a mis en cause le rôle du chatbot dans ce geste.
La santé mentale en ligne est théoriquement sous l'autorité de l'Agence américaine du médicament (FDA). "La FDA ne certifie pas les applis d'IA", a précisé à l'AFP l'agence, selon laquelle "les thérapies numériques ont le potentiel d'améliorer l'accès des patients" au soutien à la santé mentale.
"Faire du profit"
Earkick, qui réalise actuellement une étude clinique, selon Herbert Bay, a mis en place des alertes en cas de crise ou d'idées suicidaires, repérées par le modèle d'IA dans une conversation.
"Les cas très graves, ce n'est pas pour une IA", dit-il. "Nous, on est là pour l'accompagnement au quotidien." "Appeler son thérapeute à deux heures du matin", fait valoir Herbert Bay, "ce n'est juste pas possible", alors que le chatbot est disponible en permanence.
Sujet à des troubles du stress post-traumatique, Darren a dialogué avec ChatGPT, qui à la différence d'Earkick ou Therabot, n'est pas spécifiquement conçu comme un outil de santé mentale. "J'ai l'impression que ça me réussit", dit-il, même s'il espère pouvoir démarrer prochainement des séances avec un thérapeute humain. "Je le recommanderais aux gens qui souffrent d'anxiété et sont en détresse".
"Si cette technologie peut être utilisée en sécurité sous la supervision d'un professionnel, j'y vois un grand potentiel", considère Darlene King, de l'Association américaine de psychiatrie, sachant que les applications en circulation ne sont pas utilisées sous le contrôle d'un référent.
En l'état, ajoute-t-elle, "avant que nous puissions soutenir l'IA générative pour la thérapie, il va falloir répondre à beaucoup de questions encore en suspens quant aux bénéfices et aux risques".
"Ces produits sont développés pour faire du profit", pointe Vaile Wright, et les modèles cherchent donc "à garder les usagers sur la plateforme le plus longtemps possible, (...) en leur disant exactement ce qu'ils veulent entendre". Un phénomène auquel les enfants sont encore plus vulnérables, insiste-t-elle.
Michael Heinz et Nick Jacobson veulent, eux, créer une entité à but non lucratif autour de Therabot pour éviter ces possibles dérives et rendre le service accessible "aux gens même s'ils ne peuvent pas payer", entrevoit Michael Heinz. "Parfois, ce sont ceux qui ont le plus besoin d'aide".
AFP/VNA/CVN