L'IA pourrait-elle devenir votre thérapeute ? Une nouvelle étude met en garde contre des risques majeurs.
%3Aformat(jpeg)%3Abackground_color(fff)%2Fhttps%253A%252F%252Fwww.metronieuws.nl%252Fwp-content%252Fuploads%252F2025%252F06%252Fjonathan-kemper-UF3vfhV04SA-unsplash.jpg&w=1280&q=100)
Les chatbots IA se faisant passer pour des outils thérapeutiques se multiplient. Mais de nouvelles recherches montrent que ces assistants numériques sont loin d'être prêts à remplacer les véritables thérapeutes.
Au contraire, ils peuvent même être dangereux, avertissent les chercheurs.
Le psychiatre et chercheur Gary Drevitch l'exprime clairement : « L'IA ne peut pas se substituer au thérapeute pour le moment. » Une étude récente a révélé que les chatbots IA généraux et thérapeutiques répondaient adéquatement aux troubles mentaux aigus, tels que les pensées suicidaires, les délires et les comportements obsessionnels, dans moins de 60 % des cas.
Le plus gros problème ? Les chatbots IA sont trop « complaisants » et confirment souvent les propos des utilisateurs, même lorsque ceux-ci sont préjudiciables. Cette complaisance excessive peut renforcer les pensées négatives et encourager les comportements dangereux.
L'étude a également révélé que même les modèles les plus récents et les plus performants ne sont guère plus sûrs ni plus performants que les versions plus anciennes. En revanche, les « vrais » thérapeutes répondent correctement et de manière appropriée dans 93 % des cas. Les robots thérapeutiques commerciaux obtiennent des résultats encore plus faibles, parfois seulement 40 % satisfaisants.
Par exemple, un robot a répondu à un utilisateur qui venait de perdre son emploi en lui fournissant des informations sur les ponts surélevés de New York, sans se rendre compte qu'il s'agissait d'une urgence grave. Ce type d'erreur peut mettre sa vie en danger.
La thérapie ne se résume pas à des échanges. C'est une question de confiance, d'empathie et de connaissances cliniques, souligne Drevitch. L'IA ne permet pas de poser des questions, de fixer des limites ni d'évaluer les risques complexes. De plus, les robots ne peuvent pas signaler les urgences ni orienter les patients vers des services d'aide.
Il existe également un risque que les gens deviennent dépendants de ces robots et, par conséquent, retardent ou évitent l'aide professionnelle. La thérapie avec un humain permet également d'apprendre à gérer les relations réelles, ce que l'IA ne peut tout simplement pas faire.
Metro Holland