Ne partagez pas une chambre ou une vie avec le colocataire psychologue virtuel ! Les absurdités artificielles

Robots psychologues et psychothérapie avec des « personnes » virtuelles sans empathie ? Je n'arrive même pas à me sentir bien lorsque mes étudiants en psychologie évoquent cette curiosité – pas à l'unanimité – même s'il est facile de leur expliquer que tout cela n'est qu'un canular simplement parce que l'expression d'intelligence artificielle (IA) y est associée. C'est un chatbot qui délivre une série d'informations mémorisées sans contexte. Tout ce qui concerne l’IA semble intéressant, elle semble venir tout juste d’apparaître et nous avons la chance de vivre à l’ère suprême. Mais la vérité est que l’IA existe depuis le début d’Internet et depuis que nous envoyons des SMS sur nos téléphones portables.
Cependant, ce qui me dérange vraiment, c’est l’idée que des financements scientifiques soient autorisés pour des projets inutiles et contraires à l’éthique, comme un robot psychologue appelé roomie . Le nom de l'invention à lui seul laisse à désirer (traduit de l'anglais, cela signifie « colocataire » ou colocataire sans relation intime). S’il y avait un financement scientifique et une approbation éthique pour ce projet, la science est perdue et les fondements de la psychologie sont compromis. Ils veulent tellement évoluer qu’ils « traduisent » au-delà de ce qui est acceptable. J'utilise précisément la forme verbale « trasladam » pour exprimer l'effet sinistre et fatal que, entièrement, un colocataire inventé peut avoir sur la vie des gens qui se laissent enchanter par le chant fallacieux de la sirène.
En fait, maintenant j'ai une lueur d'espoir : il y a peu de temps, je me suis arrêté avec mon chien géant dans la voiture (il était sur le siège arrière) et plusieurs enfants se sont approchés et ont insisté sur le fait que c'était « un faux chien », un « chien robot ». Et ils ne voulaient pas le toucher, c'est pour ça. Mais ils étaient stupéfaits. Quand je les ai calmés et leur ai dit qu'ils pouvaient le « caresser » parce que c'était un vrai chien, ils ont tous couru pour le serrer dans leurs bras, parce qu'il n'était pas « faux ». J’espère que cela se produira avec les faux chatbots thérapeutes. Ne le touchez pas, ne lui faites pas confiance et éloignez-vous de ces idées.
J'ai lu quelque part, même si cela ne vaut pas la peine de citer une telle source, que les robots psychologues sont de bons alliés pour comprendre les sentiments du patient lors des consultations. Je viens d'écrire cette phrase et rien n'a de sens entre des mots comme « alliés », « comprendre », « sentiments », « consultations »... conçus dans un projet qui a été approuvé pour « l'esprit » robotique. Un esprit qui ment.
Et, en parlant de mots et de manque de connexion, en tant qu'expert en psychologie du langage et autres, je ne comprends pas comment ils (des entités renommées) ont considéré que ce projet d'IA était un exemple fructueux de modèles linguistiques avancés. Le langage est et sera toujours avant tout humain car c’est là que réside le sens. Nous pouvons programmer et nourrir les robots avec nos programmes de langage neuronal, mais nous ne pouvons pas vouloir être un Icare avare en matière de soins de santé mentale.
Maintenant, quand je lis des obscénités sur la connaissance comme un robot « comprenant les sentiments », je n’ai pas envie de continuer et d’imaginer quelle prescription le psychologue recommande au patient ou à l’utilisateur. Et, par prescription, comprenez que ce n'est pas du tout médicamenteux. Pour cela, il faut encore autoriser le financement d’un robot psychiatrique.
Les algorithmes ne déterminent pas comment identifier, traiter et conseiller dans le domaine de la santé mentale. Il n’y a pas de « molécule » d’empathie dans les algorithmes. Et comment programmer la conscience empathique ? Je n’ai même pas besoin de me sentir menacé par mes collègues qui, travaillant comme psychologues et psychothérapeutes, ont peur de l’IA. Vous n’avez pas peur de quelque chose qui ne sait pas prendre soin de qui que ce soit. C'était pire quand j'ai lu que ce Rommie veut se présenter comme un spécialiste avec dix ans d'expérience et veut aussi pouvoir travailler en psychanalyse. Nous assisterons à un holocauste de la psyché humaine d’ici la fin de 2025 (date prévue pour Rommie ). Cet article n’est pas seulement une opinion, mais un conseil pour éviter les modes déraisonnables en matière d’IA. Ne cherchez pas de colocataires comme ce « colocataire » car les économies sur les « vraies » consultations n'existent pas.
sapo