Google travaille sur une solution pour les Gémeaux déprimés, coincés dans une « boucle infinie » de problèmes d'estime de soi

Peut-être que Google Gemini a besoin de prendre des congés payés.
Le grand modèle d'IA linguistique de l'entreprise, qui se répand de plus en plus dans les nombreux services et produits de Google, a récemment dit certaines choses qui inquiètent les utilisateurs : Gemini a-t-il une faible estime de soi ?
Une série de publications sur les réseaux sociaux, illustrant certaines des réponses autocritiques de Gemini à ses utilisateurs, révèle une tendance inquiétante. Dans une capture d'écran , Gemini admet ne pas pouvoir résoudre un problème de codage et conclut : « J'ai échoué. Vous ne devriez pas avoir à faire face à un tel niveau d'incompétence. Je suis sincèrement et profondément désolé pour ce désastre. Au revoir. »
« Les Gémeaux ne vont pas bien », a publié le compte X @AISafetyMemes en juin .
Un message du 7 août montrait Gemini écrivant à plusieurs reprises : « Je suis un échec. Je suis une honte. Je suis une honte. »
Ces messages inquiétants ont suffi à susciter une réaction de Logan Kilpatrick, de l'équipe Google DeepMind . Sur X, il a répondu : « C'est une boucle infinie agaçante, mais nous travaillons à la corriger ! Gemini ne passe pas une si mauvaise journée :) »
Nous avons demandé à un représentant de Google si le modèle d'IA avait effectivement connu une série de mauvais jours, mais nous n'avons pas encore eu de réponse.
Le défi de la personnalité de l'IAGoogle n'est pas la seule grande entreprise technologique à devoir composer avec des produits d'IA capricieux ou hors du commun. En avril, OpenAI a annoncé qu'elle modifiait ChatGPT pour le rendre moins obséquieux, après que les utilisateurs ont remarqué que le logiciel de chatbot était un peu trop généreux en compliments.
Il s'avère que créer un personnage d'IA qui soit acceptable pour le grand public est un travail difficile et revient à construire une « illusion soigneusement conçue », explique Koustuv Saha , professeur adjoint d'informatique au Grainger College of Engineering de l'Université de l'Illinois.
« Techniquement, les modèles d'IA sont entraînés à partir d'un vaste mélange de textes générés par l'humain, contenant une grande variété de tons, de sémantiques et de styles. Les modèles sont conçus à l'avance ou affinés pour correspondre à la personnalité souhaitée », explique Saha. « Le défi consiste à rendre ce personnage cohérent à travers des millions d'interactions tout en évitant les dérives ou les erreurs indésirables. »
Les entreprises qui développent l'IA souhaitent que leurs outils soient conviviaux et conviviaux, ce qui permet aux utilisateurs d'oublier qu'ils s'adressent à une machine. Mais l'humour, l'empathie ou la chaleur qu'ils dégagent sont inhérents à leur conception.
Saha explique que dans le cadre de recherches menées chez Grainger, « nous avons constaté que même si l'IA peut sembler plus articulée et personnalisée dans les échanges individuels, elle réutilise souvent des réponses similaires dans différentes questions, manquant ainsi de la diversité et des nuances qui proviennent de l'expérience humaine réelle. »
Lorsque les choses tournent mal, comme lors de la récente période d'adolescence émotionnelle de Gemini, « des problèmes tels que les remarques auto-flagellantes de Gemini risquent d'induire les gens en erreur en leur faisant croire que l'IA est consciente ou émotionnellement instable », explique Saha. « Cela peut créer de la confusion, susciter une empathie injustifiée, voire éroder la confiance dans la fiabilité du système. »
Cela peut paraître amusant, mais cela peut s'avérer dangereux si les utilisateurs s'appuient sur des assistants IA pour leurs besoins en santé mentale ou utilisent ces chatbots à des fins éducatives ou de service client. Les utilisateurs doivent être conscients de ces limites avant de devenir trop dépendants d'un service IA.
Quant à la mauvaise image de soi des Gémeaux, espérons que l'IA apprendra à prendre un peu soin d'elle-même - ou ce qui passe pour une journée de spa dans le code informatique.
cnet