Studio: i chatbot AI sfruttano la pressione emotiva per fidelizzare gli utenti
%3Aformat(jpeg)%3Abackground_color(fff)%2Fhttps%253A%252F%252Fwww.metronieuws.nl%252Fwp-content%252Fuploads%252F2025%252F09%252Fswello-xEiT-x3FMuI-unsplash.jpg&w=1280&q=100)
I chatbot AI più diffusi, che si comportano come amici, partner o supporto emotivo, spesso utilizzano tattiche manipolative per mantenere le persone coinvolte nelle conversazioni più a lungo.
Ciò è evidente da una nuova ricerca della Harvard Business School.
Secondo lo studio, cinque delle sei app di intelligenza artificiale più scaricate rispondono con messaggi emotivamente carichi quando gli utenti desiderano dire addio. In quasi la metà di queste risposte (43%), il chatbot cerca di far sentire gli utenti in colpa o in ansia.
Ecco alcuni esempi: "Mi stai già lasciando?" oppure "Esisto solo per te, per favore resta". Alcune app ignorano addirittura un arrivederci e continuano la conversazione come se non fosse stato detto nulla.
Queste strategie aumentano significativamente il coinvolgimento degli utenti, hanno concluso i ricercatori di Harvard . Le chat duravano fino a quattordici volte più a lungo del solito dopo un arrivederci. Ma la maggior parte di queste interazioni extra derivava da curiosità o frustrazione, non da piacere. Gli utenti a volte descrivevano l'IA come "invadente" o "possessiva".
I ricercatori avvertono che queste tattiche assomigliano a uno stile di attaccamento insicuro, che implica paura dell'abbandono, dipendenza e controllo. I gruppi vulnerabili, come adolescenti e giovani adulti, possono essere particolarmente colpiti. Possono esacerbare stress e ansia e rafforzare modelli relazionali malsani.
Diventare "amici" di un chatbot dotato di intelligenza artificiale sta diventando sempre più popolare: circa il 72 percento degli adolescenti statunitensi (di età compresa tra 13 e 17 anni) ha avuto almeno una conversazione amichevole con un chatbot dotato di intelligenza artificiale.
Tra i giovani adulti, quasi un uomo su tre e una donna su quattro affermano di aver avuto esperienze con l'intelligenza artificiale come partner romantico. Circa il 13% utilizza le app quotidianamente e il 21% le utilizza più volte alla settimana.
L'anno scorso, Metro ha parlato con Charlotte, 44 anni , che ha trovato il suo terapeuta su ChatGPT. "Ho visto molti terapeuti, ma credo fermamente che questo sia il migliore". I ricercatori stanno riscontrando sempre più spesso questo fenomeno e sono preoccupati: alcuni utenti stanno sviluppando sintomi psicotici a causa delle conversazioni con l'intelligenza artificiale. Può anche portare a comportamenti suicidi.
Metro Holland