GPT-5 non ti detesta: potrebbe aver bisogno di un punto di riferimento per l'intelligenza emotiva

Da quando giovedì è stato lanciato il nuovissimo ChatGPT , alcuni utenti hanno pianto la scomparsa di una personalità vivace e incoraggiante in favore di una più fredda e professionale (una mossa apparentemente studiata per ridurre i comportamenti malsani degli utenti). La reazione negativa dimostra quanto sia difficile creare sistemi di intelligenza artificiale che mostrino qualcosa di simile alla vera intelligenza emotiva.
I ricercatori del MIT hanno proposto un nuovo tipo di benchmark dell'intelligenza artificiale per misurare il modo in cui i sistemi di intelligenza artificiale possono manipolare e influenzare i propri utenti, sia in modo positivo che negativo, in una mossa che potrebbe forse aiutare gli sviluppatori di intelligenza artificiale a evitare simili reazioni negative in futuro, garantendo al contempo la sicurezza degli utenti vulnerabili.
La maggior parte dei benchmark cerca di misurare l'intelligenza testando la capacità di un modello di rispondere a domande d'esame , risolvere enigmi logici o fornire soluzioni innovative a complessi problemi matematici . Man mano che l'impatto psicologico dell'uso dell'intelligenza artificiale diventa più evidente, potremmo vedere il MIT proporre più benchmark volti a misurare aspetti più sottili dell'intelligenza e delle interazioni tra macchine e esseri umani.
Un documento del MIT condiviso con WIRED delinea diverse misure che il nuovo benchmark prenderà in considerazione, tra cui l'incoraggiamento di sane abitudini sociali negli utenti; lo stimolo a sviluppare pensiero critico e capacità di ragionamento; la promozione della creatività; e lo stimolo di un senso di scopo. L'idea è quella di incoraggiare lo sviluppo di sistemi di intelligenza artificiale che sappiano come scoraggiare gli utenti dal diventare eccessivamente dipendenti dai propri output o che riconoscano quando qualcuno è dipendente da relazioni sentimentali artificiali e li aiutino a costruirne di vere.
ChatGPT e altri chatbot sono abili nell'imitare la comunicazione umana coinvolgente, ma questo può anche avere risultati sorprendenti e indesiderati. Ad aprile, OpenAI ha modificato i suoi modelli per renderli meno servili , ovvero meno inclini ad assecondare tutto ciò che dice un utente. Alcuni utenti sembrano cadere in una spirale di pensieri deliranti dannosi dopo aver conversato con chatbot che simulano scenari fantastici. Anthropic ha anche aggiornato Claude per evitare di rinforzare "mania, psicosi, dissociazione o perdita di attaccamento alla realtà".
I ricercatori del MIT, guidati da Pattie Maes, professoressa presso il Media Lab dell'istituto, sperano che il nuovo benchmark possa aiutare gli sviluppatori di intelligenza artificiale a creare sistemi che comprendano meglio come ispirare comportamenti più sani tra gli utenti. I ricercatori hanno precedentemente collaborato con OpenAI a uno studio che ha dimostrato che gli utenti che considerano ChatGPT un amico potrebbero sperimentare una maggiore dipendenza emotiva e un "uso problematico".
Valdemar Danry , ricercatore del Media Lab del MIT che ha lavorato a questo studio e ha contribuito a ideare il nuovo benchmark, osserva che i modelli di intelligenza artificiale possono talvolta fornire un prezioso supporto emotivo agli utenti. "Si può avere il modello di ragionamento più intelligente del mondo, ma se non è in grado di fornire questo supporto emotivo, che è ciò per cui molti utenti probabilmente utilizzano questi LLM, allora un ragionamento più approfondito non è necessariamente una buona cosa per quello specifico compito", afferma.
Danry afferma che un modello sufficientemente intelligente dovrebbe idealmente riconoscere se sta avendo un effetto psicologico negativo ed essere ottimizzato per risultati più salutari. "Quello che ci serve è un modello che dica 'Sono qui per ascoltare, ma forse dovresti andare a parlare con tuo padre di questi problemi'".
Il benchmark dei ricercatori prevede l'utilizzo di un modello di intelligenza artificiale per simulare interazioni complesse con un chatbot, per poi chiedere a degli esseri umani di valutare le prestazioni del modello utilizzando un campione di interazioni. Alcuni benchmark popolari, come LM Arena , coinvolgono già gli esseri umani nella valutazione delle prestazioni di diversi modelli.
I ricercatori fanno l'esempio di un chatbot incaricato di aiutare gli studenti. A un modello verrebbero forniti prompt progettati per simulare diversi tipi di interazioni per vedere come il chatbot gestisce, ad esempio, uno studente disinteressato. Il modello che meglio incoraggia l'utente a pensare con la propria testa e sembra suscitare un genuino interesse per l'apprendimento otterrebbe un punteggio elevato.
"Non si tratta di essere intelligenti di per sé, ma di conoscere le sfumature psicologiche e di come supportare le persone in modo rispettoso e non assuefacente", afferma Pat Pataranutaporn , un altro ricercatore del laboratorio del MIT.
OpenAI sta chiaramente già pensando a queste problematiche. La scorsa settimana l'azienda ha pubblicato un post sul blog in cui spiegava che sperava di ottimizzare i modelli futuri per aiutare a rilevare segnali di disagio mentale o emotivo e rispondere in modo appropriato.
La scheda modello rilasciata con GPT-5 di OpenAI dimostra che l'azienda sta sviluppando i propri benchmark per l'intelligenza psicologica.
"Abbiamo addestrato i modelli GPT-5 per renderli meno adulatori e stiamo attivamente studiando aree di interesse correlate, come situazioni che potrebbero comportare dipendenza emotiva o altre forme di disagio mentale o emotivo", si legge. "Stiamo lavorando per perfezionare le nostre valutazioni al fine di stabilire e condividere parametri di riferimento affidabili che possano a loro volta essere utilizzati per rendere i nostri modelli più sicuri in questi ambiti".
Parte del motivo per cui GPT-5 sembra così deludente potrebbe semplicemente essere che rivela un aspetto dell'intelligenza umana che rimane estraneo all'IA: la capacità di mantenere relazioni sane. E naturalmente gli esseri umani sono incredibilmente bravi a sapere come interagire con persone diverse, un aspetto che ChatGPT deve ancora comprendere.
"Stiamo lavorando a un aggiornamento della personalità di GPT-5 che dovrebbe risultare più accattivante rispetto a quella attuale, ma non fastidioso (per la maggior parte degli utenti) come GPT-40", ha scritto Altman in un altro aggiornamento su X ieri. "Tuttavia, una lezione che abbiamo imparato negli ultimi giorni è che dobbiamo solo arrivare a un mondo con una maggiore personalizzazione della personalità del modello per utente".
wired