I modelli linguistici dell'intelligenza artificiale hanno il potenziale per rilevare i segnali di depressione

© Lusa

Una ricerca condotta da un team coreano indica che, nonostante questi grandi modelli linguistici (LLM) "mostrino il potenziale" per rilevare questi rischi, "è essenziale migliorare le prestazioni e la sicurezza prima dell'applicazione clinica".
Il team ha esaminato il potenziale degli LLM, ovvero sistemi di intelligenza artificiale (IA) addestrati su grandi quantità di dati, in modo da essere in grado di comprendere e generare un linguaggio naturale.
Lo stesso potenziale è dimostrato dagli "embedding", una tecnica di elaborazione del linguaggio naturale che converte il linguaggio umano in vettori matematici, anch'essa analizzata dal team.
Lo studio si è basato sui dati di 1064 pazienti psichiatrici di età compresa tra 18 e 39 anni, che hanno completato una serie di test di autovalutazione e di frasi incomplete.
I test delle frasi incomplete consistono nel fornire al paziente una serie di frasi incomplete da completare con la prima cosa che gli viene in mente e fornire informazioni soggettive, ad esempio, sul suo concetto di sé o sulle sue relazioni interpersonali.
I dati sono stati elaborati da modelli LLM come GPT-4, Gemini 1.0 Pro o Google Deepmind e da modelli di incorporamento di testo come OpenAI text-embedding-3-large.
La ricerca afferma che questi modelli "hanno dimostrato il loro potenziale nella valutazione dei rischi per la salute mentale", tra cui stress e suicidio, "a partire dai dati narrativi dei pazienti psichiatrici".
Alberto Ortiz, dell'Ospedale Universitario La Paz (Madrid), ha commentato lo studio, a cui non ha partecipato, e ha sottolineato che è stato condotto su pazienti già sottoposti a trattamento psichiatrico, per cui la generalizzazione dei risultati per applicare questa metodologia al rilevamento dei rischi nella popolazione generale "non è possibile, al momento".
Ortiz ha dichiarato al Science Media Centre, una piattaforma di risorse scientifiche, che l'applicazione dell'intelligenza artificiale alla salute mentale dovrà in ogni caso concentrarsi sulle narrazioni soggettive delle persone, come avviene in questa ricerca.
Tuttavia, ha ritenuto che "una cosa è individuare i rischi ed effettuare screening, un'altra è curare le persone con sofferenza mentale, un compito che va oltre l'applicazione di una soluzione tecnologica e in cui la soggettività del professionista è essenziale per sviluppare il legame terapeutico".
Leggi anche: I primi occhiali intelligenti di Apple arriveranno nel 2026, afferma Bloomberg
noticias ao minuto