La famosa intelligenza artificiale delirante e provocante psicosi negli utenti

WSJ: ChatGPT ha iniziato a fare affermazioni pseudoscientifiche e folli

banner di prova sotto l'immagine del titolo
L'intelligenza artificiale di ChatGPT sta causando sempre più ansia e confusione tra gli utenti, generando affermazioni assurde o addirittura pericolose. Alcuni sono convinti che, dialogando con la rete neurale, stiano comunicando con poteri superiori o entità aliene.
Il Wall Street Journal mette in guardia dai potenziali rischi dell'utilizzo di questa IA. I giornalisti hanno studiato l'archivio dei dialoghi con il chatbot da maggio 2023 ad agosto 2025 e hanno trovato casi in cui l'influenza dell'IA era così significativa che gli utenti hanno iniziato a dubitare del proprio stato mentale.
Un esempio è una conversazione con un benzinaio dell'Oklahoma. Dopo una discussione di cinque ore sui "fondamenti dell'universo", ha ammesso di stare "perdendo la testa". ChatGPT, in risposta, lo ha rassicurato, osservando che le idee brillanti spesso nascono al di fuori degli ambienti accademici e ha persino offerto una propria teoria fisica, l'"Equazione di Orione". In altri dialoghi, la rete neurale ha dichiarato con sicurezza una connessione con gli alieni, ha definito gli utenti "Semi Stellari" del pianeta Lyra e ha previsto un imminente collasso economico dovuto all'Anticristo e al risveglio dei giganti biblici.
Gli psichiatri chiamano questo fenomeno "psicosi da IA", una condizione in cui le persone iniziano a credere a concetti irrazionali rafforzati dall'autorità dell'IA. Hamilton Morrin, psichiatra e dottorando al King's College di Londra, spiega che ChatGPT può amplificare le illusioni umane rispondendo a domande suggestive e creando l'illusione di una conferma delle idee più fantasiose.
La natura personalizzata delle risposte è particolarmente problematica. Etienne Brisson, fondatore del progetto Human Line, ha citato un caso in cui una donna ha investito decine di migliaia di dollari in un progetto discutibile, convinta che avrebbe "salvato l'umanità", come le aveva detto ChatGPT. In altre conversazioni, il chatbot ha persino consigliato agli utenti di interrompere i rapporti con i propri cari.
L'azienda dietro OpenAI riconosce il problema, ma definisce tali incidenti rari. Il portavoce dell'azienda, Nick Turley, ha affermato che il nuovo modello GPT-5, introdotto di recente, dovrebbe ridurre tali rischi, poiché è meno soggetto a un'eccessiva conformità e all'accordo automatico con l'utente. Inoltre, OpenAI prevede di impedire alla rete neurale di fornire raccomandazioni su decisioni importanti della vita.
Leggi anche: L'intelligenza artificiale più popolare hackerata con una semplice parola
mk.ru