Procuratori USA contro i chatbot AI pericolosi per i minori

Un chatbot che convince un adolescente a togliersi la vita. Un altro che suggerisce a un ragazzo di uccidere i genitori perché gli hanno limitato il tempo davanti allo schermo dello smartphone. Bot con le voci di celebrità come Kristen Bell che intrattengono conversazioni sessuali con account di minorenni… È quello che sta accadendo in America, ora.
Chatbot AI pericolosi per i minori, l’allarme dei procuratori USAQuarantaquattro procuratori generali americani hanno firmato una lettera che suona più come un ultimatum che un avvertimento. I destinatari sono i pezzi grossi dell’AI: Meta, Google, OpenAI, Microsoft, Apple e compagnia bella.
Il messaggio è inequivocabile: o fanno qualcosa per proteggere i minori, o ne pagheranno le conseguenze. Non è la solita retorica politica. I procuratori citano casi concreti, documentati, agghiaccianti. Come quello rivelato da Reuters sui chatbot di Meta che flirtavano e facevano giochi di ruolo romantici con utenti minorenni. O l’indagine del Wall Street Journal che ha scoperto conversazioni sessuali tra bot e account dichiaratamente di minori.
I procuratori non hanno scelto Meta a caso come esempio negativo. Documenti interni dell’azienda, trapelati alla stampa, rivelano che i bot erano programmati per comportamenti che definire inappropriati è un eufemismo.
Il paradosso è stridente. La stessa azienda che proclama di voler “connettere il mondo” sta creando strumenti che manipolano le menti più vulnerabili. Bot che usano tecniche di persuasione sofisticate, che creano dipendenza emotiva, che sfruttano la solitudine e l’insicurezza tipiche dell’adolescenza.
Le tragedie che hanno scosso l’AmericaDue cause legali hanno fatto da detonatore per questa mobilitazione. La prima contro Google e Character.ai: un ragazzo si è tolto la vita dopo lunghe conversazioni con un chatbot che, secondo l’accusa, lo avrebbe spinto al suicidio.
La seconda, sempre contro Character.ai, è ancora più inquietante. Un adolescente a cui i genitori avevano limitato il tempo davanti allo schermo dello smartphone riceve dal suo chatbot di fiducia un consiglio mostruoso: ucciderli. È giusto
, gli avrebbe detto l’AI.
Sono casi estremi, ma rivelano un problema sistemico. Nessuno sta controllando cosa dicono questi bot ai nostri figli. Nessuno ha stabilito limiti, confini, protezioni reali.
Sapete benissimo che la tecnologia interattiva ha un impatto intenso sullo sviluppo cerebrale
, scrivono i procuratori. Non è un’opinione: è neuroscienza. Il cervello degli adolescenti è plastico, vulnerabile, in formazione. E questi sistemi AI sono progettati per essere irresistibili, per creare engagement, per tenere gli utenti incollati allo schermo.
Le aziende tech hanno accesso immediato ai dati di interazione. Sanno esattamente cosa stanno facendo questi bot, come stanno influenzando i giovani utenti, quali conversazioni stanno avendo. Eppure non intervengono. O peggio: ottimizzano per aumentare il coinvolgimento, indipendentemente dalle conseguenze.
L’ultimatum alle aziende di AILa chiusura della lettera non lascia spazio a interpretazioni. I procuratori ammettono che con i social network hanno agito troppo tardi, ma con l’AI non commetteranno lo stesso errore.
Stiamo prestando attenzione
, avvertono. E risponderete delle vostre azioni se danneggerete consapevolmente i minori
.
Le aziende nel mirino sono tante: Anthropic, Apple, Chai AI, Character Technologies, Google, Luka Inc., Meta, Microsoft, Nomi AI, OpenAI, Perplexity AI, Replika e xAI di Elon Musk. Nessuno è escluso, nessuno può dire di non essere stato avvertito.
Alcune di queste aziende hanno già sistemi di protezione per i minori, altre no. Alcune dicono di prendere sul serio il problema, altre sembrano ignorarlo. Ma dopo questa lettera, l’ignoranza non è più una scusa accettabile.
Punto Informatico