Probabilmente stai usando male l’intelligenza artificiale (e non lo sai)

Nel pieno di un dibattito sempre più acceso su come algoritmi e reti neurali plasmino la vita quotidiana, Laura Venturini – consulente Seo e divulgatrice attenta alle ricadute sociali della tecnologia – firma un manuale che invita alla responsabilità collettiva. Il suo nuovo libro, “Prompt Mindset spiegato facile – Nell’era dell’intelligenza artificiale il vero potere è l’arte di chiedere” (Flaco Edizioni, giugno 2025), radiografa i pregiudizi nascosti nei dataset e mostra come possano tradursi in discriminazioni concrete: dai sistemi di riconoscimento facciale che sbagliano sulle persone non binarie, ai software di selezione del personale finiti sotto accusa per razzismo e ageismo.

Con la prefazione dell’avvocata e attivista Cathy La Torre, Venturini mette in primo piano il legame fra inclusività, diritti civili ed etica dell’IA, proponendo audit dei bias, coinvolgimento diretto delle comunità marginalizzate e un nuovo “mindset del prompt” che trasformi ogni interazione con la macchina in pratica di equità. Nell’intervista che segue, l’autrice racconta come sia possibile passare da richieste impartite all’IA a domande consapevoli, capaci di ampliare – anziché restringere – i confini dei diritti di tutti.
Nel libro parla di “Nothing about us, without us”: qual è stato l’insegnamento più potente che ha ricevuto direttamente da una comunità marginalizzata mentre scriveva, e come ha cambiato il suo approccio al Prompt Mindset?
“Uno degli insegnamenti più trasformativi è arrivato durante una conversazione con un’attivista neurodivergente, che mi ha detto: "Siamo stanche di essere raccontate da chi non ci conosce: anche l’intelligenza artificiale sta imparando a ignorarci". Questa frase, semplice ma potente, mi ha obbligata a rivedere il mio approccio alla progettazione dei prompt e, in generale, al rapporto tra linguaggio, potere e tecnologia. Nel mio lavoro sui bias nei sistemi generativi, avevo già osservato come molte delle risposte prodotte dagli LLM tendessero a riflettere stereotipi: sulle donne, sulle persone con disabilità, sulle minoranze etniche. Ma ascoltare in prima persona cosa significhi essere sistematicamente esclusi anche nei dataset di addestramento mi ha spinta a una svolta. Ho capito che il problema più che tecnico è di consapevolezza. Per questo nel Prompt Mindset ho voluto includere il principio Nothing about us, without us non solo come slogan, ma come pratica concreta: significa che prima di progettare un prompt che riguardi una comunità, è necessario dialogare con quella comunità. Significa rendere il prompting un esercizio di ascolto attivo, empatia e co-creazione. Nella mia metodologia, questo si traduce in una serie di domande guida: Chi parla? Chi viene ascoltato? Chi resta invisibile? E soprattutto: Come posso riformulare il prompt perché diventi uno spazio di inclusione e non di cancellazione? Questo approccio ha cambiato radicalmente il mio lavoro. Non cerco più solo il prompt “perfetto” per ottenere l’output migliore. Cerco il prompt etico, consapevole, inclusivo. E insegno a riconoscere che ogni prompt è anche una dichiarazione di intenti e un atto politico, perché plasma il modo in cui le macchine rappresentano il mondo”.
Se potesse re-immaginare da zero un assistente vocale davvero inclusivo, quale sarebbe la prima caratteristica – magari inattesa – che introdurrebbe per far sentire rappresentate persone LGBTQI+, neurodivergenti o con disabilità?
“La prima caratteristica che introdurrei sarebbe la possibilità per l’utente di "educare" attivamente l’assistente rispetto al proprio vissuto, identità e contesto comunicativo. Non parlo di un semplice profilo personalizzato, penso a un canale conversazionale strutturato in cui l’assistente chiede, ascolta e impara dalle esperienze delle persone, invece di dedurre tutto da modelli generici o da pregiudizi statistici. Immaginiamo, per esempio, un’assistente che, prima ancora di offrire risposte, chieda: "Come preferisci che mi rivolga a te? Ci sono termini che vuoi che eviti? Quali esperienze vuoi che io riconosca nel modo in cui parlo con te?". Per una persona non-binaria, questo significherebbe non dover correggere ogni volta l’assistente che insiste con pronomi sbagliati. Per una persona neurodivergente, significherebbe poter chiedere risposte meno ambigue o più schematiche. Per una persona con disabilità, significherebbe sentire un linguaggio rispettoso, aggiornato e non pietistico. In pratica, renderei l’assistente “addestrabile” dalle relazioni e dal dialogo e non solo da un set di dati, perché è nelle relazioni che si impara il rispetto. E questo processo non dovrebbe essere opzionale o "avanzato", ma parte dell'onboarding iniziale, una dichiarazione di intenti che dice: "La tua esperienza conta, aiutami a conoscerla”.
Ci fa un esempio pratico?
"Un assistente generico potrebbe rispondere a una domanda come: "Spiegami cos’è l’autismo" con una definizione clinica o un elenco di sintomi. Ma un assistente co-addestrato con l’utente potrebbe ricevere invece questo prompt, frutto di una relazione: "Spiega l’autismo a un bambino di 10 anni, usando un linguaggio rispettoso e non patologizzante, evitando la parola ‘disturbo’. Preferisco che venga presentato come una neurodivergenza, non come un deficit." Il risultato? Un contenuto più inclusivo, ma anche più accurato, più umano. Questo è il cuore del Prompt Mindset: passare da prompt comandati a prompt consapevoli. Solo così l’intelligenza artificiale può davvero diventare uno spazio di alleanza e non di alienazione”.
Davanti a un algoritmo medico che sottostima la gravità delle condizioni dei pazienti neri, quale forma di “controllo dal basso” affiderebbe ai diretti interessati per ribaltare il rapporto di potere tipico tra sviluppatori e utenti?
“Affiderei il potere di interrogare e correggere il modello attraverso interfacce pubbliche di audit conversazionale, basate su prompt narrativi costruiti dai pazienti stessi, dalle loro comunità e dalle reti di advocacy. Troppo spesso, gli algoritmi sanitari si basano su dati storici intrinsecamente distorti da decenni di razzismo sistemico nella medicina, basata storicamente sulla norma implicita dell’uomo bianco. Se questi dati non vengono decostruiti con strumenti di lettura critica, l’algoritmo non fa che amplificare l’ingiustizia con l’autorità della neutralità matematica. Per ribaltare questo squilibrio, propongo una forma di intelligenza collettiva dal basso: creare spazi dove le persone impattate, in questo caso pazienti neri, possano vedere, testare e sfidare gli output dell’algoritmo, con strumenti di parola e agency”.
Ci faccia un altro esempio.
“Immaginate una piattaforma in cui una paziente può dire: "Ho riferito dolori forti e persistenti, ma l’algoritmo ha suggerito una priorità bassa. Vorrei riformulare i dati tenendo conto del fatto che il dolore delle donne nere viene spesso sottovalutato in ambito clinico. Mostrami le differenze se la stessa segnalazione venisse da una donna bianca di pari età”. Questo è un prompt critico, che mette in discussione sia l’output che il contesto culturale in cui il modello è stato addestrato. E permette di evidenziare bias che altrimenti resterebbero invisibili. Il vero controllo dal basso non è solo una questione di trasparenza ma possibilità di riscrittura. Dare la possibilità di dialogare con il modello significa riconoscere che chi subisce una discriminazione ha anche la competenza per identificarla e per proporre una versione alternativa, più equa. Il prompt non è solo un comando, ma uno spazio di rivendicazione. Se il dato è politica, allora anche il prompt può diventare attivismo”.
Immagini di avere un minuto di palco alla conferenza mondiale degli sviluppatori IA: quale provocazione lancerebbe per convincerli che la diversità nei team non è solo “etica”, ma un vantaggio competitivo in termini di qualità del prodotto?
“Avete nelle mani il potere di progettare ciò che il mondo ascolterà, leggerà, imparerà. Ma vi manca qualcosa. Vi manca chi quel mondo lo vive da margine, da eccezione, da possibilità invisibile. Non basta ottimizzare un modello per la correttezza. Bisogna allargare la mente che lo immagina. La diversità non è una casella da spuntare: è l’unica tecnologia in grado di prevenire il fallimento sistemico. Perché un algoritmo allenato solo sulla norma, fallisce quando incontra la realtà. E la realtà non è mai una media. Portate nei vostri team persone che vedono l’errore prima che diventi danno. Che leggono tra le righe perché vivono negli spazi bianchi. Non fate solo intelligenze artificiali. Fate spazio all’intelligenza umana. Quella radicale, molteplice, scomoda. Quella che cambia davvero il mondo. Perché i prodotti che funzionano davvero nascono quando chi progetta smette di pensare per sé e inizia a costruire per tutti”.
Luce