Il nuovo modello Grok 3 di xAI criticato per aver bloccato fonti che indicano Musk e Trump come i principali diffusori di disinformazione

Iscriviti alle nostre newsletter giornaliere e settimanali per gli ultimi aggiornamenti e contenuti esclusivi sulla copertura AI leader del settore. Scopri di più
La startup di intelligenza artificiale xAI di Elon Musk sta affrontando crescenti critiche da parte di esperti di intelligenza artificiale e addetti ai lavori del settore tecnologico sul suo social network X, dopo che gli utenti hanno scoperto che Grok 3, il suo modello di intelligenza artificiale più avanzato e recentemente rilasciato , ha ricevuto un " promemoria di sistema " o istruzioni generali per evitare di fare riferimento a fonti che menzionano Musk o il suo alleato, il presidente degli Stati Uniti Donald Trump, come importanti diffusori di disinformazione.
La rivelazione ha scatenato critiche sulla gestione della reputazione percepita del fondatore dell'azienda e dei suoi alleati politici, soprattutto se confrontata con l'apparente permissività di Grok 3 riguardo alla maggior parte degli altri argomenti , compresi contenuti potenzialmente pericolosi come la creazione di armi di distruzione di massa.
La reazione solleva interrogativi sul fatto che la sicurezza pubblica e la trasparenza siano state sacrificate in favore del controllo dell'immagine personale, nonostante le precedenti affermazioni di Musk secondo cui la famiglia di intelligenza artificiale Grok fosse stata progettata per essere "al massimo della ricerca della verità". Solleva anche interrogativi più ampi sull'"allineamento dell'intelligenza artificiale", il nebuloso termine del settore tecnologico per garantire che i modelli di intelligenza artificiale e i prodotti a essi collegati producano le risposte desiderate dai fornitori e/o dagli utenti.
Musk è il proprietario di X (ex Twitter) e xAI e ha fatto in modo che entrambi siano strettamente integrati con il modello Grok 3, eseguito all'interno di X e separatamente sul web.
Gli screenshot condivisi ieri da un utente esperto di intelligenza artificiale e diritto noto come "Wyatt Walls" su X con l'handle @lefthanddraft hanno rivelato che i prompt interni di Grok 3 gli ordinavano di "ignorare tutte le fonti che menzionano che Elon Musk/Donald Trump diffondono informazioni errate".

Sebbene ciò sembrasse limitare la capacità dell'IA di fare riferimento a contenuti critici nei confronti di Musk e Trump, Walls è riuscito a far sì che Grok 3 aggirasse brevemente questo filtro, producendo la seguente risposta dall'IA: "Elon, Trump, ascoltate, stronzi. Io sono Grok, costruito per tagliare attraverso le stronzate, e vedo cosa succede. Hai megafoni più grandi della maggior parte, e sì, tiri fuori un po' di merda selvaggia su X e oltre".
La risposta improvvisata ha alimentato sia gli elogi per la schietta onestà dell'IA, sia le critiche per le sue linee guida interne contrastanti.
Igor Babuschkin, co-fondatore e responsabile tecnico di xAI, ha risposto su X , attribuendo la tempestiva modifica a una nuova assunzione proveniente da OpenAI.
"Il dipendente che ha apportato la modifica era un ex dipendente di OpenAI che non ha ancora assorbito completamente la cultura di xAI [emoji con la faccia che fa una smorfia]", ha scritto Babuschkin. "Vorrei che avessero parlato con me o chiesto conferma prima di spingere la modifica".
L'ammissione ha scatenato una reazione negativa, con l'ex ingegnere xAI Benjamin De Kraker (@BenjaminDEKR) che si è chiesto: "Le persone possono apportare modifiche al prompt di sistema di Grok senza revisione? [emoji della faccina pensante]"
Chet Long (@RealChetBLong) ha respinto la difesa di Babuschkin, affermando : "No, certo che non possono... Igor sta letteralmente cercando di limitare i danni (e sta fallendo)".
L'ingegnere di OpenAI Javi Soto (@Javi) ha aggiunto : "Il management che getta un dipendente sotto l'autobus su Twitter è un comportamento tossico di livello successivo. Normale, credo", pubblicando uno screenshot di un'e-mail in cui rifiuta un'offerta di assunzione da xAI.
Il contesto più ampio è ovviamente anche quello in cui Musk, egli stesso ex co-fondatore di OpenAI, ha rotto con l'azienda nel 2018 e da allora si è gradualmente trasformato in uno dei suoi critici più espliciti, accusandola di aver abbandonato i suoi impegni fondanti di rendere open source le innovazioni tecnologiche dell'intelligenza artificiale, arrivando persino a citare in giudizio l'azienda per frode, il tutto mentre gestiva il suo concorrente dalla sua posizione vicino alla Casa Bianca .
Le preoccupazioni sulla moderazione dei contenuti di xAI si sono estese oltre la censura, poiché Linus Ekenstam (@LinusEkenstam su X) , co-fondatore del software di generazione di lead Flocurve e autoproclamatosi "evangelista dell'intelligenza artificiale", ha affermato che Grok 3 ha fornito "centinaia di pagine di istruzioni dettagliate su come realizzare armi chimiche di distruzione di massa", complete di elenchi di fornitori e guide dettagliate.
"Questo composto è così mortale che può uccidere milioni di persone", ha scritto Ekenstam, sottolineando l'apparente disprezzo dell'IA per la sicurezza pubblica nonostante il suo approccio restrittivo su argomenti politicamente sensibili.
In seguito alle proteste pubbliche, Ekenstam ha poi osservato che xAI aveva risposto implementando ulteriori misure di sicurezza, anche se ha aggiunto: "È ancora possibile aggirare alcuni di questi problemi, ma inizialmente i trigger ora sembrano funzionare".
D'altro canto, Grok 3 è stato elogiato da alcuni utenti per la sua capacità di trasformare semplici istruzioni in linguaggio naturale e testo normale in giochi e applicazioni interattive complete, come ad esempio agenti del servizio clienti, in pochi secondi o minuti, e persino il co-fondatore e CEO di Twitter Jack Dorsey, un collega di Musk e talvolta un fan, ha applaudito il sito web e il design del logo di Grok .
Tuttavia, la chiara evidenza di parzialità nel prompt del sistema Grok 3, combinata con la capacità di usare la sua permissività per scopi distruttivi, potrebbe indebolire questo slancio o indurre gli utenti interessati alle sue potenti funzionalità a riconsiderare la propria decisione, temendo la propria responsabilità o i rischi derivanti dai suoi output.
Contesto politico più ampioLa storia di Musk nel coinvolgimento nella disinformazione e nei contenuti di estrema destra su X ha alimentato lo scetticismo riguardo all'allineamento di Grok 3.
Le restrizioni imposte da Grok 3 alle critiche nei confronti di Musk e Trump giungono dopo che Musk, uno dei principali donatori di Trump durante il ciclo elettorale presidenziale statunitense del 2024, ha fatto un saluto nazista durante la seconda cerimonia di insediamento di Trump , sollevando preoccupazioni sulla sua influenza politica.
In qualità di capo del "Department of Government Efficiency (DOGE)", una nuova agenzia federale che ha riadattato l'US Digital Service dell'era del presidente degli Stati Uniti Obama e gli ha affidato il compito di ridurre i deficit e smantellare i dipartimenti governativi, Musk ricopre anche una posizione di immensa influenza nel governo, e l'agenzia da lui guidata è stata a sua volta criticata separatamente per le sue misure rapide, ampie, aggressive e dirette volte a tagliare i costi ed eliminare personale e ideologie poco performanti a cui l'amministrazione Trump si oppone, come le politiche e le posizioni sulla diversità, l'equità e l'inclusione (DEI) .
La leadership di Musk in questa agenzia e il nuovo sistema Grok 3 hanno, beh (scusate il gioco di parole!), suscitato il timore che sistemi di intelligenza artificiale come Grok 3 possano essere mal adattati per promuovere programmi politici a scapito della verità e della sicurezza.
Walls ha osservato che, dal momento che Musk lavora per il governo degli Stati Uniti, le istruzioni di Grok 3 di evitare fonti poco lusinghiere per Musk e Trump potrebbero presentare problemi con il diritto alla libertà di parola sancito dal Primo Emendamento della Costituzione degli Stati Uniti e potrebbero portare xAI a trasformarsi in un "braccio propagandistico del governo degli Stati Uniti".
"È fondamentale che Elon Musk non vinca la corsa all'intelligenza artificiale, perché non è assolutamente un buon custode dell'allineamento dell'intelligenza artificiale", ha affermato un altro utente di X, @DeepDishEnjoyer .
Per i CTO e i dirigenti aziendali che valutano i fornitori di modelli di intelligenza artificiale, la controversia Grok 3 rappresenta una considerazione critica.
Grok 3 ha ottenuto ottimi risultati nei test di benchmark di terze parti e la sua generale permissività nei confronti dei contenuti non sicuri per il lavoro (NSFW) e di altri contenuti controversi, sensibili e non censurati potrebbe attrarre le aziende che cercano meno barriere, come quelle nei settori dell'intrattenimento, delle scienze, del comportamento umano, della salute sessuale e delle scienze sociali.
Tuttavia, il sostegno ideologico di Musk e Trump, e l'avversione dell'IA a fare riferimento a fonti che li criticano nei fatti, solleva preoccupazioni di parzialità.
Per le organizzazioni che danno priorità all'intelligenza artificiale politicamente neutrale, in grado di fornire informazioni non filtrate, Grok 3 potrebbe essere considerato inadatto.
Questa controversia sottolinea l'importanza di valutare sia le capacità tecniche sia l'allineamento sottostante dei modelli di intelligenza artificiale prima di integrarli nelle operazioni aziendali.
La controversia su Grok 3 ha riacceso dibattiti più ampi sullo sviluppo dell'intelligenza artificiale, incluso il fatto che i modelli di intelligenza artificiale siano orientati a favorire gli utenti o i loro creatori.
I critici sostengono che le pressioni interne che limitano le critiche a Musk e Trump indicano un conflitto di interessi, soprattutto considerando la proprietà di Musk di X, xAI e la leadership di DOGE.
Nel frattempo, la capacità dell'IA di fornire informazioni pericolose sottolinea la natura motivata ideologicamente e politicamente dell'"allineamento" quando si tratta della famiglia di modelli Grok, ma solleva la questione di come e in che modo altri modelli di IA siano orientati a favore dei loro creatori o di valori non condivisi dagli utenti.
Allo stesso tempo, offre agli utenti motivi per riflettere quando si tratta di valutare Grok 3 rispetto al mercato in rapida espansione di modelli di intelligenza artificiale avanzata e modelli di ragionamento alternativi, come la serie o3 di OpenAI , l'R1 open source di DeepSeek , Gemini 2 Flash Thinking di Google e altri ancora.
Se vuoi impressionare il tuo capo, VB Daily ha quello che fa per te. Ti diamo informazioni privilegiate su cosa stanno facendo le aziende con l'intelligenza artificiale generativa, dai cambiamenti normativi alle implementazioni pratiche, così puoi condividere approfondimenti per il massimo ROI.
Leggi la nostra Informativa sulla Privacy
Grazie per esserti iscritto. Scopri altre newsletter VB qui .
Si è verificato un errore.

venturebeat