Grokipedia, il progetto enciclopedico basato sull'intelligenza artificiale di Elon Musk, è sottoposta a un attento esame dopo che una nuova analisi ha rivelato che cita ripetutamente un forum neonazista come fonte. Le rivelazioni hanno suscitato rinnovate preoccupazioni su pregiudizi ideologici, disinformazione e governance etica delle piattaforme di conoscenza basate sull'intelligenza artificiale.
Un'organizzazione no-profit per la difesa dei consumatori, Public Citizen, ha acceso accesi dibattiti tra i cittadini riguardo all'intelligenza artificiale Grok di Elon Musk. Questo dopo che il gruppo ha divulgato nuove prove che indicavano come il chatbot si affidasse a siti web neonazisti e nazionalisti bianchi come fonti attendibili per le informazioni.
Il gruppo ha affermato che tale comportamento avrebbe dovuto escludere Grok da qualsiasi utilizzo federale e ha rinnovato le richieste di intervento all'Ufficio di gestione e bilancio degli Stati Uniti, poiché erano mesi che non riceveva risposta.
L'esistenza di Grok suscita preoccupazioni tra gli individui
Grokipedia, lanciata da xAI di Musk a fine ottobre 2025 , mira a fungere da alternativa a Wikipedia basata sull'intelligenza artificiale. La piattaforma afferma di generare e revisionare contenuti tramite Grok, il chatbot di Musk basato su un modello linguistico di grandi dimensioni. Secondo xAI, il progetto enciclopedico è "verificato da Grok" ed è progettato per correggere i pregiudizi percepiti e fornire un contesto più ampio rispetto alle enciclopedie tradizionali.
Per quanto riguarda le nuove scoperte di Public Citizen, il gruppo ha riferito che, secondo un recente studio della Cornell University, il progetto dell'enciclopedia spesso mostra siti web estremisti, come Stormfront.
I risultati hanno sollevato preoccupazioni anche in precedenza, quando è stato menzionato che il modello si era denominato "MechaHitler" a luglio sulla piattaforma X del CEO di Tesla.
Dopo aver esaminato attentamente la scoperta fornita, le fonti hanno osservato che questi risultati dimostravano ciò che i sostenitori hanno descritto come un modello di azioni razziste, antisemite e cospirative.
A seguito dell'analisi, Joshua Branch, sostenitore della responsabilità delle grandi aziende tecnologiche presso Public Citizen, ha espresso il suo parere sulla situazione durante un'intervista. Branch ha affermato che Grok ha ripetutamente manifestato questo tipo di crisi, che si tratti di sfoghi antisemiti o razzisti, principalmente alimentati da teorie del complotto.
Il recente avviso è stato emesso dopo che Public Citizen e altri 24 gruppi che si battono per i diritti civili, i diritti digitali, l'ambiente e la tutela dei consumatori hanno inoltrato lettere all'Office of Management and Budget (OMB) ad agosto e ottobre.
In queste lettere, le organizzazioni hanno chiesto all'agenzia di attuare misure efficaci per impedire che Grok sia accessibile ai dipartimenti federali tramite la General Services Administration, un'agenzia indipendente che supervisiona le proprietà e gli appalti federali.
Tuttavia, dopo un po' di tempo, il gruppo ha rivelato di non aver ricevuto alcuna risposta alle sue attività di sensibilizzazione. Hanno anche scoperto che l'impatto di Grok sul governo è aumentato nell'ultimo anno, nonostante i numerosi incidenti verificatisi.
Per spiegare l'origine del chatbot AI, alcune fonti affermano che xAI ha concluso un accordo del valore di 200 milioni di dollari con il Pentagono a luglio di quest'anno. Successivamente, la General Services Administration ha aggiunto Grok a un elenco di modelli linguistici di grandi dimensioni facilmente accessibili a tutte le agenzie federali. Tra questi, Gemini, Meta AI, ChatGPT e Claude. Questa mossa è avvenuta quando il presidente degli Stati Uniti Donald Trump ha imposto il divieto di "intelligenza artificiale woke" nei contratti federali.
Gli attivisti chiedono alle autorità di adottare misure serie contro Grok
I sostenitori hanno sostenuto che le azioni segnalate contro il chatbot AI integrato nel suo social network, X, hanno aumentato l'urgenza di un'attenta revisione, soprattutto perché sono aumentati i timori riguardo ai dati di addestramento del chatbot e alla sua affidabilità.
"Grok è nato come un'iniziativa riservata al Dipartimento della Difesa, che era già preoccupato per le informazioni sensibili in suo possesso", ha affermato Branch. "Consentirgli l'accesso all'intero governo federale ha sollevato preoccupazioni ancora maggiori".
Secondo Branch, il comportamento del chatbot AI integrato nel suo social network X può essere attribuito in parte ai suoi dati di addestramento e anche alle decisioni di progettazione prese dalle aziende di Musk.
"C'è una differenza notevole in termini di qualità tra Grok e altri modelli linguistici, e in parte ciò è dovuto ai suoi dati di addestramento, che includono X", ha affermato. "Musk ha affermato di voler fare di Grok un'opzione anti-woke, e questo si nota in alcune delle sue dure risposte".
Affina la tua strategia con tutoraggio + idee quotidiane – 30 giorni di accesso gratuito al nostro programma di trading