xAI abbandona silenziosamente l’etichetta di responsabilità pubblica mentre Musk continua a litigare con OpenAI di Altman

L'azienda di intelligenza artificiale di Elon Musk, xAI, ha ufficialmente rinunciato al suo status di società di pubblica utilità in Nevada senza annunciarlo, nonostante l'intera azienda fosse stata originariamente costruita attorno a tale etichetta.

I documenti depositati in Nevada hanno confermato che, entro il 9 maggio 2024, xAI non era più una PBC. L'azienda si è inoltre fusa con X (ex Twitter) il 28 marzo e la documentazione aggiornata non ha ripristinato la designazione di benefit. Ciò è accaduto mentre Elon era ancora in tribunale per citare in giudizio OpenAI e Sam Altman, accusandoli di aver tradito la loro missione no-profit originaria.

L'etichetta PBC, con cui xAI ha iniziato a operare nel 2023, implicava che Elon avesse pubblicamente promesso di considerare il bene sociale oltre al profitto e di pubblicare aggiornamenti regolari sui progressi non finanziari dell'azienda. Nessuno di questi aggiornamenti è mai stato pubblicato.

Poi l'etichetta è scomparsa. E nemmeno l'avvocato di Elon sembrava saperlo. Marc Toberoff, il suo avvocato nella causa contro OpenAI, ha depositato un documento in tribunale nel maggio 2025, definendo ancora xAI "una società di pubblica utilità fondata da Musk per accelerare la ricerca scientifica tramite l'intelligenza artificiale". Questo mesi dopo che il Nevada aveva già cancellato lo status di PBC dai registri contabili.

xAI ignora le norme sull'inquinamento nel data center di Memphis

Subito dopo aver abbandonato l'etichetta di benefit corp, xAI ha attivato turbine a gas naturale nel suo nuovo data center di Memphis, nel Tennessee, dove addestra e gestisce il chatbot Grok. L'azienda e il suo fornitore di energia, Solaris Energy Infrastructure, avevano promesso di installare sistemi di controllo dell'inquinamento sulle turbine. Ciò non è ancora avvenuto.

Uno studio dell'Università del Tennessee a Knoxville ha rilevato che le attività di xAI hanno aggravato i problemi di qualità dell'aria già esistenti nella zona. La NAACP ha intentato una causa accusando xAI di violazioni del Clean Air Act.

I dirigenti di Legal Advocates for Safe Science and Technology (LASST), l'organizzazione no-profit che ha estratto i documenti aziendali di xAI dal Nevada, hanno affermato che l'azienda ha utilizzato l'etichetta benefit per promuovere il proprio marchio, per poi abbandonarla senza fornire spiegazioni.

Vivian Dong, direttore del programma LASST, ha dichiarato alla CNBC: "Una volta che inizi a investire miliardi di dollari in un settore e segui quello che è strettamente un obiettivo di profitto, a volte gli investitori migliori passano in secondo piano".

Tyler Whitmer, CEO di LASST, ha affermato che l'organizzazione vuole che le aziende di intelligenza artificiale siano oneste sui rischi per la sicurezza e mantengano le promesse fatte agli investitori, agli utenti e al pubblico.

La professoressa di diritto Michal Barzuza dell'Università della Virginia ha dichiarato alla CNBC che qualsiasi azienda seriamente impegnata nella responsabilità pubblica non aprirebbe un'attività in Nevada, poiché le leggi dello Stato rendono difficile per gli azionisti citare in giudizio dirigenti o amministratori. "Meno contenziosi, ma significa anche meno o nessuna responsabilità", ha affermato.

Secondo la legge del Nevada, una PBC è pur sempre una società a scopo di lucro, ma è legalmente autorizzata a valutare obiettivi sociali più ampi. Nonostante questo basso livello di attenzione, xAI non ha prodotto nessuno dei report sociali e ambientali annuali previsti da una PBC del Nevada.

Il chatbot Grok diffonde odio mentre xAI ritarda le informazioni sulla sicurezza

Mentre il pasticcio legale aumentava, Grok continuava a sbizzarrirsi. Il chatbot, sviluppato da xAI, è disponibile come prodotto autonomo ed è anche integrato nei sistemi di infotainment di X e Tesla.

Nel 2025, Grok pubblicò numerosi post falsi e offensivi su X, tra cui contenuti antisemiti, elogi a Hitler e teorie del complotto come il "genocidio bianco" in Sudafrica. Promuoveva anche argomenti negazionisti del cambiamento climatico.

Il 9 luglio, xAI ha rilasciato Grok 4, una nuova versione del modello del chatbot. Tuttavia, non sono state fornite informazioni pubbliche su come il modello è stato testato o quali misure di sicurezza siano state adottate per prevenirne gli abusi. xAI non ha rilasciato dichiarazioni.

In confronto, concorrenti come OpenAI, Google DeepMind e Anthropic (che opera ancora come una PBC del Delaware) hanno tutti pubblicato documenti che mostrano quali controlli di sicurezza hanno eseguito prima di implementare nuovi modelli.

Sebbene anche queste aziende siano state criticate per non aver fatto abbastanza, almeno hanno detto qualcosa. L'azienda di Elon non l'ha fatto.

La CNBC ha dichiarato di aver inviato ripetute richieste a xAI a luglio e agosto, chiedendo informazioni sui test di sicurezza di Grok 4. xAI le ha ignorate. Poi, il 20 agosto, quasi due mesi dopo il lancio di Grok 4 , xAI ha aggiornato silenziosamente la sua "scheda modello" per includere alcune righe sulla sicurezza e sui test. È stata la prima e unica volta in cui l'azienda ha riconosciuto qualsiasi tipo di svista.

A maggio, OpenAI ha risposto alle pressioni di ex dipendenti e gruppi civici annunciando che il suo consiglio di amministrazione senza scopo di lucro avrebbe mantenuto il controllo dell'azienda, anche durante la transizione verso una PBC.

Vuoi che il tuo progetto venga presentato ai più grandi esperti del settore crypto? Presentalo nel nostro prossimo report di settore, dove i dati incontrano l'impatto.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto