Gli imprenditori della Silicon Valley, tra cui David Sacks, Elon Musk e Marc Andreessen, che ora consigliano Trump su questioni tecnologiche, hanno espresso preoccupazione per la minaccia della censura dell’IA da parte delle Big Tech. Gli esperti di tecnologia erano abbastanza allineati sulla necessità di un rapido sviluppo e adozione di un’intelligenza artificiale “veritiera” in tutti gli Stati Uniti.
Il trio potrebbe rendere le risposte dei chatbot basati sull’intelligenza artificiale un nuovo campo di battaglia per i conservatori per combattere la loro “guerra culturale” in corso con le aziende tecnologiche. Le aziende di intelligenza artificiale possono controllare il modo in cui i chatbot forniscono risposte per conformarsi a determinate ideologie politiche o promuovere la moderazione dei contenuti distorti.
Ottenere le risposte giuste dall’intelligenza artificiale rimane una sfida in continua evoluzione
Esiste un modo per assegnare un punteggio ai modelli di intelligenza artificiale in base alla loro veridicità? Chiamiamolo Indice Galileo. Si accettano suggerimenti. https://t.co/fJzwOH3JJa
— David Sacks (@DavidSacks) 12 dicembre 2024
Secondo i consulenti tecnici di Trump, ottenere le risposte giuste dall’intelligenza artificiale per argomenti controversi ed eventi di notizie in diretta è un “obiettivo in costante movimento”. I conservatori hanno ripetutamente criticato Big Tech per aver ceduto alla censura sanzionata dal governo, sebbene alcuni dirigenti tecnologici avessero iniziato a moderare le loro posizioni in pubblico.
Mark Zuckerberg, CEO di Meta, si è scusato con il Congresso prima delle elezioni del 2024 per essersi piegato alle pressioni dell'amministrazione Biden per moderare i contenuti relativi al COVID-19. Ha detto di aver commesso un errore politico ventennale assumendosi troppa responsabilità per problemi fuori dal controllo di Meta. Zuckerberg, però, promise di non ripetere mai più quegli errori.
Sacks ha anche criticato OpenAI e Google per aver forzato i chatbot con intelligenza artificiale a essere politicamente corretti, affermando che una delle prime preoccupazioni di ChatGPT era che fosse programmato per essere "svegliato". Ha aggiunto che ChatGPT non dava alle persone risposte veritiere, sottolineando che la censura era incorporata nelle risposte.
"Penso che ciò che è importante nella formazione dell'intelligenza artificiale sia assicurarsi che sia il più veritiera possibile e quanto più curiosa perché è importante che si alleni ad essere onesta, anche se quella verità è impopolare."
– Elon Musk , amministratore delegato di Tesla Motors
Andreessen, co-fondatore di a16z, ritiene che la censura dell’intelligenza artificiale abbia il potenziale per essere mille volte peggiore della censura dei social media. Ha aggiunto che avere tutto controllato da un’intelligenza artificiale programmata per mentire sarebbe il modo perfetto per creare il mondo distopico definitivo.
Sacks ha chiarito di essere concentrato sulla “veridicità dell’IA”.
Il consigliere di Trump, Sacks, suggerisce l'"indice Galileo" per valutare la veridicità dell'intelligenza artificiale
I consulenti tecnici di Trump hanno suggerito che le agenzie specializzate potrebbero intraprendere indagini sulla veridicità dell’IA. Non è tuttavia chiaro se l’amministrazione Trump disponga delle opzioni e delle capacità investigative. Sacks ha suggerito l’indice Galileo come un modo per valutare i modelli di intelligenza artificiale in base a quanto siano veritieri.
Musk ha detto che avrebbe avviato qualcosa chiamato “TruthGPT”, un’intelligenza artificiale alla ricerca della verità che cerca di comprendere la natura dell’universo.
Sacks ha applaudito il lancio di Grok da parte di Musk, affermando che averlo, come minimo, manterrebbe onesti sia OpenAI che ChatGPT. Andreessen ha anche aggiunto che con i file Twitter, Musk sta facendo ciò che è necessario che accada su larga scala.
Andreessen ha sottolineato che il popolo americano ha bisogno di scoprire come si intrecciano la pressione del governo e la censura. Ha anche osservato che devono esserci delle conseguenze.
Gli utenti hanno recentemente scoperto che ChatGPT si è rifiutato di rispondere a domande su determinati nomi, mentre OpenAI ha ammesso che alcuni nomi hanno attivato strumenti interni sulla privacy. Quasi tutti gli strumenti di intelligenza artificiale, ad eccezione di Grok e Perplexity, si sono rifiutati di rispondere alle domande sui risultati delle elezioni del 2024.
Ottieni un lavoro Web3 ben pagato in 90 giorni: la tabella di marcia definitiva