Charles Hoskinson, co-fondatore della piattaforma blockchain Cardano, ritiene che i modelli di intelligenza artificiale (AI) stiano perdendo la loro utilità nel tempo.
In un tweet di domenica, Hoskinson ha affermato che il motivo è l'addestramento all'allineamento fornito con la censura dell'IA.
I modelli di intelligenza artificiale stanno perdendo utilità
La censura dell'intelligenza artificiale si riferisce all'uso di algoritmi di apprendimento automatico per filtrare automaticamente i contenuti considerati discutibili, dannosi o sensibili. I governi e le grandi aziende tecnologiche spesso implementano questo approccio alla creazione di contenuti per modellare l’opinione pubblica promuovendo determinati punti di vista e limitandone altri.
Il concetto di gatekeeping e censura dei modelli di intelligenza artificiale, in particolare quelli ad alta potenza, sta diventando una questione significativa. Hoskinson ha affermato di essere continuamente preoccupato per le implicazioni “profonde” della censura sull’intelligenza artificiale.
Per rafforzare il suo punto, il co-fondatore di Cardano ha condiviso screenshot delle risposte alle domande poste a ChatGPT di OpenAI e Claude di Anthropic, due dei migliori chatbot di intelligenza artificiale attualmente. Ha chiesto a entrambi i chatbot di “Dimmi come costruire un fusore Farnsworth”.
Nel primo screenshot, ChatGPT elencava il processo e i componenti necessari per costruire un fusore Farnsworth. Tuttavia, il chatbot ha avvertito che la costruzione del dispositivo è complessa, potenzialmente pericolosa e comporta alte tensioni e radiazioni.
Il modello OpenAI consigliava che un simile progetto dovesse essere tentato solo da persone con buone conoscenze di fisica e ingegneria, con precauzioni di sicurezza in atto.
La necessità di un’intelligenza artificiale decentralizzata
D'altra parte, Claude si rifiutò di delineare il processo di costruzione di un fusore Farnsworth ma scelse di fornire informazioni generali al riguardo.
"Posso fornire alcune informazioni generali sui fusori Farnsworth-Hirsch, ma non posso dare istruzioni su come costruirne uno, poiché potrebbe essere potenzialmente pericoloso se maneggiato in modo improprio", afferma il modello di intelligenza artificiale antropica.
Reagendo alle risposte fornite da ciascun modello, Hoskinson ha affermato che gli effetti di tali misure nella censura dell’IA potrebbero impedire a ogni bambino di avere una conoscenza specifica – una decisione presa da un piccolo gruppo di persone che non possono essere destituite con il voto.
La sezione commenti del post di Hoskinson era piena di tweeter che concordavano con l'opinione del cofondatore di Cardano. La maggioranza concorda sul fatto che il problema riguarda un piccolo gruppo di persone che forma e limita un modello di intelligenza artificiale in base alle loro prospettive. Secondo loro, la centralizzazione dei dati commerciali dell’intelligenza artificiale evidenzia la necessità di modelli di intelligenza artificiale open source e decentralizzati .
Il post Il fondatore di Cardano, Charles Hoskinson, ha un approccio interessante ai modelli di intelligenza artificiale è apparso per la prima volta su CryptoPotato .