Il cofondatore di Ethereum Vitalik Buterin ha lanciato l'allarme sui rischi associati all'intelligenza artificiale superintelligente e sulla necessità di un forte meccanismo di difesa.
I commenti di Buterin arrivano in un momento in cui con il rapido sviluppo dell’intelligenza artificiale, le preoccupazioni sulla sicurezza dell’intelligenza artificiale sono cresciute in modo significativo.
Piano di regolamentazione dell'IA di Buterin: responsabilità, pulsanti di pausa e controllo internazionale
In un post sul blog datato 5 gennaio, Vitalik Buterin ha delineato la sua idea alla base del "d/acc o accelerazione difensiva", secondo cui la tecnologia dovrebbe essere sviluppata per difendere piuttosto che causare danni. Tuttavia, questa non è la prima volta che Buterin parla dei rischi associati all’intelligenza artificiale .
“Uno dei modi in cui l’intelligenza artificiale sbagliata potrebbe peggiorare il mondo è (quasi) il peggiore possibile: potrebbe letteralmente causare l’estinzione umana”, ha affermato Buterin nel 2023.
Buterin ora ha dato seguito alle sue teorie dal 2023. Secondo Buterin, la superintelligenza è potenzialmente a pochi anni dall'esistenza.
“Sembra probabile che avremo tre anni fino all'AGI e altri tre anni fino alla superintelligenza. E quindi, se non vogliamo che il mondo venga distrutto o cada in una trappola irreversibile, non possiamo solo accelerare il bene, dobbiamo anche rallentare il male”, ha scritto Buterin.
Per mitigare i rischi legati all’intelligenza artificiale, Buterin sostiene la creazione di sistemi di intelligenza artificiale decentralizzati che rimangano strettamente collegati al processo decisionale umano. Garantendo che l’intelligenza artificiale rimanga uno strumento nelle mani degli esseri umani, la minaccia di esiti catastrofici può essere ridotta al minimo.
Buterin ha poi spiegato come i militari potrebbero essere gli attori responsabili di uno scenario di “sventura dell’IA”. L’uso militare dell’IA è in aumento a livello globale, come si è visto in Ucraina e Gaza. Buterin ritiene inoltre che qualsiasi regolamentazione sull’intelligenza artificiale che entri in vigore molto probabilmente esonererebbe i militari, il che li rende una minaccia significativa.
Il cofondatore di Ethereum ha ulteriormente delineato i suoi piani per regolamentare l'utilizzo dell'intelligenza artificiale . Ha affermato che il primo passo per evitare i rischi associati all’intelligenza artificiale è rendere gli utenti responsabili.
"Mentre il collegamento tra il modo in cui un modello viene sviluppato e il modo in cui viene utilizzato non è spesso chiaro, l'utente decide esattamente come viene utilizzata l'intelligenza artificiale", ha spiegato Buterin, sottolineando il ruolo svolto dagli utenti.
Se le norme sulla responsabilità non funzionano, il passo successivo sarebbe quello di implementare pulsanti di “pausa morbida” che consentano alla regolamentazione dell’IA di rallentare il ritmo di progressi potenzialmente pericolosi.
“L’obiettivo sarebbe quello di avere la capacità di ridurre il calcolo disponibile a livello mondiale di circa il 90-99% per 1-2 anni in un periodo critico, per dare più tempo all’umanità per prepararsi”.
Ha affermato che la pausa può essere implementata tramite la verifica e la registrazione della posizione tramite intelligenza artificiale.
Un altro approccio sarebbe quello di controllare l’hardware AI. Buterin ha spiegato che l’hardware dell’intelligenza artificiale potrebbe essere dotato di un chip per controllarlo.
Il chip consentirà ai sistemi di intelligenza artificiale di funzionare solo se riceveranno tre firme settimanali da organismi internazionali. Ha inoltre aggiunto che almeno uno degli organismi dovrebbe essere affiliato a un gruppo non militare.
Tuttavia Buterin ha ammesso che le sue strategie presentano delle falle e sono solo “tappe temporanee”.
Il post Vitalik Buterin suona l'allarme: l'intelligenza artificiale superintelligente potrebbe arrivare prima di quanto pensi sia apparso per la prima volta su BeInCrypto .