Vitalik Buterin mette in guardia dal potenziale dell’intelligenza artificiale di superare l’umanità

Il co-fondatore di Ethereum Vitalik Buterin ha espresso preoccupazione per il fatto che lo sviluppo incontrollato dell'intelligenza artificiale potrebbe superare le capacità umane, trasformandola potenzialmente nella prossima "specie apicale" del pianeta.

Buterin ha approfondito le differenze fondamentali tra l’intelligenza artificiale e altre invenzioni umane, sottolineando la natura unica e potenzialmente pericolosa delle capacità in rapido progresso dell’intelligenza artificiale.

Buterin avverte che l’intelligenza artificiale sta superando l’umanità

In un post sul blog del 27 novembre, Buterin sostiene che l’intelligenza artificiale, essendo una nuova forma di intelligenza, differisce fondamentalmente dalle precedenti invenzioni umane come i social media o la stampa. La sua capacità di aumentare rapidamente la propria intelligenza rappresenta un potenziale significativo per superare le capacità cognitive umane.

In aggiunta all'urgenza del suo messaggio, il co-fondatore di Ethereum sottolinea che questa progressione potrebbe portare a scenari in cui l'intelligenza artificiale superintelligente vede l'umanità come una minaccia alla sua sopravvivenza, mettendo potenzialmente fine all'esistenza umana.

A sostegno della sua posizione, Buterin ha fatto riferimento a un sondaggio dell’agosto 2022 che ha coinvolto oltre 4.270 ricercatori di apprendimento automatico. Questo sondaggio stima una probabilità del 5-10% che l’IA porti all’estinzione umana.

Buterin si chiede anche se un mondo con IA altamente intelligenti ci soddisferebbe, affermando la potenziale instabilità dei risultati in cui diventiamo “animali domestici”.

Inoltre, sottolinea il pericolo che le IA consentano il totalitarismo sfruttando la tecnologia di sorveglianza, che i governi autoritari hanno già sfruttato per sopprimere l’opposizione.

Buterin sostiene le interfacce cervello-computer

Buterin sottolinea inoltre che, sebbene queste affermazioni siano estreme, esistono modi in cui gli esseri umani possono affermare il controllo e garantire una direzione vantaggiosa per lo sviluppo dell’intelligenza artificiale. Sostiene l'integrazione delle interfacce cervello-computer (BCI) per mitigare i pericoli.

Queste interfacce, che stabiliscono un percorso di comunicazione tra l’attività elettrica del cervello e dispositivi esterni come i computer, potrebbero ridurre significativamente il ciclo di comunicazione tra esseri umani e macchine. Ancora più importante, le BCI potrebbero garantire che gli esseri umani mantengano un’autorità significativa sull’intelligenza artificiale, riducendo il rischio che l’intelligenza artificiale agisca in modi non allineati con i valori umani.

La visione di Buterin va oltre le sole misure tecnologiche. Chiede “un’intenzione umana attiva” nel guidare lo sviluppo dell’IA verso il beneficio dell’umanità. Questo approccio contrasta con i progressi dell’intelligenza artificiale orientati esclusivamente al profitto, che potrebbero non essere sempre in linea con i risultati più desiderabili per la società umana.

Concludendo le sue riflessioni, Buterin si mantiene ottimista, affermando che l'uomo è la stella più luminosa dell'universo, avendo sviluppato per migliaia di anni una tecnologia che ha ampliato il potenziale umano, con la speranza di continuare su questa strada in futuro. Immaginava un futuro in cui le invenzioni umane, come i viaggi spaziali e la geoingegneria, avrebbero preservato la bellezza della vita terrestre per miliardi di anni.

Il post Vitalik Buterin avverte del potenziale dell'intelligenza artificiale di superare l'umanità è apparso per la prima volta su CryptoPotato .

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto