I motivi per cui l’IA potrebbe essere pericolosa per l’umanità secondo Geoffrey Hinton

L'industria delle criptovalute è stata ampiamente influenzata dal progresso della tecnologia dell'intelligenza artificiale. Più specificamente, la crescente polarità popolare dei chatbot basati su intelligenza artificiale come ChatGPT e Google Bard ha generato una sottosezione di criptovalute a tema attorno a quel campo.

C'è una miriade di monete nel mercato che ha visto una crescita esponenziale a causa del crescente interesse per l'intelligenza artificiale.

Abbiamo anche sfruttato ChatGPT su numerosi argomenti, come:

E mentre è eccitante chattare con un'intelligenza artificiale su argomenti che normalmente discuteresti con i tuoi colleghi, c'è anche un altro aspetto, e Geoffrey Hinton ne parla forte e chiaro.

Il padrino dell'intelligenza artificiale

Geoffrey Hinton è uno psicologo cognitivo e informatico britannico-canadese nato nel 1947 a Wimbledon, Londra.

È noto soprattutto per il suo lavoro sulle reti neurali artificiali ed è un ex dipendente di Google. Ha lasciato l'azienda nel maggio 2023 con una grande uscita pubblica, esprimendo le preoccupazioni del pubblico sui rischi della tecnologia dell'intelligenza artificiale (AI).

jeff_hinton
Fonte: revisione della tecnologia tramite Linda Nylind / Eyevine tramite Redux

Hinton è il primo vincitore del Premio Rumelhart nel 2001 ed è famoso a livello internazionale per il suo lavoro sulle reti neurali artificiali, in particolare in relazione a come possono essere progettate per apprendere senza la necessità di un insegnante umano. Ha anche vinto l'ACM AM Turing Award 2018 per le scoperte concettuali e ingegneristiche nel campo.

È anche comunemente indicato come uno dei padrini dell'IA. E ora, ha alcune preoccupazioni.

Abbiamo scoperto il segreto dell'immortalità, ma c'è un problema

In un'intervista per The Guardian, Hinton ha chiarito di aver lasciato Google in buoni rapporti e di non avere obiezioni su ciò che l'azienda sta facendo o ha fatto.

Nell'articolo confronta l'intelligenza biologica (cervello umano) con l'intelligenza digitale, delineando le inefficienze affrontate dalle persone. Dice che il nostro cervello funziona a bassa potenza, ma il nostro approccio è piuttosto inefficiente in termini di trasferimento di informazioni. L'intelligenza digitale, invece, è diversa.

Paghi un costo enorme in termini di energia, ma quando uno di loro impara qualcosa, lo sanno tutti, e puoi archiviare facilmente più copie. Quindi la buona notizia è che abbiamo scoperto il segreto dell'immortalità. La cattiva notizia è che non fa per noi.

In sostanza, Hinton è giunto alla conclusione che gli umani stanno costruendo un'intelligenza che ha il potenziale per superare l'umanità.

Pensavo che alla fine sarebbe successo, ma avevamo un sacco di tempo: dai 30 ai 50 anni. Non lo penso più. E non conosco nessun esempio di cose più intelligenti controllate da cose meno intelligenti”.

Per rendere il confronto più comprensibile, l'informatico ha inchiodato noi (umani) contro le rane aggiungendo anche:

E (AI) imparerà dal web, avrà letto ogni singolo libro che sia mai stato scritto su come manipolare le persone, e lo avrà anche visto in pratica".

Ex-Machina-2015-in primo piano-3
Snip dal film Ex Machina. Fonte: Movie House Ricordi

Timori per l'umanità

Citando un recente rapporto di Hinton, i rapporti delineano i potenziali pericoli della cosiddetta superintelligenza.

The Godfather of AI delinea scenari in cui un'IA può cercare di ottenere il controllo su numerosi aspetti del proprio ambiente nel tentativo di risolvere problemi complessi. Questi aspetti includono anche la manipolazione umana. Lo scienziato ritiene che l'IA non avrebbe nemmeno bisogno di un obiettivo esplicito di raggiungere il potere o la distruzione per sfruttare la sua capacità di imitare il comportamento umano.

Tuttavia, non è tutto negativo e negativo. Crede che ci siano modi per mitigare scenari catastrofici, ma è anche dell'opinione che abbiamo superato il punto di non ritorno e fermare lo sviluppo dell'IA è assolutamente impossibile, né che dovrebbe essere fermato.

Penso che dovremmo continuare a svilupparlo perché potrebbe fare cose meravigliose. Ma dovremmo impegnarci allo stesso modo per mitigare o prevenire le possibili conseguenze negative.

Quanto siamo vicini a quelle cattive conseguenze? Più vicino di quanto tu possa pensare.

Al momento ho un'enorme incertezza. È possibile che i grandi modelli linguistici, avendo consumato tutti i documenti sul web, non siano in grado di andare molto oltre se non riescono ad accedere anche a tutti i nostri dati privati. Non voglio escludere cose del genere, penso che le persone che hanno fiducia in questa situazione siano pazze.

Il modo giusto di pensare alle probabilità di un disastro è più vicino a un semplice lancio di una moneta di quanto vorremmo.

Pensieri di chiusura

È probabile che l'intelligenza artificiale svolga un ruolo sempre più importante nelle nostre vite. Infatti, secondo lo stesso ChatGPT (oh, l'ironia), alcuni dei campi che avrà un impatto nei prossimi 7 anni includono:

  • Assistenza sanitaria
  • Automazione
  • Trasporto
  • Formazione scolastica
  • Case intelligenti
  • Assistenza clienti

Da quando ha espresso le sue preoccupazioni, Hinton è stato preso di mira da molti per non aver seguito alcuni dei suoi colleghi che si erano dimessi prima. È facile giungere a questa conclusione, ma è anche facile sovrintendere alla complessità del problema, che tocca molteplici principi tecnologici, filosofici ed etici.

Immagino che tutto ciò che Hinton stia cercando di dire sia che l'impatto dell'IA sull'umanità, che sia positivo o negativo, è probabilmente molto più vicino di quanto la maggior parte di noi sembri pensare.

Immagine in primo piano per gentile concessione di CBC, inviata loro da Geoffrey Hinton.

Il post I motivi per cui l'IA potrebbe essere pericolosa per l'umanità secondo Geoffrey Hinton è apparso per la prima volta su CryptoPotato .

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto