Il Bletchley AI Summit bilancia minacce e opportunità economiche

I governi mondiali si sono riuniti a Bletchley Park a novembre per un vertice sull’intelligenza artificiale che ha cercato di affrontare le molteplici sfide poste dall’intelligenza artificiale . L'evento, tenutosi dall'1 al 2 novembre 2023, ha raccolto notevole attenzione e speculazioni fino al suo inizio. Il focus del vertice si è concentrato principalmente sulla mitigazione dei rischi esistenziali associati all’intelligenza artificiale avanzata, ma si è anche soffermato sulle opportunità economiche e sulle considerazioni normative.

Esito positivo dal vertice AI di Bletchley

Tra lo scetticismo iniziale riguardo alle conferme degli ospiti e l’assenza di partecipanti di spicco, il vertice sulla sicurezza dell’intelligenza artificiale a Bletchley Park ha superato le aspettative. I critici, tra cui alcuni conservatori focalizzati sulla Cina e politici statunitensi, hanno messo in dubbio l’inclusione di rappresentanti cinesi all’evento. Inoltre, sono stati espressi dubbi sull’ambizioso tentativo del Regno Unito di guidare gli sforzi globali nella regolamentazione dell’IA.

Tuttavia, il vertice si è rivelato un successo diplomatico per la Gran Bretagna. Vantava una lista di ospiti notevole, con la presenza di figure di spicco come Sam Altman di Open AI e il vicepresidente degli Stati Uniti Kamala Harris. Il punto culminante del vertice è stata la Dichiarazione di Bletchley, un ampio impegno che coinvolge 28 nazioni e l'Unione Europea a collaborare per affrontare i rischi esistenziali dell'IA. In particolare, sia gli Stati Uniti che la Cina, insieme a Regno Unito, India e Australia, hanno promesso il loro sostegno.

Accesso del governo ai modelli di intelligenza artificiale

Durante il vertice, il primo ministro Rishi Sunak ha annunciato uno sviluppo significativo: le società di intelligenza artificiale hanno accettato di garantire ai governi un accesso anticipato ai loro modelli per le valutazioni della sicurezza. Tuttavia, l’annuncio era poco dettagliato e somigliava a una precedente dichiarazione fatta a giugno. È stata inoltre rivelata l'istituzione della Frontier AI Task Force del Regno Unito come organismo permanente per la supervisione della sicurezza.

Ordine esecutivo americano sull'intelligenza artificiale

Pochi giorni prima del vertice di Bletchley, il vicepresidente americano Kamala Harris ha sottolineato l’impegno dell’America a rimanere un leader tecnologico nel campo dell’intelligenza artificiale. Allo stesso tempo, il presidente Joe Biden ha emesso un atteso ordine esecutivo volto a una regolamentazione completa delle più grandi aziende di intelligenza artificiale del mondo.

L’ordine esecutivo si concentra principalmente sulla risoluzione dei rischi noti, identificabili e a breve termine dell’IA, tra cui la privacy, la concorrenza e la discriminazione algoritmica. Dà priorità alla salvaguardia dei diritti civili e delle libertà degli americani. L’ordinanza dà mandato a 25 agenzie e dipartimenti federali, che supervisionano aree come l’edilizia abitativa, la salute e la sicurezza nazionale, di stabilire standard e regolamenti per l’uso e la supervisione dell’IA. Inoltre, introduce nuovi requisiti di reporting e test per le aziende che stanno dietro i modelli di intelligenza artificiale più potenti e obbliga le aziende i cui modelli possono rappresentare minacce alla sicurezza nazionale a condividere le loro misure di sicurezza.

Dibattiti sulla regolamentazione globale dell’IA

Si prevede che l’Unione Europea presenterà un’ambiziosa legislazione sulla regolamentazione dell’IA entro la fine dell’anno. Nel frattempo, il gruppo G7 delle economie sviluppate sta lavorando a un codice di condotta separato per le aziende di intelligenza artificiale. Anche la Cina ha introdotto una propria iniziativa in questo senso.

I dibattiti chiave ruotano attorno a quali aspetti dell’intelligenza artificiale richiedono una regolamentazione e chi dovrebbe assumersi questa responsabilità. Le aziende tecnologiche generalmente sostengono una regolamentazione limitata, mirando alle applicazioni di intelligenza artificiale più avanzate piuttosto che ai modelli sottostanti. Tuttavia, con i rapidi progressi tecnologici, questa posizione sta diventando sempre più difficile da mantenere.

Gli Stati Uniti e il Regno Unito ritengono che le agenzie governative esistenti siano in grado di supervisionare la regolamentazione dell’IA. Tuttavia, i critici sono preoccupati per il track record dei regolatori statali, figure di spicco nel settore dell’intelligenza artificiale, come Mustafa Suleyman, co-fondatore di DeepMind, hanno proposto l’istituzione di un regime di governance globale simile al Gruppo intergovernativo sui cambiamenti climatici, mirato a migliorare la trasparenza nel lavoro delle società di intelligenza artificiale. Suleyman ha addirittura suggerito la possibilità di una pausa nell’addestramento della prossima generazione di sistemi di intelligenza artificiale entro i prossimi cinque anni.

IA open source e IA closed source

È emerso anche un dibattito sugli approcci open source e closed source alla ricerca sull’intelligenza artificiale. I sostenitori dell’open source sostengono che il predominio delle aziende orientate al profitto nella ricerca sull’intelligenza artificiale può portare a risultati indesiderati e che i modelli di open source potrebbero accelerare la ricerca sulla sicurezza. Al contrario, i sostenitori dei modelli closed-source sostengono che i rischi associati all’intelligenza artificiale avanzata sono troppo grandi per consentire la distribuzione gratuita del codice sorgente per modelli potenti.

Bilanciare i rischi dell’IA e i benefici economici

I governi, incluso il Regno Unito, si trovano in un delicato atto di equilibrio, riconoscendo l’importanza di affrontare i rischi dell’intelligenza artificiale pur rimanendo aperti alle sue opportunità commerciali. L’intelligenza artificiale è destinata a diventare una tecnologia di uso generale, con applicazioni ad ampio raggio paragonabili a innovazioni del passato come l’energia a vapore, l’elettricità e Internet. Si prevede che questa tecnologia porterà miglioramenti significativi nella produttività e nella crescita economica.

Neil Shearing di Capital Economics sottolinea la necessità di saperne di più su come i governi intendono sfruttare i potenziali guadagni economici dell’IA. Sebbene affrontare i rischi dell’IA sia fondamentale, i benefici economici che promette non dovrebbero essere trascurati.

Il vertice sull’intelligenza artificiale di Bletchley Park ha segnato un momento cruciale nelle discussioni globali sulla regolamentazione e la sicurezza dell’intelligenza artificiale. Mentre i governi percorrono il percorso da seguire, devono trovare un equilibrio tra affrontare le potenziali minacce dell’intelligenza artificiale e sfruttare le sue immense opportunità economiche.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto