Il governatore della California Gavin Newsom pone il veto alla legge sulla sicurezza dell’IA

Il governatore della California Gavin Newsom ha posto il veto a un controverso disegno di legge sull'intelligenza artificiale (AI), affermando che soffocherà l'innovazione e non riuscirà a salvaguardare il pubblico dalle preoccupazioni “reali” della tecnologia. I sostenitori del disegno di legge notano che avrebbe creato alcune delle prime normative nazionali sui modelli di intelligenza artificiale su larga scala e avrebbe aperto la porta alle leggi nazionali sulla sicurezza dell’intelligenza artificiale.

Il 30 settembre, Newsom ha rifiutato l’SB 1047, noto anche come Safe and Secure Innovation for Frontier Artificial Intelligence Models Act, dopo aver ricevuto una forte opposizione dalla Silicon Valley. Il disegno di legge raccomandava test di sicurezza obbligatori per i modelli di intelligenza artificiale e altre misure di salvaguardia, che i giganti della tecnologia temevano avrebbero ostacolato l’innovazione.

Newsom ha sostenuto che il disegno di legge si concentra troppo sulla regolamentazione delle principali società di intelligenza artificiale esistenti , senza però riuscire a proteggere il pubblico dai rischi “reali” posti dalla nuova tecnologia.

Ha detto:

Invece, il disegno di legge applica standard rigorosi anche alle funzioni più basilari, a condizione che un sistema di grandi dimensioni le implementi. Non credo che questo sia l’approccio migliore per proteggere il pubblico dalle minacce reali poste dalla tecnologia.

– Gavin Newsom

Il senatore critica il veto, definendolo un passo indietro per la sicurezza pubblica

Il senatore democratico Scott Weiner, l'autore del disegno di legge, ha descritto il rifiuto come una battuta d'arresto per tutti coloro che credono nella supervisione delle grandi aziende che stanno prendendo decisioni cruciali che influiscono sulla sicurezza pubblica, sul benessere e sul futuro del pianeta.

L’SB 1047 avrebbe richiesto agli sviluppatori, inclusi i principali attori come OpenAI, Meta e Google, di implementare un “kill switch” per i loro modelli di intelligenza artificiale e di sviluppare piani per mitigare i rischi estremi. Inoltre, il disegno di legge avrebbe consentito al procuratore generale dello stato di citare in giudizio gli sviluppatori di intelligenza artificiale nei casi in cui i loro modelli rappresentassero minacce continue, come l’acquisizione della rete di intelligenza artificiale.

Questo disegno di legge mirava specificamente ai sistemi che costano più di 100 milioni di dollari per lo sviluppo e che necessitano di molta potenza di elaborazione. Nessun modello attuale di intelligenza artificiale ha raggiunto quella soglia, ma alcuni esperti affermano che la situazione potrebbe cambiare entro il prossimo anno.

Newsom sostiene norme sull’intelligenza artificiale basate sulla scienza in mezzo alle controversie sulla legge sulla sicurezza

Newsom ha dichiarato di essersi consultato con i principali esperti di sicurezza dell’intelligenza artificiale per aiutare la California a creare normative efficaci che diano priorità a un’analisi scientifica dei potenziali rischi derivanti dallo sviluppo dell’intelligenza artificiale. Ha sottolineato che la sua amministrazione continuerà a spingere per robusti protocolli di sicurezza, insistendo sul fatto che i regolatori non devono aspettare una grave catastrofe per agire.

Nonostante il veto sull’SB 1047, Newsom ha sottolineato che la sua amministrazione ha firmato oltre 18 progetti di legge relativi alla regolamentazione dell’IA nell’ultimo mese.

Prima della decisione di Newsom, il disegno di legge era impopolare tra politici, consulenti e grandi aziende tecnologiche. La presidente della Camera Nancy Pelosi e aziende come OpenAI hanno affermato che ciò ostacolerebbe notevolmente il progresso dell’intelligenza artificiale.

Il capo della politica sull’intelligenza artificiale dell’Abundance Institute, Neil Chilson, ha avvertito che, sebbene il disegno di legge si rivolga principalmente ai modelli che costano più di 100 milioni di dollari, il suo campo di applicazione potrebbe facilmente essere ampliato per reprimere anche gli sviluppatori più piccoli.

Tuttavia, alcune persone sono aperte al conto. Il miliardario Elon Musk, che sta costruendo il proprio modello di intelligenza artificiale chiamato “Grok”, è uno dei pochi pesi massimi della tecnologia che sostengono la misura e le più ampie leggi sull’intelligenza artificiale. In un post del 26 agosto su X, Musk ha affermato che la California dovrebbe probabilmente approvare il disegno di legge sulla sicurezza dell’intelligenza artificiale SB 1047, ma ha ammesso che sostenere il disegno di legge è stata una “decisione difficile”.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto