Mercoledì, il Comitato per il Commercio del Senato degli Stati Uniti ha votato 14-12 per respingere una proposta volta a impedire alla Federal Communications Commission (FCC) di applicare nuove regole di divulgazione per la pubblicità politica. Le norme proposte stabiliscono che gli annunci politici radiofonici e televisivi devono indicare se utilizzano l’intelligenza artificiale nella creazione del contenuto.
La FCC ha proposto queste regole all’inizio di questo mese e ha invitato a commentarle fino a metà ottobre. La senatrice Maria Cantwell, presidente della commissione commercio del Senato, ha affermato che la FCC probabilmente non completerà le regole prima delle elezioni presidenziali di novembre.
I senatori repubblicani esprimono preoccupazione e tentano di aggiungere un divieto
I senatori repubblicani hanno espresso preoccupazione sulla possibilità di abusi dell’intelligenza artificiale nelle pubblicità politiche e hanno cercato di aggiungere un divieto a tale legislazione. Tuttavia, la decisione del comitato supporta la raccomandazione della FCC. La preoccupazione emergente a Washington è che il materiale scritto dall’intelligenza artificiale potrebbe confondere gli elettori durante le elezioni del 2024.
La presidente della FCC Jessica Rosenworcel ha sottolineato le minacce dell'intelligenza artificiale, inclusa la capacità di produrre "falsi profondi" o immagini, video o audio manipolati che ritraggono qualcuno che non sono. Rosenworcel ha aggiunto che la FCC è stata coinvolta nella divulgazione sin dagli anni '30. Ha inoltre affermato che “un passo importante per evitare che l’intelligenza artificiale venga utilizzata da cattivi attori per diffondere caos e confusione nelle nostre elezioni”.
La norma proposta richiederebbe alle stazioni radiofoniche e televisive, agli operatori via cavo e ai fornitori di TV e radio satellitari di divulgare l’uso dell’intelligenza artificiale nella generazione di contenuti. Tuttavia, va notato che la FCC non ha alcuna autorità sulla pubblicità basata su Internet o sui social media e non regola nemmeno i servizi di streaming. L’agenzia si è già occupata della questione dell’intelligenza artificiale ingannevole nelle chiamate robotiche politiche attraverso le disposizioni attuali.
Un numero maggiore di frodi basate sull’intelligenza artificiale sottolinea la necessità di una regolamentazione
A gennaio, una chiamata robotica di phishing che si spacciava per Biden è stata effettuata per sopprimere il voto per Biden alle primarie democratiche del New Hampshire. In seguito all'incidente un consulente politico democratico è stato accusato della chiamata.
Inoltre, la Commissione elettorale federale (FEC) ha evidenziato l’uso di contenuti generati dall’intelligenza artificiale. La FEC sta attualmente esaminando una petizione per modificare le regole per affermare che le leggi attuali vietano le dichiarazioni fraudolente da parte dei candidati federali. Questi includono contenuti AI intenzionalmente fuorvianti nei messaggi della campagna.
Inoltre, la proposta di legge nota come Promoting United States Leadership in Standards Act del 2024 dei senatori Mark Warner (D-Virginia) e Marsha Blackburn (R-Tennessee) è stata applaudita per i suoi progressi. Il disegno di legge mira a riconquistare il dominio degli Stati Uniti nella formulazione di standard internazionali per l’intelligenza artificiale (AI) e altre importanti tecnologie emergenti (CET).