Il Colorado guida la regolamentazione dell’intelligenza artificiale per combattere la discriminazione

Il Colorado ha preso l’iniziativa nella regolamentazione dei sistemi di intelligenza artificiale che influenzano le assunzioni, gli alloggi e le decisioni mediche. Sono stati proposti sette progetti di legge, di cui uno già approvato e approvato, con l’obiettivo di regolamentare l’approccio parziale dell’intelligenza artificiale nel prendere decisioni importanti.

Leggi anche: Comitato consultivo nazionale sull'intelligenza artificiale formato per affrontare la regolamentazione sull'intelligenza artificiale

Nonostante l’opposizione, venerdì il governatore del Colorado Jared Polis ha firmato il disegno di legge con esitazione. Questo disegno di legge impone alle organizzazioni di valutare il rischio di discriminazione derivante dall’intelligenza artificiale, stabilire programmi di monitoraggio e informare i consumatori se l’intelligenza artificiale è coinvolta nel processo decisionale.

Il Colorado adotta con riluttanza la legge sulla responsabilità dell’IA

Il disegno di legge del Colorado, simile a quello di Washington e del Connecticut, non è stato accolto favorevolmente dai gruppi per i diritti civili, dall’industria tecnologica, dai legislatori cauti e dai governatori preoccupati. Questi progetti di legge cercano di affrontare i pregiudizi legati all’intelligenza artificiale in aree critiche come l’occupazione, l’edilizia abitativa e l’assistenza sanitaria.

Fonte: Yahoo News UK

C’è stata molta resistenza alle richieste di regolamentazione a causa della complessità della tecnologia e della possibilità di limitarne lo sviluppo. Anche il governatore Polis ha espresso preoccupazione per il disegno di legge, sottolineando che non dovrebbe soffocare lo sviluppo dell’intelligenza artificiale.

Bill affida le valutazioni dei bias dell'intelligenza artificiale e le notifiche ai clienti

La legislazione del Colorado e i sei progetti di legge simili richiedono alle organizzazioni di valutare la potenziale distorsione dei sistemi di intelligenza artificiale. Alcune delle aziende che utilizzano l’intelligenza artificiale nelle loro operazioni sono tenute a informare i clienti ogni volta che l’intelligenza artificiale prende decisioni significative che li coinvolgono. Questo approccio mira a migliorare la trasparenza e la responsabilità delle applicazioni di intelligenza artificiale.

Leggi anche: La regolamentazione dell'intelligenza artificiale accende il dibattito tra i giganti della tecnologia e i regolatori

L’iniziativa arriva nel mezzo di discussioni legislative più ampie, con oltre 400 progetti di legge relativi all’intelligenza artificiale quest’anno. Queste fatture sono per lo più incentrate su aspetti specifici dell’intelligenza artificiale, come il deepfake e la pornografia basata sull’intelligenza artificiale. Questi sette progetti di legge ambiziosi si concentrano sulla discriminazione, una delle preoccupazioni più impegnative e universali dell’intelligenza artificiale.

Rumman Chowdhury, uno specialista di intelligenza artificiale per il Dipartimento di Stato americano, ha dichiarato:

"In realtà non abbiamo alcuna visibilità sugli algoritmi utilizzati, se funzionano o meno, o se siamo discriminati."

La discriminazione basata sull’intelligenza artificiale si annida nelle assunzioni, negli alloggi e nell’assistenza sanitaria

L’attuale legislazione contro la discriminazione non copre adeguatamente le questioni derivanti dall’uso dell’IA. Christine Webber, avvocato per i diritti civili, ha sottolineato che l’intelligenza artificiale può amplificare i pregiudizi a un livello molto più ampio rispetto a un singolo decisore.

“Non, dovrei dire, che nemmeno i vecchi sistemi fossero perfettamente esenti da pregiudizi; chiunque può guardare solo un certo numero di curriculum in un giorno. Quindi potresti prendere solo un certo numero di decisioni distorte in un giorno, e il computer può farlo rapidamente tra un gran numero di persone.

Cristina Webber

Leggi anche: L’Unione Europea (UE) guida la regolamentazione dell’IA

Il caso di Webber è un perfetto esempio di come l'intelligenza artificiale possa dare vita alla discriminazione, con un caso che accusa uno strumento di intelligenza artificiale per applicazioni di noleggio di dare punteggi inferiori a individui neri e ispanici. Questo problema riguarda anche il campo medico, dove è stato osservato che i sistemi di intelligenza artificiale negano cure speciali ai pazienti neri sulla base delle loro valutazioni distorte. Il disegno di legge del Colorado tenta di affrontare queste preoccupazioni attraverso il controllo annuale dei sistemi di intelligenza artificiale per individuare pregiudizi, regolamentazione interna e segnalazione dei risultati discriminanti al procuratore generale dello stato.

Le aziende si oppongono alla trasparenza, temendo che i segreti commerciali vengano scoperti

Sebbene l’intento del disegno di legge sia quello di promuovere la trasparenza e la responsabilità, ci sono alcune preoccupazioni nel settore dell’intelligenza artificiale. Mentre le grandi aziende di intelligenza artificiale tendono ad approvare tali misure, le aziende su piccola scala le considerano potenzialmente troppo complesse. Il fondatore di Thumper.ai Logan Cerkovnik ha affermato che,

“Avere una legislazione eccessivamente restrittiva che ci costringe a dare definizioni e limita il nostro uso della tecnologia mentre questa si sta formando sarà dannoso per l’innovazione”.

Le società di intelligenza artificiale sono riuscite anche ad aggiungere una clausola per impedire a chiunque altro, oltre al procuratore generale dello stato, di intentare causa contro la legge. L’azione statale in Colorado arriva anche mentre il Congresso riflette sulle regole federali sull’IA. Il Congresso non ha ancora approvato alcun disegno di legge che regola l’IA, ma la settimana scorsa il leader della maggioranza al Senato Chuck Schumer ha pubblicato un rapporto con le linee guida per la regolamentazione dell’IA.


Reporting criptopolita di Brenda Kanana

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto