Microsoft ha invitato il Congresso ad approvare una nuova legislazione contro i deepfake generati dall'intelligenza artificiale. Brad Smith, vicepresidente e presidente di Microsoft, ha sottolineato l’urgenza che i legislatori affrontino la crescente minaccia della tecnologia deepfake.
In un recente post sul blog , Smith ha sottolineato l’importanza di adattare le leggi per affrontare le frodi deepfake e prevenirne lo sfruttamento. Secondo Smith, dovrebbe esserci uno statuto che possa essere utilizzato per addebitare truffe e frodi legate ai deepfake.
Microsoft propone uno statuto federale sulle frodi deepfake
Secondo il rapporto di Microsoft, è possibile adottare diversi interventi legali per prevenire l'uso improprio della tecnologia deepfake. Uno dei suggerimenti è quello di creare uno "statuto federale sulle frodi deepfake". Questa nuova legge tratterà sia la dimensione civile che quella penale della frode sui contenuti sintetici e potrebbe comportare le seguenti misure: accuse penali, sequestro civile e ingiunzioni.
Il rapporto supporta anche il requisito dell'identificazione sintetica del contenuto. Attraverso la regolamentazione dell'uso di strumenti avanzati di provenienza, il pubblico potrebbe quindi apprezzare l'origine dei contenuti che riceve online. Ciò è importante per la credibilità delle informazioni digitali e per fermare la diffusione di notizie false.
“Il Congresso dovrebbe richiedere ai fornitori di sistemi di intelligenza artificiale di utilizzare strumenti di provenienza all’avanguardia per etichettare i contenuti sintetici. Ciò è essenziale per creare fiducia nell’ecosistema dell’informazione e aiuterà il pubblico a capire meglio se i contenuti sono generati dall’intelligenza artificiale o manipolati”.
Brad Smith
Inoltre, Microsoft suggerisce di modificare le attuali leggi sullo sfruttamento minorile e sulle immagini esplicite non consensuali per coprire le immagini prodotte dall’intelligenza artificiale. Ciò garantirebbe che i quadri giuridici siano in sincronia con gli sviluppi tecnologici in modo da proteggere anche il gruppo di persone più vulnerabili.
Il Senato degli Stati Uniti ha recentemente preso provvedimenti in questo senso approvando un disegno di legge che mira ai deepfake sessualmente espliciti. Questa nuova legge consente alle vittime di deepfake IA sessualmente espliciti non consensuali di citare in giudizio i creatori del contenuto.
La FCC dice "no" alle chiamate robotiche vocali dell'IA
Microsoft ha anche risposto all’uso improprio dell’intelligenza artificiale e rafforzato le misure di sicurezza sui suoi prodotti. L'azienda ha recentemente migliorato il creatore di immagini Designer AI a seguito di una vulnerabilità che era stata sfruttata per produrre immagini oscene di celebrità. Smith ha affermato che il settore privato deve adottare misure per garantire che l’intelligenza artificiale non venga utilizzata in modo improprio e spetta alle aziende tecnologiche garantire che gli utenti non vengano danneggiati.
La FCC ha già agito contro l’uso improprio dell’intelligenza artificiale vietando l’uso della voce dell’intelligenza artificiale nelle chiamate robotiche. Tuttavia, l’intelligenza artificiale generativa sta migliorando sempre più nella generazione di audio, immagini e video falsi. Questo problema è stato recentemente esacerbato da un video deepfake del vicepresidente americano Kamala Harris, diffuso sui social media e esemplificativo del crescente pericolo della tecnologia deepfake.
Anche altre organizzazioni no-profit, come il Center for Democracy and Technology (CDT), sono coinvolte nella lotta agli abusi dei deepfake. Come notato da Tim Harper, analista politico senior del CDT, l’anno 2024 segna il punto di svolta critico per l’intelligenza artificiale nelle elezioni e le persone devono prepararsi. L’attuale resistenza ai deepfake è una prima forma di quella che potrebbe essere una lotta prolungata contro la manipolazione tecnologica.