La sicurezza dell’IA può essere garantita dalla filigrana dei contenuti da parte delle grandi aziende tecnologiche?

In una mossa significativa per affrontare i problemi di sicurezza dell'IA, le grandi aziende tecnologiche si impegnano ad adottare linee guida volontarie, come il watermarking per aiutare gli utenti a identificare i contenuti generati dall'IA, come parte dei loro sforzi per controllare l'abuso e l'uso improprio dell'IA. Queste società, Amazon, Anthropic, Google, Meta, Microsoft, OpenAI e la startup ML Inflection hanno concordato con l'amministrazione Biden di sottoporre i propri sistemi a test da parte di esperti indipendenti. Questa mossa arriva tra la popolarità e gli investimenti nella tecnologia dell'IA generativa, spingendo i legislatori globali a prendere in considerazione regolamenti per salvaguardare la sicurezza nazionale e l'economia.

Affrontare le preoccupazioni sulla tecnologia AI

La rapida ascesa dell'IA generativa, che utilizza i dati per creare contenuti di tipo umano, ha sollevato preoccupazioni sui suoi potenziali rischi per vari domini. Il leader della maggioranza al Senato degli Stati Uniti Chuck Schumer ha chiesto a giugno una legislazione completa per garantire adeguate salvaguardie sull'intelligenza artificiale. Per affrontare queste preoccupazioni, il Congresso sta contemplando un disegno di legge che richiede alle pubblicità politiche di rivelare se l'intelligenza artificiale è stata utilizzata per generare contenuti.

Il presidente Joe Biden sta lavorando attivamente allo sviluppo di un ordine esecutivo e di una legislazione bipartisan per regolamentare ulteriormente la tecnologia AI. Nell'ambito di questo sforzo, venerdì i dirigenti delle sette principali società di intelligenza artificiale si riuniscono alla Casa Bianca per discutere i loro impegni. Le società hanno concordato di sviluppare un sistema di filigrana per tutte le forme di contenuto generato dall'intelligenza artificiale, inclusi testo, immagini, audio e video. Questa tecnica di filigrana mira a fornire agli utenti una chiara indicazione di quando la tecnologia AI è stata utilizzata per creare contenuti.

Filigrana per una maggiore sicurezza dell'IA

Il sistema di filigrana proposto dovrebbe essere essenziale per combattere i potenziali pericoli associati ai contenuti generati dall'intelligenza artificiale. Incorporando tecnicamente una filigrana nel contenuto, gli utenti saranno meglio attrezzati per identificare immagini o audio deep-fake che potrebbero rappresentare violenza inesistente, facilitare truffe o presentare i politici in cattiva luce. Tuttavia, i dettagli su come la filigrana sarà evidente durante la condivisione delle informazioni non sono stati chiariti.

Le filigrane digitali verificano l'autenticità o l'integrità del segnale portante o mostrano l'identità dei suoi proprietari. Non solo una filigrana dissuade le persone dalla divulgazione di documenti , ma se si verifica una perdita, la fonte della perdita può essere facilmente identificata quando una filigrana con il nome del destinatario consentito viene inserita nel file. La filigrana digitale è una tecnologia in cui le informazioni di identificazione sono incorporate nel supporto dati in modi che non possono essere facilmente notati e in cui l'utilizzo dei dati non sarà influenzato. Questa tecnologia spesso protegge il copyright dei dati multimediali e protegge i database ei file di testo.

fig2
Fonte: https://www.cse.wustl.edu/

Impegni oltre il watermarking

Gli impegni delle aziende vanno oltre la filigrana e si estendono alla protezione della privacy degli utenti man mano che la tecnologia AI si sviluppa. Hanno anche promesso di garantire che i loro sistemi di intelligenza artificiale siano privi di pregiudizi e si astengano dall'essere utilizzati per discriminare i gruppi vulnerabili. Le aziende hanno affermato che riporteranno pubblicamente le capacità e i limiti dei loro sistemi di intelligenza artificiale, nonché le linee guida per il loro uso etico. Le aziende prevedono di condurre ricerche sui rischi sociali posti dall'intelligenza artificiale. Inoltre, queste aziende si sono impegnate a implementare soluzioni di intelligenza artificiale per affrontare le sfide scientifiche, come la ricerca medica e la mitigazione dei cambiamenti climatici.

Un passo avanti per la sicurezza dell'IA

Gli impegni volontari assunti da queste importanti società di IA rappresentano un significativo passo avanti nell'affrontare i problemi di sicurezza associati alla tecnologia IA. Con la collaborazione dei leader del settore e gli sforzi normativi in ​​corso, c'è ottimismo sul fatto che l'IA possa continuare a prosperare aderendo a pratiche responsabili.

Mentre l'IA generativa continua a guadagnare popolarità e investimenti, le autorità di regolamentazione e i legislatori di tutto il mondo si sono concentrati sull'affrontare i potenziali rischi. Gli impegni assunti dalle migliori aziende di intelligenza artificiale per implementare misure di watermarking e migliorare la sicurezza attraverso pratiche responsabili segnano uno sviluppo positivo nel settore. Gli sforzi del presidente Biden per sviluppare ordini esecutivi e una legislazione bipartisan rafforzano ulteriormente l'importanza di garantire un uso sicuro ed etico della tecnologia AI. L'intelligenza artificiale può sbloccare il suo potenziale mitigando i rischi per la società con una collaborazione continua tra le parti interessate del settore e gli organismi di regolamentazione.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto