Alibaba Cloud presenta un generatore di testo-video con intelligenza artificiale all’avanguardia

In un’epoca in cui l’intelligenza artificiale continua a ampliare i confini dell’innovazione tecnologica, sta emergendo una nuova collaborazione tra artisti e ricercatori universitari per salvaguardare la proprietà intellettuale delle menti creative. Il recente incontro dell'illustratrice statunitense Paloma McClain con la replica non autorizzata delle sue opere d'arte tramite intelligenza artificiale ha innescato una risposta proattiva all'interno della comunità artistica, dando vita a soluzioni software innovative per prevenire l'attività di copiatura guidata dall'intelligenza artificiale.

L'illustratrice statunitense Paloma McClain si è trovata nel mirino dell'instancabile ricerca dell'intelligenza artificiale verso la replicazione creativa. Diversi modelli di intelligenza artificiale si erano "addestrati" usando la sua arte a sua insaputa o consenso, lasciandola senza il dovuto credito o compenso. McClain, una convinta sostenitrice del progresso etico e tecnologico, ha espresso le sue preoccupazioni: “Credo che il progresso tecnologico veramente significativo venga fatto eticamente ed elevi tutte le persone invece di funzionare a spese degli altri”.

In risposta al crescente problema dell’imitazione dell’intelligenza artificiale, Paloma McClain si è rivolta a Glaze, un rivoluzionario software gratuito creato dai ricercatori dell’Università di Chicago. La funzione principale di Glaze è quella di superare in astuzia i modelli di intelligenza artificiale durante il loro processo di addestramento, manipolando i pixel in modi sottili che rimangono invisibili all'occhio umano e alterando drasticamente l'aspetto dell'arte digitalizzata agli algoritmi di intelligenza artificiale.

Proteggere i creatori umani

Il professor Ben Zhao, un membro chiave del team di sviluppo di Glaze, ha sottolineato la loro missione: "Fondamentalmente forniamo strumenti tecnici per aiutare a proteggere i creatori umani da modelli di intelligenza artificiale invasivi e abusivi." Questo software, sviluppato in quattro mesi, si basa su una tecnologia inizialmente progettata per rivoluzionare i sistemi di riconoscimento facciale. Zhao ha sottolineato l’urgenza della situazione, spiegando: “Stavamo lavorando a una velocità super veloce perché sapevamo che il problema era serio. Molte persone soffrivano”.

Mentre alcuni giganti dell’intelligenza artificiale generativa hanno accordi formali per l’utilizzo dei dati, una parte significativa dei dati utilizzati per addestrare l’intelligenza artificiale, che comprende immagini digitali, audio e testo, viene recuperata da Internet senza consenso esplicito. Questa pratica solleva questioni cruciali sull’uso etico dell’intelligenza artificiale e sui diritti di proprietà intellettuale.

Dalla sua uscita nel marzo 2023, Glaze ha registrato un'adozione diffusa, con oltre 1,6 milioni di download, riflettendo l'urgenza della necessità di strumenti che proteggano gli artisti dalla replicazione dell'IA. Il team di Glaze sta sviluppando un miglioramento noto come Nightshade, che mira a confondere ulteriormente l'IA distorcendone le interpretazioni, ad esempio facendole percepire un cane come un gatto.

Pur sostenendo Nightshade, Paloma McClain ha sottolineato il suo potenziale per avere un impatto significativo se ampiamente adottato: "Secondo la ricerca di Nightshade, non servirebbero così tante immagini avvelenate come si potrebbe pensare". Diverse aziende si sono già rivolte al team di Zhao per esplorare l'uso di Nightshade, sottolineandone l'importanza nella protezione sia dei singoli artisti che delle organizzazioni con una sostanziale proprietà intellettuale.

Kudurru: Difendersi dalla raccolta di immagini

Viva Voce Startup Spawning ha contribuito alla difesa delle opere creative con il suo software Kudurru. Kudurru rileva i tentativi di raccogliere immagini di grandi dimensioni da fonti online, consentendo agli artisti di bloccare l'accesso o fornire dati fuorvianti per interrompere il processo di apprendimento dell'intelligenza artificiale. Oltre mille siti web sono già integrati nella rete Kudurru.

Spawning ha esteso i suoi sforzi con il lancio di haveibeentrained.com, un sito web dotato di uno strumento online che consente agli artisti di verificare se le loro opere digitalizzate sono state utilizzate per addestrare modelli di intelligenza artificiale. Questa piattaforma consente agli artisti di rinunciare a futuri usi non autorizzati, fornendo il controllo tanto necessario sui loro contenuti creativi.

I ricercatori della Washington University nel Missouri si sono avventurati nella salvaguardia delle registrazioni vocali con il loro software AntiFake. Il programma arricchisce le registrazioni vocali digitali con rumori impercettibili, rendendo “impossibile sintetizzare una voce umana”, secondo Zhiyuan Yu, lo studente di dottorato dietro il progetto. L’obiettivo di AntiFake va oltre il contrasto alla formazione non autorizzata dell’IA per prevenire la creazione di deepfake, una preoccupazione crescente nell’era della disinformazione guidata dall’intelligenza artificiale.

Un appello per un utilizzo etico dei dati

Man mano che queste soluzioni software si evolvono, il dibattito sull’uso etico dei dati per l’intelligenza artificiale rimane fondamentale. Jordan Meyer, co-fondatore di Spawning, ha articolato l’obiettivo finale: “La soluzione migliore sarebbe un mondo in cui tutti i dati utilizzati per l’intelligenza artificiale siano soggetti a consenso e pagamento”. I sostenitori sperano di spingere gli sviluppatori in questa direzione, dando priorità al consenso e all’equità nell’utilizzo dei dati dell’intelligenza artificiale.

In conclusione, la collaborazione tra artisti e ricercatori sta guidando lo sviluppo di soluzioni software innovative per combattere l’imitazione dell’intelligenza artificiale delle opere creative. Le piattaforme software Glaze, Nightshade, Kudurru e AntiFake rappresentano passi significativi nella protezione della proprietà intellettuale in un mondo sempre più guidato dall'intelligenza artificiale. Sebbene queste tecnologie forniscano preziosi meccanismi di difesa, sottolineano anche la necessità di discussioni più ampie sull’uso etico dei dati nell’intelligenza artificiale. Mentre artisti e creatori continuano a far valere i propri diritti, il futuro dell’intelligenza artificiale e della proprietà intellettuale è pronto per un’evoluzione più etica ed equilibrata.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto