La tecnologia dell'intelligenza artificiale generativa, come ChatGPT di OpenAI, ha fatto passi da gigante nell'elaborazione del linguaggio naturale. Tuttavia, questi modelli di intelligenza artificiale si basano su enormi set di dati recuperati dal web, sollevando preoccupazioni tra artisti e fotografi il cui lavoro viene utilizzato senza permesso o compenso.
Artisti e fotografi contro l'intelligenza artificiale generativa
Gli strumenti di intelligenza artificiale generativa possono creare immagini da istruzioni di testo, ma si affidano a immagini online raschiate per la formazione. Ciò ha spinto artisti e fotografi a esprimere frustrazione per il fatto che il loro lavoro creativo venga utilizzato senza consenso. Cercano modi per proteggere i loro diritti di proprietà intellettuale.
Nightshade: uno strumento per confondere i modelli di intelligenza artificiale
Un team di ricercatori ha sviluppato uno strumento chiamato “Nightshade” per combattere questo problema. Nightshade è progettato per sconvolgere i modelli di addestramento dell’intelligenza artificiale introducendo pixel invisibili nelle opere d’arte prima che vengano caricate sul web. Questo processo “avvelena” i dati di addestramento, facendo sì che i modelli di intelligenza artificiale generino immagini imprecise in risposta alle richieste.
Implicazioni per i modelli di intelligenza artificiale
Il MIT Technology Review riporta che l'uso di Nightshade potrebbe potenzialmente danneggiare le future iterazioni di modelli di intelligenza artificiale che generano immagini come DALL-E, Midjourney e Stable Diffusion. Questi modelli potrebbero produrre risultati in cui i cani diventano gatti, le automobili diventano mucche e altro ancora. La ricerca alla base di Nightshade è stata sottoposta a revisione paritaria, evidenziandone l'importanza.
Potere di equilibrio: artisti e aziende tecnologiche
Nightshade offre un barlume di speranza agli artisti che cercano di proteggere le loro creazioni. Il professore dell’Università di Chicago Ben Zhao, che ha guidato il gruppo di ricerca, suggerisce che questo strumento potrebbe riportare gli equilibri di potere nelle mani dei creatori di contenuti. Serve come avvertimento alle aziende tecnologiche che ignorano il copyright e i diritti di proprietà intellettuale.
La portata del problema
I grandi modelli di intelligenza artificiale utilizzano set di dati costituiti da miliardi di immagini, rendendo significativo l’impatto delle immagini avvelenate. Più immagini avvelenate vengono integrate in questi modelli, maggiore sarà il disagio che causeranno, rimodellando potenzialmente il panorama dell’intelligenza artificiale.
Collaborazione open source e uso etico
Il team dietro Nightshade prevede di rilasciarlo come strumento open source, invitando altri a perfezionarne e migliorarne l'efficacia. Sottolineano che Nightshade dovrebbe essere visto come l'ultima risorsa per i creatori di contenuti che hanno a che fare con web scraper che ignorano i loro diritti.
Le sfide nella tutela dei diritti degli artisti
OpenAI, il creatore di DALL-E, ha recentemente iniziato a consentire agli artisti di rimuovere il proprio lavoro dai propri dati di formazione. Tuttavia, il processo è stato criticato perché oneroso e richiede agli artisti di presentare richieste individuali per ciascuna immagine che desiderano rimuovere. Semplificare questo processo di rimozione potrebbe scoraggiare gli artisti dal ricorrere a strumenti come Nightshade, il che potrebbe avere ripercussioni a lungo termine per gli sviluppatori di intelligenza artificiale.
Mentre la battaglia tra gli artisti che cercano di proteggere i propri diritti di proprietà intellettuale e gli sviluppatori di intelligenza artificiale che addestrano i loro modelli si intensifica, strumenti come Nightshade potrebbero diventare un’arma vitale per i creatori di contenuti. L’uso etico dell’intelligenza artificiale e il rispetto delle questioni legate al diritto d’autore stanno diventando sempre più importanti nel panorama in evoluzione dell’intelligenza artificiale.