Meta utilizzerà le attività social degli utenti per addestrare i suoi modelli di intelligenza artificiale

Meta ha annunciato che prevede di utilizzare post pubblici e immagini di Facebook e Instagram per addestrare i suoi strumenti di intelligenza artificiale. Meta ha anche rivelato la sua nuova politica sulla privacy, che entrerà in vigore il 26 giugno 2024.

Meta ha recentemente annunciato nuove modifiche alla sua politica sulla privacy, comprese le disposizioni per l’utilizzo dei dati degli utenti per addestrare i suoi strumenti di intelligenza artificiale. Ciò significa che post, commenti, immagini, didascalie di immagini e storie condivise pubblicamente verranno utilizzati nella formazione sull'intelligenza artificiale. L'azienda ha chiarito che per questa finalità verranno utilizzati i dati degli utenti maggiori di 18 anni.

La nuova politica di Meta entrerà in vigore dal 26 giugno

Meta addestrerà i suoi sistemi di intelligenza artificiale utilizzando le attività social degli utenti su Facebook e Instagram. Meta ha dichiarato che utilizzerà dati risalenti al 2007 per addestrare e mettere a punto i suoi strumenti di intelligenza artificiale. Comprenderà anche i contenuti ancora presenti sugli account che sono diventati dormienti e non più in uso.

Leggi anche: OpenAI protegge i contenuti Reddit per il miglioramento di ChatGPT

Accettando i termini e le condizioni su uno qualsiasi dei prodotti Meta, ad esempio creando un nuovo account o utilizzando un account esistente su Facebook o Instagram, gli utenti devono accettare l'autorizzazione a utilizzare le proprie informazioni per l'addestramento degli strumenti di intelligenza artificiale.

Molti utenti e artisti che condividono le proprie opere sui propri account su queste piattaforme sono preoccupati per questo. Tuttavia, Meta ha affermato che non utilizzerà i dati dei messaggi privati ​​(DM) su Instagram e Facebook, ma i messaggi al chatbot di Meta verranno utilizzati come materiale di formazione. Ai fini della formazione verranno prese in considerazione anche le conversazioni tra utenti e imprese.

La maggior parte degli utenti non può rinunciare

La maggior parte degli utenti non ha la possibilità di scegliere di non consentire ai propri dati di addestrare Meta AI, ma gli utenti di alcuni stati degli Stati Uniti e dell'UE possono rinunciare. Il processo, però, non è molto semplice. Gli utenti dello stato americano dell'Illinois possono rinunciare perché hanno leggi sulla protezione dell'IA.

Gli utenti dell’UE sono ora protetti anche da leggi come il Regolamento generale sulla protezione dei dati (GDPR). Max Schrems, fondatore di Noyb , ha affermato che,

"Meta sta sostanzialmente dicendo che può utilizzare 'qualsiasi dato proveniente da qualsiasi fonte per qualsiasi scopo e renderlo disponibile a chiunque nel mondo', purché ciò avvenga tramite 'tecnologia AI'. Questo è chiaramente l’opposto della conformità al GDPR. “Tecnologia AI” è un termine estremamente ampio.”

Per le informazioni che gli utenti condividono direttamente con Meta tramite Facebook o Instagram, gli utenti dell'Illinois e dell'UE hanno il diritto di opporsi all'utilizzo delle loro informazioni per l'addestramento dell'IA. Lo stesso vale per le informazioni che Meta ha ottenuto da terzi. Tuttavia, Meta richiede ai suoi utenti di compilare moduli, fornire prove e inserire un passcode monouso.

I creatori sono preoccupati per la formazione dell’IA

Recentemente, le società di intelligenza artificiale hanno dovuto affrontare azioni legali per aver utilizzato dati di giornali e altre pubblicazioni senza autorizzazione per la formazione sull’intelligenza artificiale. Meta ha una storia di utilizzo e vendita dei dati degli utenti e ora utilizzerà i dati per la formazione sull'intelligenza artificiale.

Leggi anche: 8 giornali americani trascinano OpenAI e Microsoft in tribunale per violazioni di copyright

Molti artisti e creatori si affidano a Instagram per interagire con le persone e condividere le proprie opere d'arte. La parte preoccupante è che Meta può utilizzare le proprie opere creative e le proprie immagini per sviluppare i propri strumenti di intelligenza artificiale a meno che gli utenti non si oppongano con successo al loro utilizzo. Dato il complicato processo di rinuncia, secondo il responsabile legale di DAC, Simon Marshall, i contenuti di molti utenti riluttanti potrebbero essere lasciati alla mercé di Meta per addestrare i suoi modelli di intelligenza artificiale.

L'illustratrice per bambini Sara Fandrey dal Portogallo ha espresso le sue preoccupazioni dopo aver appreso dei nuovi aggiornamenti politici. Uno dei suoi video è diventato virale, in cui dava consigli su come compilare il modulo di opposizione. Parlando con l'Australian Broadcasting Corporation ( ABC ), Sara ha detto:

“Queste immagini non provengono dal nulla. Sono tutti basati su altre immagini. Sono importante. Sono un essere umano. Ho una voce. Ho un'abilità che ho acquisito su cui ho lavorato, ed è mia.

Sara ha sottolineato gli strumenti di intelligenza artificiale di Meta, che ora possono generare immagini per gli utenti dopo essere stati addestrati su immagini provenienti da diverse fonti, comprese le immagini degli artisti. Ha messo in dubbio l'autorità di Meta di eliminare contenuti che sono proprietà intellettuale di singoli artisti per addestrare gli strumenti di intelligenza artificiale dell'azienda.

La dottoressa Joanne Gray dell’Università di Sydney ha affermato che l’esenzione statunitense consente a queste aziende di copiare contenuti e creare qualcosa di nuovo utilizzando l’intelligenza artificiale. Gray ha detto che queste sono tutte nuove sfide e che bisogna vedere come andranno le cose riguardo ai procedimenti legali. Ha menzionato le preoccupazioni dei creatori e ha detto: “Questi modelli copiano lo stile. Anche se copiare uno stile non costituisce una violazione del diritto d'autore, è importante come risorsa economica per le persone quando si stabiliscono.


Reportage criptopolita di Aamir Sheikh

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto