Anthropic accetta un accordo storico da 1,5 miliardi di dollari per violazione del copyright in una causa sulla proprietà intellettuale

Anthropic ha accettato di pagare 1,5 miliardi di dollari per chiudere un'importante causa per violazione del copyright dopo che gli autori hanno affermato che l'azienda ha utilizzato libri piratati per addestrare il suo chatbot AI Claude senza autorizzazione.

L'accordo di class action proposto rappresenta il più grande risarcimento per violazione del copyright mai registrato e il primo importante accordo transattivo legato all'intelligenza artificiale. Se il giudice William Alsup di San Francisco lo approverà, l'accordo compenserà centinaia di migliaia di autori e stabilirà un nuovo standard per l'utilizzo del materiale protetto da copyright da parte delle aziende di intelligenza artificiale.

Ciò avviene dopo che un giudice statunitense ha consentito a un gruppo di autori di intentare una causa contro l'azienda di intelligenza artificiale Anthropic, sostenendo che i loro libri sono stati utilizzati senza consenso per addestrare il suo modello di intelligenza artificiale. Gli autori, tutti affermati professionisti, sostengono che Anthropic ha utilizzato le loro opere protette da copyright per addestrare il suo chatbot Claude senza autorizzazione o compenso.

Sostengono che l'azienda abbia esagerato sfruttando le proprie storie per rendere l'intelligenza artificiale più umana, arrivando persino a imitare il loro stile di scrittura e le loro idee.

Gli autori ottengono un risarcimento record nel caso di violazione del copyright

L'accordo da 1,5 miliardi di dollari riguarda circa 500.000 libri piratati che l'azienda ha scaricato da biblioteche ombra online come Library Genesis, Pirate Library Mirror e il dataset Books3. Queste biblioteche online sono fonti popolari di copie digitali non autorizzate di libri che ricercatori e sviluppatori di intelligenza artificiale utilizzano per i loro dataset. Per molto tempo, scrittori, editori e gruppi di difesa dei diritti hanno criticato questi archivi per aver minato la tutela del copyright.

L'accordo prevede che ogni autore il cui libro Anthropic sia stato utilizzato illegalmente come dati di addestramento per la sua intelligenza artificiale riceverà un risarcimento di circa 3.000 dollari. Se ulteriori indagini dovessero rivelare ulteriori dati utilizzati dall'azienda nel suo set di dati, l'importo totale potrebbe superare di gran lunga gli 1,5 miliardi di dollari iniziali.

Il caso di Anthropic è iniziato nel 2024, quando gli autori Andrea Bartz, Charles Graeber e Kirk Wallace Johnson hanno fatto causa all'azienda per aver copiato i loro libri senza autorizzazione. In seguito, centinaia di migliaia di altri scrittori hanno intentato una causa, sostenendo che l'azienda aveva utilizzato le loro opere per addestrare il suo chatbot di punta, Claude .

Gli autori hanno sottolineato l'ignoranza di Anthropic nel concedere in licenza il materiale in modo legittimo, nonostante la sua situazione finanziaria, come dimostrano i suoi potenti investitori, come Amazon e Alphabet, la società madre di Google.

A giugno, il giudice William Alsup ha stabilito che l'utilizzo di materiale protetto da copyright per addestrare modelli di intelligenza artificiale può essere considerato un uso corretto se le opere hanno un impatto trasformativo. Ha però anche affermato che Anthropic ha violato la legge sul copyright scaricando e archiviando oltre 7.000.000 di libri piratati in una biblioteca centrale.

La sentenza ha esposto l'azienda a danni se la causa fosse andata a processo come previsto a dicembre, poiché gli esperti legali avevano avvertito che Anthropic avrebbe potuto dover pagare centinaia di miliardi di dollari.

Anthropic evita il processo ma continua a correre rischi legali

I termini dell'accordo da 1,5 miliardi di dollari impongono ad Anthropic di distruggere ogni copia dei libri piratati per impedirle di continuare a trarre profitto da materiale non autorizzato. Tuttavia, gli esperti affermano che l'accordo non protegge l'azienda da nuove cause legali. Gli autori potrebbero comunque intentare causa se il sistema Claude generasse output che riproducono passaggi protetti da copyright o violano le loro opere.

Anthropic ha affermato che l'accordo non includeva un'ammissione di responsabilità, ma piuttosto che voleva procedere senza l'incertezza di un lungo processo. Il vicedirettore generale dell'azienda, Aparna Sridhar, ha spiegato che Anthropic è ancora impegnata a produrre prodotti sicuri, affidabili e a supporto del progresso umano. Ha affermato che l'azienda vuole concentrarsi sullo sviluppo di strumenti che migliorino la scienza e siano al servizio del pubblico, piuttosto che trascorrere anni bloccati in battaglie legali.

Altre aziende di intelligenza artificiale come OpenAI, Microsoft e Meta sono ancora alle prese con cause legali che sollevano problemi di copyright pressoché identici. Un giudice di San Francisco ha recentemente autorizzato la prosecuzione di una causa contro Meta , affermando che l'uso di materiale protetto da copyright senza autorizzazione è illegale "in molte circostanze".

L'accordo ha salvato Anthropic dalla possibilità di trascinare la controversia fino alla Corte Suprema degli Stati Uniti, perché avrebbe potuto apportare enormi cambiamenti alle leggi nazionali su come il fair use si applica all'intelligenza artificiale.

Vuoi che il tuo progetto venga presentato ai più grandi esperti del settore crypto? Presentalo nel nostro prossimo report di settore, dove i dati incontrano l'impatto.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto