Una nuova dichiarazione del tribunale ha rivelato che Meta ha concordato con gli host del suo modello di intelligenza artificiale Llama di condividere le entrate. L'istanza è stata presentata dagli avvocati del querelante nella causa in corso sul copyright Kadrey v. Meta, in cui la società è stata accusata di utilizzare libri piratati per addestrare i suoi modelli di intelligenza artificiale.
Gli avvocati del querelante sono andati oltre per dimostrare che Meta condivide una percentuale delle sue entrate con le società che ospitano i suoi modelli Llama. Dal documento è inoltre emerso che la società condivide una percentuale dei fondi che le piattaforme di hosting generano dagli utenti dei modelli.
Questa rivelazione arriva dal retro di un post sul blog del luglio 2024, in cui il CEO di Meta Mark Zuckerberg ha affermato che la società non sta cercando di vendere l'accesso ai modelli Llama AI di Meta liberamente disponibili come modello di business. Tuttavia, questo non è il caso in quanto la società guadagna dei soldi da Llama utilizzando un formulario di ripartizione delle entrate, almeno secondo la copia non redatta del deposito del tribunale.
La documentazione del tribunale mostra l'accordo di condivisione delle entrate di Meta con gli host
Secondo i rapporti, il documento non discute specificamente degli host che hanno il modello di condivisione delle entrate con Meta, ma la società ha una serie di partner host di alto profilo. Includono AWS, Databricks, Groq, Dell, Azure, Google Cloud, Nvidia, IBM, Intel, AMD e Snowflake. Agli sviluppatori non è richiesto di utilizzare i modelli Llama tramite un partner host, ma questi modelli possono essere scaricati, ottimizzati ed eseguiti su una gamma di hardware diversi.
Tuttavia, gli host forniscono servizi e strumenti aggiuntivi che garantiscono che i modelli Llama siano più semplici e facili durante il lavoro. Durante una precedente riunione degli utili nell’aprile 2024, Zuckerberg aveva lanciato la possibilità di concedere in licenza l’accesso ai modelli Llama, aggiungendo che la società avrebbe potuto monetizzare il modello anche in altri modi. Ha menzionato strade come i servizi di messaggistica aziendale e gli annunci nelle interazioni con l’intelligenza artificiale, ma non è riuscito a fornire dettagli chiari.
In un recente rapporto, Mark Zuckerberg ha affermato che la maggior parte del valore che Meta ottiene da Llama deriva dai miglioramenti apportati al modello dalla comunità di ricerca sull'intelligenza artificiale. Meta utilizza i modelli anche per alimentare molti prodotti sulle sue piattaforme e proprietà, incluso l'assistente Meta AI, Meta AI.
"Se sei qualcuno come Microsoft, Amazon o Google e intendi rivendere questi servizi, è qualcosa per cui pensiamo che dovremmo ottenere una parte delle entrate", ha detto Zuckerberg. Ha aggiunto che questi sono i tipi di accordi su cui la società è ora focalizzata, aggiungendo che sono già stati compiuti passi in quella direzione.
Nella sua dichiarazione sugli utili del terzo trimestre del 2024, Zuckerberg ha anche affermato di ritenere che sia un buon affare se la società lo fa apertamente. "Rende i nostri prodotti migliori, piuttosto che se fossimo semplicemente su un'isola a costruire un modello che nessuno stava standardizzando nel settore", ha aggiunto.
Meta continua a combattere la causa per violazione
Secondo l'avvocato che rappresenta i querelanti, il fatto che Meta possa generare entrate in modo piuttosto diretto dai suoi modelli Llama è importante perché dimostra che l'azienda ha facilitato la violazione anche seminando o caricando i propri lavori. I ricorrenti sostengono che Meta abbia utilizzato metodi nascosti per ottenere gli e-book in modalità torrent a scopo formativo. Sostenevano inoltre che, a causa del modo in cui funziona il torrent, condivideva gli e-book con altri torrenter.
Meta ha pianificato di aumentare le proprie spese in conto capitale quest’anno, grazie in parte all’aumento degli investimenti nell’intelligenza artificiale. A gennaio, la società ha annunciato che intendeva spendere dai 60 agli 80 miliardi di dollari in CapEx nel 2025, raddoppiando l'importo speso in CapEx nel 2024. I fondi andranno principalmente ai data center e alla crescita del team di sviluppo AI dell'azienda. Ci sono anche rapporti secondo cui l'azienda sta valutando la possibilità di lanciare un servizio in abbonamento per Meta AI che aggiungerà ulteriori funzionalità che devono ancora essere specificate per l'assistente.
Cryptopolitan Academy: stanco delle oscillazioni del mercato? Scopri come la DeFi può aiutarti a creare un reddito passivo costante. Registrati ora