In risposta alle controversie in corso tra creatori, detentori di proprietà intellettuale e società di intelligenza artificiale generativa riguardo all’uso etico dei dati, una nuova organizzazione senza scopo di lucro, Fairly Trained, è emersa come portabandiera di pratiche trasparenti e consensuali sui dati nello sviluppo di modelli di intelligenza artificiale generativa.
Fairly Trained, guidata dal CEO Ed-Newton Rex, mira a colmare il divario tra le aziende di intelligenza artificiale generativa che danno priorità all’ottenimento del consenso dai fornitori di dati e quelle che si oppongono a qualsiasi obbligo legale in tal senso. L'organizzazione ritiene che i consumatori meritino trasparenza su come le aziende gestiscono il materiale protetto da copyright e, in risposta, offre un processo di certificazione per le aziende impegnate nell'uso etico dei dati.
La certificazione L: un marchio di formazione basata sul consenso
Fairly Trained offre attualmente un'unica certificazione, nota come Certificazione del modello concesso in licenza (Certificazione L). Questa certificazione è ottenibile per qualsiasi fornitore di sistemi di intelligenza artificiale generativa che abbia addestrato i propri modelli utilizzando dati ottenuti tramite accordi consensuali.
Per qualificarsi per la certificazione L, le aziende devono garantire che i dati di formazione rispettino prerequisiti specifici. In primo luogo, i dati dovrebbero essere forniti allo sviluppatore del modello in base ad un accordo contrattuale con una parte che possiede i diritti necessari. In secondo luogo, i dati devono essere disponibili con una licenza aperta, di pubblico dominio o interamente di proprietà dello sviluppatore del modello. L'ottenimento di una licenza da un'organizzazione che concede licenze agli autori, come un'etichetta discografica o una libreria di immagini stock, è considerato consenso ai fini della certificazione.
Processo di richiesta rigoroso e conformità costante
Le aziende che desiderano ottenere la certificazione devono sottoporsi a un meticoloso processo di richiesta. Ciò implica la dimostrazione di un solido processo di due diligence dei dati e il mantenimento di registrazioni complete dei dati di addestramento utilizzati per ciascun modello. Il processo di candidatura inizia con un modulo online, seguito da Fairly Trained che esamina la presentazione e potenzialmente richiede ulteriori informazioni.
In caso di esito positivo della presentazione, le aziende sono tenute a pagare una quota di certificazione annuale che varia da $ 500 a $ 6.000, a seconda delle loro entrate. Questa commissione è destinata a sostenere gli sforzi continui di Fairly Trained per sostenere gli standard etici nel settore dell'intelligenza artificiale generativa.
Diffida di violazioni e revoca della certificazione
Fairly Trained sottolinea il proprio impegno nel sostenere gli standard etici e avverte che qualsiasi azienda ritenuta in violazione delle sue regole o categorie vedrà revocata la propria certificazione. L'organizzazione si riserva il diritto di ritirare la certificazione senza rimborso nel caso in cui emergano nuove informazioni che potrebbero influenzare l'esito della certificazione.
L'introduzione della certificazione L da parte di Fairly Trained risponde alle crescenti preoccupazioni relative all'uso etico dei dati nello sviluppo di sistemi di intelligenza artificiale generativa. Fornendo un quadro chiaro per le pratiche basate sul consenso, l’organizzazione mira a fornire ai consumatori informazioni sulle aziende che danno priorità alle considerazioni etiche nei loro processi di formazione sull’intelligenza artificiale. Mentre il panorama dell’intelligenza artificiale generativa continua ad evolversi, la certificazione di Fairly Trained potrebbe diventare un punto di riferimento per le aziende che cercano di dimostrare il proprio impegno verso pratiche di dati responsabili e trasparenti nel settore.