Lunedì OpenAI ha annunciato di aver unito le forze con Bryan Cranston, SAG‑AFTRA e importanti gruppi di talenti di Hollywood per affrontare il crescente problema dei deepfake realizzati con il suo strumento video basato sull'intelligenza artificiale, Sora.
Questo accade dopo che, subito dopo il lancio di Sora 2 a fine settembre, sono comparsi online falsi filmati del volto e della voce di Cranston. Cranston non aveva idea della loro esistenza finché non gli sono stati condivisi, e non ne è stato contento.
Intervenendo tramite SAG‑AFTRA, che ne ha parlato su X, Cranston ha affermato: "Sono grato a OpenAI per la sua politica e per aver migliorato le sue misure di sicurezza, e spero che loro e tutte le aziende coinvolte in questo lavoro rispettino il nostro diritto personale e professionale di gestire la replica della nostra voce e della nostra immagine".
Questa linea è caduta proprio quando OpenAI ha annunciato che avrebbe collaborato con SAG‑AFTRA, l'agenzia di Cranston, United Talent Agency (UTA), e altri importanti gruppi come la Creative Artists Agency (CAA) e l'Association of Talent Agents per bloccare gli usi non autorizzati delle identità degli attori.
OpenAI è sotto pressione da parte delle agenzie per l'uso improprio di Sora 2
OpenAI è da tempo sotto attacco da parte delle agenzie di talenti. Sia CAA che UTA hanno attaccato duramente l'azienda all'inizio di quest'anno per aver utilizzato materiale protetto da copyright per addestrare i propri modelli, definendo Sora una vera e propria minaccia alla proprietà intellettuale dei loro clienti.
Questi avvertimenti si sono concretizzati quando gli utenti hanno iniziato a caricare su Sora video irrispettosi di Martin Luther King Jr. I video erano così pessimi che la scorsa settimana gli eredi di King sono dovuti intervenire e chiedere che venissero bloccati, e OpenAI ha acconsentito.
Le polemiche non si sono fermate qui. Anche Zelda Williams, figlia del defunto comico Robin Williams, ha intimato alla gente di smettere di inviarle video di suo padre realizzati con l'intelligenza artificiale dopo l'uscita di Sora 2. Ha reso pubblica la sua frustrazione poco dopo il lancio, gettando ulteriore benzina sul fuoco già acceso attorno alla scarsa presa di OpenAI sulla protezione dell'identità.
Con l'accumularsi delle lamentele, l'azienda ha deciso di inasprire le sue policy. Sora richiedeva già il consenso esplicito per l'utilizzo di voce e immagine, ma OpenAI ha affermato di impegnarsi a rispondere rapidamente a qualsiasi reclamo relativo a impersonificazioni o usi impropri.
Sam Altman aggiorna la politica e promuove il NO FAKES Act
Il 3 ottobre, il CEO di OpenAI, Sam Altman, ha ufficializzato la decisione: la vecchia policy che consentiva all'azienda di utilizzare il materiale a meno che qualcuno non le dicesse di non farlo? Abolita. L'azienda ora offre ai titolari dei diritti "un controllo più granulare sulla generazione dei personaggi", il che significa che le agenzie possono finalmente gestire come e quando le identità dei loro clienti vengono utilizzate in Sora.
Sam ha anche ribadito il suo sostegno al NO FAKES Act, una legge statunitense volta a fermare le repliche non autorizzate di IA. "OpenAI è profondamente impegnata a proteggere gli artisti dall'appropriazione indebita della loro voce e della loro immagine", ha affermato. "Siamo stati tra i primi sostenitori del NO FAKES Act quando è stato introdotto l'anno scorso e sosterremo sempre i diritti degli artisti".
OpenAI si è trasformata da un'azienda di ricerca a un impero dell'intelligenza artificiale che insegue tutto: app di chat, piattaforme social e strumenti aziendali. Ma con miliardi investiti in chip di intelligenza artificiale e con il suo gigantesco data center ancora a corto di liquidità, sta cercando con ansia contratti governativi e aziendali per pagare i conti. Ciò significa che evitare cause legali e liberarsi di attori, agenti e legislatori è ora importante quanto addestrare il prossimo modello di intelligenza artificiale.
Registrati su Bybit e inizia a fare trading con $ 30.050 in regali di benvenuto