Un recente rapporto rivela una violazione della sicurezza presso OpenAI, dove l'anno scorso un hacker ha avuto accesso ai sistemi di messaggistica interni, rubando dettagli di progettazione delle tecnologie AI dell'azienda. Il New York Times ha riportato questa fuga di notizie, avvenuta in un forum online in cui i dipendenti di OpenAI hanno condiviso informazioni sui loro progressi attuali .
Leggi anche: L'apparente "suicidio" del robot sudcoreano è ora sotto inchiesta
È stato riferito che la fuga di notizie è avvenuta in un forum online in cui i dipendenti di OpenAI hanno condiviso gli aggiornamenti recenti. Secondo due fonti anonime a conoscenza dell'incidente, l'hacker non è riuscito ad accedere ai sistemi principali attraverso i quali OpenAI sviluppa e archivia la sua intelligenza artificiale, come ChatGPT. Secondo il NY Times, la società non ha segnalato pubblicamente la violazione poiché non era stato compromesso nulla di critico e non vi era alcuna minaccia alla sicurezza nazionale.
OpenAI mantiene misure di sicurezza dopo la violazione
I dirigenti di OpenAI hanno condiviso queste informazioni con i dipendenti durante la riunione generale dell'aprile dello scorso anno e con il consiglio di amministrazione. Nonostante la violazione, la società non ha considerato il coinvolgimento delle forze dell’ordine federali, imputando l’incidente a un privato che non era affiliato a nessuno stato estero.
Leggi anche: ChatGPT supera gli umani nel raccontare barzellette, lo dimostra uno studio
Sebbene l’incidente di violazione dei dati non abbia colpito i sistemi centrali dell’organizzazione considerati i più sensibili, secondo il rapporto l’incidente ha evidenziato la necessità di disporre di misure adeguate per proteggere le tecnologie avanzate di intelligenza artificiale.
La battaglia legale tra NYT e OpenAI prende una svolta inaspettata
In uno sviluppo correlato, la battaglia legale tra il New York Times e OpenAI ha ricevuto recentemente un importante aggiornamento. OpenAI ha depositato documenti che sollecitavano la corte a ordinare all'importante editore di dimostrare l'originalità dei suoi articoli fornendo materiali di origine dettagliati per ciascuna opera protetta da copyright. Questa richiesta ha complicato ulteriormente il caso dato che la base del caso è l'accusa di utilizzo non autorizzato dei contenuti del NYT per l'addestramento di modelli di intelligenza artificiale.
“Il Times sostiene che […] esso 'investe un'enorme quantità di tempo'. . . competenza e talento", anche attraverso "indagini approfondite – che di solito richiedono mesi e talvolta anni per riferire e produrre – in aree complesse e importanti di interesse pubblico. “
Gli avvocati di OpenAI
La richiesta richiede al New York Times di presentare tutta la documentazione relativa al processo di paternità, vale a dire note del giornalista, promemoria di interviste e registrazioni delle fonti. Gli avvocati di OpenAI hanno inoltre sottolineato che, secondo il NYT, l'azienda spende risorse significative per produrre giornalismo di livello mondiale. Pertanto, i metodi di creazione, il tempo, il lavoro e gli investimenti sono il nocciolo della questione. Pertanto, affermano che OpenAI ha il diritto di ispezionare questi aspetti attraverso il processo di scoperta.
Leggi anche: Shanghai ospita la conferenza mondiale sull’intelligenza artificiale 2024
Il New York Times ha risposto a OpenAI con un avviso legale emesso il 3 luglio per opporsi alla richiesta di materiale sorgente relativo al contratto. Il team legale del NYT ha affermato che la richiesta di OpenAI è nuova e basa la sua argomentazione su un'errata interpretazione del diritto d'autore. Hanno sostenuto che il processo di creazione di materiale protetto da copyright è irrilevante rispetto alla questione principale del caso.
Si prevede che l’amministrazione Biden annunci nel prossimo futuro nuove regole per prevenire l’uso improprio della tecnologia IA statunitense da parte dei paesi preoccupanti, tra cui Cina e Russia. Queste sono le prime misure proposte per contenere le attuali sofisticate applicazioni AI come ChatGPT.
Reporting criptopolita di Brenda Kanana