OpenAI rinnova la sicurezza per proteggere la proprietà intellettuale

OpenAI ha rinnovato le sue misure di sicurezza per proteggersi dalle minacce esterne. L'azienda di intelligenza artificiale da 300 miliardi di dollari, nota a livello globale per prodotti come ChatGPT, ha implementato un'ampia revisione della sicurezza che include controlli di accesso più rigorosi, controlli più rigorosi sui dipendenti e misure di sicurezza fisica.

Sebbene l'azienda abbia negato l'affermazione secondo cui le sue azioni siano una risposta alla concorrenza, OpenAI ha rafforzato le sue procedure di sicurezza dopo un incidente avvenuto a gennaio e che ha coinvolto la startup cinese DeepSeek .

OpenAI rinnova la sicurezza

Negli ultimi mesi, OpenAI ha notevolmente aumentato le sue misure di sicurezza interna per proteggere la sua proprietà intellettuale dallo spionaggio straniero, in particolare dalla Cina. L'azienda ha iniziato a implementare protocolli più rigorosi lo scorso anno, ma questi sforzi hanno acquisito una nuova urgenza dopo il lancio di DeepSeek a gennaio.

OpenAI sospetta che l'azienda rivale abbia utilizzato la "distillazione" per sviluppare e lanciare un prodotto concorrente. La distillazione è una tecnica che prevede l'addestramento di un nuovo modello affinché ne imiti il ​​comportamento.

"L'episodio ha spinto OpenAI a essere molto più rigorosa", ha affermato una fonte vicina al team di sicurezza. Da allora, l'azienda ha ampliato in modo aggressivo le sue operazioni di sicurezza informatica e rafforzato il controllo sull'accesso a ricerche sensibili, dati di modelli e infrastrutture.

Finora DeepSeek non ha risposto alle accuse.

L'incidente di DeepSeek ha anche innescato una massiccia stretta interna in OpenAI. Nuove policy, note internamente come "information tenting", vengono ora utilizzate per determinare le modalità di accesso e condivisione dei dati sensibili.

Solo una ristretta cerchia di membri dello staff può accedere a progetti di ricerca di alto livello e coloro che sono coinvolti in determinati sviluppi devono confermare che anche gli altri con cui interagiscono facciano parte della stessa "tenda".

Questo approccio cauto è stato implementato durante lo sviluppo del modello di nuova generazione di OpenAI, denominato internamente "Strawberry". Al personale è stato chiesto di non discutere del progetto in uffici aperti al pubblico a meno che non fossero certi che i loro colleghi fossero ufficialmente autorizzati a parteciparvi.

Questa segretezza ha causato alcuni attriti interni: un dipendente l'ha descritta come "molto severa", affermando: "o avevi tutto o niente".

A livello di sistema, OpenAI ora archivia gran parte della sua tecnologia proprietaria in ambienti isolati e offline. Questa infrastruttura air-gapped separa i sistemi critici dalle reti più ampie e dalla rete Internet pubblica, riducendo il rischio di infiltrazioni remote.

È stata potenziata anche la sicurezza fisica: presso la sede aziendale di San Francisco è obbligatorio l'accesso tramite impronte digitali biometriche in alcune stanze.

Per prevenire ulteriormente la fuga di dati dei parametri chiave che regolano la risposta dei modelli OpenAI alle richieste degli utenti, l'azienda ha imposto una rigorosa politica di "negazione di default" dell'uscita. Ciò significa che ai sistemi è impedita la connessione a Internet se non espressamente autorizzati.

La leadership dell’intelligenza artificiale è diventata un campo di battaglia tra Stati Uniti e Cina

Tra Stati Uniti e Cina è in atto una competizione incessante per la leadership nelle tecnologie emergenti, in particolare nell'intelligenza artificiale.

Washington ha imposto una serie di controlli sulle esportazioni volti a impedire a Pechino di acquisire semiconduttori avanzati e tecnologie correlate. Allo stesso tempo, le agenzie di intelligence statunitensi hanno avvertito che attori stranieri hanno intensificato i loro sforzi per rubare dati sensibili alle aziende tecnologiche americane.

L'escalation delle minacce di spionaggio ha spinto diverse importanti aziende della Silicon Valley ad adottare controlli più rigorosi sui nuovi assunti, e OpenAI non fa eccezione. Le aziende di intelligenza artificiale e tecnologia hanno iniziato a valutare più seriamente i rischi di minacce interne dal 2023.

Nell'ottobre dello scorso anno, OpenAI ha assunto Dane Stuckey come nuovo responsabile della sicurezza informatica. Stuckey, che in precedenza ricopriva lo stesso ruolo presso Palantir , apporta un approccio incentrato sulla sicurezza nazionale alla strategia di difesa dell'organizzazione.

Stuckey collabora a stretto contatto con Matt Knight, vicepresidente dei prodotti di sicurezza di OpenAI, che attualmente guida gli sforzi per utilizzare i grandi modelli linguistici dell'azienda come strumenti di difesa dalle minacce informatiche.

Inoltre, lo scorso anno, OpenAI ha accolto nel suo consiglio di amministrazione il generale in pensione dell'esercito americano Paul Nakasone. Nakasone è stato a capo dello US Cyber ​​Command e della National Security Agency (NSA). Porta con sé un'approfondita conoscenza delle minacce alla sicurezza informatica e delle strategie di difesa, che lo rendono un punto di riferimento per il team esecutivo di OpenAI.

Nonostante la gravità di queste modifiche, OpenAI ha dichiarato che la revisione della sicurezza non è una risposta diretta a un singolo incidente.

Un portavoce dell'azienda ha dichiarato al Financial Times che gli aggiornamenti rientrano negli investimenti dell'azienda in materia di privacy e sicurezza, con l'obiettivo di diventare leader del settore.

La crescente attenzione rivolta allo spionaggio estero, in particolare da parte della Cina, ha sollevato preoccupazioni circa l'alimentazione di correnti xenofobe nel settore. Diversi addetti ai lavori e osservatori hanno espresso il timore che le ampie politiche di sicurezza possano involontariamente alienare i dipendenti di origine asiatica o portare a un controllo eccessivo basato sulla nazionalità piuttosto che su indicatori di minaccia reali.

KEY Difference Wire : lo strumento segreto utilizzato dai progetti crittografici per ottenere una copertura mediatica garantita

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto