Google ha condiviso un documento di sicurezza sul suo modello di punta di intelligenza artificiale, Gemini 2.5 Pro. Gli esperti dicono che lascia i rischi principali inspiegabili.
L'azienda ha pubblicato il documento tecnico giovedì, diverse settimane dopo aver rilasciato Gemini 2.5 Pro ai clienti. Il documento elenca i test interni che Google ha eseguito sul modello ma offre pochi dati su come il sistema si comporta in caso di sovraccarico o uso improprio. I ricercatori che hanno esaminato il documento hanno dichiarato a TechCrunch che i dettagli mancanti rendono difficile giudicare se Gemini 2.5 Pro sia veramente sicuro per un ampio utilizzo.
I rapporti tecnici sono uno dei principali modi in cui il pubblico apprende cosa possono e non possono fare i sistemi avanzati di intelligenza artificiale. Un rapporto approfondito spesso mostra dove un modello fallisce e dove potrebbe essere utilizzato in modo improprio. Molti ricercatori sull’intelligenza artificiale considerano questi documenti come sforzi onesti per sostenere le affermazioni sulla sicurezza di un’azienda.
Google gestisce le segnalazioni di sicurezza in modo diverso.
Google pubblica un rapporto solo dopo che un modello non è più etichettato come “sperimentale” e sposta alcuni risultati relativi alle “capacità pericolose” in un audit separato che non viene pubblicato immediatamente. Di conseguenza, il documento pubblico non copre tutte le minacce che Google ha testato.
Diversi analisti hanno affermato che il nuovo documento Gemini 2.5 Pro è un caso drammatico di divulgazione limitata. Hanno anche notato che il rapporto non fa mai riferimento al Frontier Safety Framework di Google, o FSF, una politica annunciata dalla società lo scorso anno per individuare i futuri poteri dell’intelligenza artificiale che potrebbero causare “gravi danni”.
“Questo rapporto è molto scarno, contiene informazioni minime ed è arrivato settimane dopo che il modello era stato reso pubblico”, ha affermato Peter Wildeford, cofondatore dell’Institute for AI Policy and Strategy. "È impossibile confermare se Google stia mantenendo le proprie promesse, e quindi impossibile giudicare la sicurezza e la protezione dei suoi modelli."
Thomas Woodside, cofondatore del Secure AI Project, ha affermato di essere contento che sia apparso qualche documento, ma dubita del piano di Google di pubblicare follow-up costanti. Ha sottolineato che l’ultima volta che l’azienda ha condiviso i risultati dei test di capacità pericolosa è stato nel giugno 2024 e che il documento riguardava un modello annunciato nel febbraio dello stesso anno.
La fiducia è scesa ulteriormente quando gli osservatori non hanno visto alcun documento di sicurezza per Gemini 2.5 Flash, un modello più snello e veloce che Google ha rivelato la scorsa settimana. Un portavoce della società ha detto che un documento Flash “arriverà presto”.
"Spero che questa sia una vera promessa per iniziare a fornire aggiornamenti più frequenti", ha affermato Woodside. “Tali aggiornamenti dovrebbero includere risultati per modelli che non hanno ancora raggiunto il pubblico, perché anche questi modelli possono comportare seri rischi”.
Google ora non è all’altezza della trasparenza
La nota sulla sicurezza di Meta per i suoi nuovi modelli Llama 4 occupa solo poche pagine, mentre OpenAI ha scelto di non pubblicare alcun rapporto per la sua serie GPT‑4.1.
La carenza di dettagli arriva in un momento di tensione. Due anni fa, Google ha detto al governo degli Stati Uniti che avrebbe pubblicato documenti di sicurezza per ogni modello di intelligenza artificiale “significativo” nel suo ambito”. La società ha fatto promesse simili ai funzionari di altri paesi, affermando che avrebbe offerto “trasparenza pubblica” sui suoi prodotti di intelligenza artificiale.
Kevin Bankston, consulente senior sulla governance dell’intelligenza artificiale presso il Center for Democracy and Technology, ha definito i rilasci dei principali laboratori una “corsa al ribasso” sulla sicurezza.
"In combinazione con i rapporti secondo cui laboratori rivali come OpenAI hanno ridotto i tempi dei test di sicurezza prima del rilascio da mesi a giorni, questa scarsa documentazione per il modello di punta di Google racconta una storia preoccupante di una corsa al ribasso sulla sicurezza e la trasparenza dell'IA mentre le aziende lanciano i loro modelli sul mercato", ha aggiunto.
Google afferma che gran parte del suo lavoro sulla sicurezza avviene a porte chiuse. La società afferma che ogni modello viene sottoposto a severi test, incluso il “red teaming contraddittorio”, prima di qualsiasi lancio pubblico.
Cryptopolitan Academy: stanco delle oscillazioni del mercato? Scopri come la DeFi può aiutarti a creare un reddito passivo costante. Registrati ora