Lunedì, oltre 600 dipendenti di Google (GOOGL, GOOG) hanno chiesto a Sundar Pichai di tenere il Pentagono lontano dall'intelligenza artificiale di Google per le attività classificate.
La lettera proveniva da dipendenti di DeepMind e Google Cloud, i quali facevano riferimento a un articolo di The Information secondo cui Google e il Dipartimento della Difesa statunitense erano in trattative per l'utilizzo di Gemini all'interno di sistemi classificati.
I dipendenti di Google elencano numerose ragioni per impedire a Gemini di lavorare a progetti segreti del Pentagono.
La lettera iniziava con un avvertimento diretto a Sundar, al quale i lavoratori dicevano: "Siamo dipendenti di Google e siamo profondamente preoccupati per i negoziati in corso tra Google e il Dipartimento della Difesa degli Stati Uniti. Come persone che lavorano sull'intelligenza artificiale, sappiamo che questi sistemi possono centralizzare il potere e che possono commettere errori".
I dipendenti hanno affermato di ritenere che la loro vicinanza alla tecnologia conferisca loro "la responsabilità di evidenziare e prevenire gli usi più immorali e pericolosi".
"Vi chiediamo di rifiutare di rendere disponibili i nostri sistemi di intelligenza artificiale per carichi di lavoro classificati. In caso contrario, tali utilizzi potrebbero verificarsi a nostra insaputa e senza che abbiamo il potere di impedirlo", hanno dichiarato i dipendenti di Google. La lettera spiegava poi che desiderano che l'IA aiuti le persone, non che contribuisca a arrecare danno. Tra le principali preoccupazioni hanno citato le armi autonome letali e la sorveglianza di massa. Hanno inoltre affermato che i rischi vanno oltre questi due ambiti, poiché i lavori classificati possono nascondere ciò che sta realmente accadendo.
La loro argomentazione era che se Google accetta incarichi di lavoro riservati all'esercito, i dipendenti potrebbero non avere modo di verificarne l'utilizzo, contestarlo o fermarlo, e l'unica vera garanzia è rifiutare il lavoro classificato prima che l'accordo venga concluso.
Hanno inoltre avvertito che una scelta sbagliata potrebbe danneggiare la reputazione, il business e la posizione di Google nel mondo. I dipendenti hanno affermato che la loro sicurezza e le infrastrutture critiche sono minacciate, mentre vite umane e diritti civili sono già a rischio a causa del cattivo utilizzo di tecnologie create da persone come loro.
Il Pentagono di Trump sta imponendo con la forza l'accesso massiccio all'intelligenza artificiale per le forze armate statunitensi.
I vertici del Pentagono hanno affermato che le forze armate devono essere libere di utilizzare l'intelligenza artificiale commerciale per "tutti gli usi leciti". Secondo i funzionari, questa espressione lascia al governo la libertà di utilizzare la tecnologia in diversi casi, pur rimanendo entro i limiti della legge statunitense e delle normative militari.
I lavoratori del settore dell'IA non ritengono che questa sia una protezione sufficiente. La loro preoccupazione è cresciuta a causa delle stesse parole e azioni di Trump. All'inizio di questo mese, il presidente Donald Trump ha minacciato di bombardare "ogni" ponte e centrale elettrica in Iran. Gli esperti hanno dichiarato al Washington Post che un simile attacco violerebbe il diritto internazionale. Anche gli attacchi della sua amministrazione contro imbarcazioni che, a detta dell'amministrazione, trasportavano droga, sono stati contestati da esperti di diritto internazionale.
La lettera di Google è arrivata mentre altre aziende di intelligenza artificiale sono già invischiate in dispute con il Pentagono. Anthropic, la società privata che ha sviluppato Claude, ha visto la sua tecnologia integrata nei sistemi militari statunitensi lo scorso anno. Questi strumenti hanno contribuito a elaborare i dati e a identificare potenziali obiettivi.
A febbraio, il Pentagono ha quindi interrotto ogni collaborazione con Anthropologie nell'ambito del Dipartimento della Difesa. L'azienda aveva tentato di inserire clausole contrattuali che vietassero l'utilizzo della sua intelligenza artificiale per la sorveglianza di massa o per lo sviluppo di armi autonome letali.
Anthropic e il governo sono ora in tribunale per stabilire se tale interruzione fosse legale. Questo caso ha attirato maggiore attenzione su Google e OpenAI, poiché entrambe collaborano con l'esercito statunitense.
OpenAI è una società privata, quindi non ha un ticker azionario. A febbraio ha firmato un accordo per fornire intelligenza artificiale per carichi di lavoro classificati, poco dopo l'eliminazione di Anthropic. Sam Altman, amministratore delegato di OpenAI, si è detto fiducioso che il contratto governativo impedisca l'utilizzo dell'IA per la sorveglianza di massa e per le armi autonome letali negli Stati Uniti.
Google ha già vissuto situazioni simili. Nel 2018, alcuni lavoratori protestarono contro un progetto del Pentagono che utilizzava l'intelligenza artificiale di Google per identificare oggetti nei filmati ripresi dai droni. Centinaia di persone firmarono una petizione contro quel progetto e Google in seguito decise di non rinnovare l'accordo.
Dopo quella controversia, Google si impegnò a non utilizzare la sua tecnologia di intelligenza artificiale per scopi bellici o di sorveglianza. Tuttavia, negli ultimi anni l'azienda ha cercato di ottenere ulteriori contratti militari. L'anno scorso, Google ha eliminato tali limitazioni. A dicembre, ha firmato un accordo che consente al Dipartimento della Difesa di utilizzare Gemini.
Se stai leggendo questo, sei già un passo avanti. Rimani al passo con i tempi iscrivendoti alla nostra newsletter .