Lunedì Anthropic ha portato la sua battaglia con l'amministrazione Trump in tribunale, aprendo un nuovo fronte in una delle battaglie più aspre nel settore dell'intelligenza artificiale. L'azienda ha intentato causa dopo che l'amministrazione l'ha etichettata come una minaccia alla sicurezza e ha deciso di interrompere i suoi contratti federali.
Tale decisione ha inserito Anthropic in una categoria solitamente associata a operatori stranieri ostili, non in un'azienda statunitense che sviluppa modelli di intelligenza artificiale per scopi sia governativi che commerciali.
Nella sua denuncia, depositata nel distretto settentrionale della California, Anthropic ha sostenuto che l'amministrazione ha agito al di fuori della legge e ha utilizzato il potere federale come punizione dopo che l'azienda ha contestato il modo in cui il Pentagono voleva utilizzare l'intelligenza artificiale.
La causa ha nominato il Dipartimento della Difesa, il Segretario alla Difesa Pete Hegseth, il Segretario al Tesoro Scott Bessent, il Segretario di Stato Marco Rubio e il Segretario al Commercio Howard Lutnick.
Anthropic ha dichiarato alla corte che le azioni del governo minacciano una delle aziende private di intelligenza artificiale in più rapida crescita del Paese e potrebbero rappresentare un pericoloso esempio per altre aziende che non condividono gli ideali di Washington. L'azienda ha chiesto alla corte di dichiarare illegittime tali azioni.
La Casa Bianca ha reagito rapidamente. Una portavoce ha dichiarato: "Il presidente Trump non permetterà mai a un'azienda di estrema sinistra e woke di mettere a repentaglio la nostra sicurezza nazionale dettando le regole del funzionamento dell'esercito più grande e potente del mondo".
I ricercatori sostengono Anthropic dopo che la causa ha ampliato la lotta nella Silicon Valley
Poco dopo l'archiviazione del caso, 37 ricercatori di intelligenza artificiale dei rivali OpenAI e Google hanno presentato una memoria chiedendo alla corte di schierarsi dalla parte di Anthropic. Tale sostegno ha dimostrato quanto questo scontro si sia esteso oltre una singola azienda e un singolo contratto.
Nella loro denuncia si avvertiva che punire un'importante azienda statunitense di intelligenza artificiale per i limiti di sicurezza avrebbe potuto danneggiare la posizione più ampia del Paese nel settore dell'intelligenza artificiale.
I ricercatori hanno scritto: "Se si lasciasse che ciò avvenga, questo tentativo di punire una delle principali aziende statunitensi di intelligenza artificiale avrebbe senza dubbio conseguenze sulla competitività industriale e scientifica degli Stati Uniti nel campo dell'intelligenza artificiale e non solo".
Quell'incarico ha aggiunto ulteriore pressione a un caso che stava già attirando l'attenzione di tutto il settore tecnologico.
La controversia più profonda si concentra sulle regole da applicare quando il Pentagono utilizza sistemi di intelligenza artificiale. Durante i colloqui contrattuali con il Dipartimento della Difesa, Anthropic ha voluto chiare garanzie che i suoi strumenti non sarebbero stati utilizzati per la sorveglianza interna di massa o per armi autonome.
Il Pentagono ha respinto tale approccio. La sua posizione era semplice: rispetta la legge, non farebbe quelle cose e l'azienda dovrebbe fidarsi dell'esercito per l'utilizzo dell'IA in qualsiasi situazione legale. Questo disaccordo ha contribuito a far saltare i negoziati formali, che il Pentagono ha poi dichiarato conclusi.
La lotta si è estesa anche alla politica e al commercio. Le due parti si sono scontrate sulla decisione di Trump di consentire l'esportazione di chip di intelligenza artificiale in Cina. Ci sono state anche tensioni sui legami di Anthropic con organizzazioni che hanno donato a cause democratiche.
Tali questioni hanno trasformato l'azienda in un bersaglio importante per gli alleati di Trump, nonostante la controversia le abbia procurato maggiore sostegno da parte di alcuni clienti e partner.
Trump e Hegseth insistono sulla repressione mentre Anthropic lotta per proteggere un contratto da 200 milioni di dollari
Lo scontro si è ulteriormente aggravato il 27 febbraio, quando Hegseth ha dichiarato che avrebbe designato Anthropic come un rischio per la catena di approvvigionamento del Pentagono. Questo strumento viene normalmente utilizzato per le aziende legate ad avversari stranieri.
In base a tale procedura, i massimi funzionari del Pentagono devono dimostrare l'esistenza di una reale minaccia alla sicurezza. Hegseth e altri funzionari hanno sostenuto che il rifiuto di Anthropic di consentire all'esercito di utilizzare la sua IA in tutti i casi legittimi costituisse di per sé un rischio.
La loro argomentazione era che un'azienda privata non dovrebbe essere in grado di controllare il modo in cui le forze armate utilizzano tecnologie critiche, perché un'azienda potrebbe in seguito disattivare l'accesso o modificare le impostazioni durante le operazioni.
Lo stesso giorno, Trump ha ordinato alle agenzie federali di smettere di utilizzare Claude e ha dato loro sei mesi per passare ad altri modelli di intelligenza artificiale. Anthropic ha colto questo punto nella sua denuncia, affermando che la finestra temporale di sei mesi dimostra quanto i suoi sistemi siano importanti per il governo.
L'azienda ha anche affermato che Trump ha saltato le procedure legali necessarie per annullare un contratto federale. Il suo accordo con il Dipartimento della Difesa valeva fino a 200 milioni di dollari.
Il danno finanziario potrebbe estendersi oltre il diretto lavoro governativo. I clienti che hanno a che fare anche con il Pentagono potrebbero ora dover dimostrare di non aver utilizzato Claude per attività del Dipartimento della Difesa.
Ciò potrebbe avere ripercussioni negative sull'attività di Anthropic anche al di fuori del contratto stesso. Tuttavia, Microsoft e Google, entrambi investitori o partner, hanno dichiarato che continueranno a collaborare con l'azienda su progetti commerciali che non coinvolgono il Pentagono.
I sostenitori di Anthropic affermano che la tesi dell'amministrazione appare traballante anche per un altro motivo: il Pentagono ha utilizzato Claude in operazioni con l'Iran e, fino a poco tempo fa, Anthropic era l'unico sviluppatore di modelli di intelligenza artificiale autorizzato a operare in contesti classificati.
Un portavoce di Anthropic ha dichiarato: "Richiedere una revisione giudiziaria non cambia il nostro impegno di lunga data nell'utilizzare l'intelligenza artificiale per proteggere la nostra sicurezza nazionale, ma questo è un passo necessario per proteggere la nostra attività, i nostri clienti e i nostri partner". Ha aggiunto: "Continueremo a perseguire ogni percorso verso una risoluzione, incluso il dialogo con il governo".
Le menti più brillanti del mondo delle criptovalute leggono già la nostra newsletter. Vuoi partecipare? Unisciti a loro .