Un giudice federale di San Francisco ha appena confermato ciò che molti già pensavano, ovvero che il governo statunitense si è accanito contro Anthropologie per pura meschinità, perché l'azienda si era espressa contro le atrocità commesse dal suo cosiddetto Dipartimento della Guerra.
Il caso è approdato questa settimana in un tribunale californiano, poiché Anthropic sta cercando di impedire un divieto totale dei suoi modelli di intelligenza artificiale all'interno dei sistemi governativi.
Il giudice afferma che le azioni del governo sembrano una punizione contro Anthropic
La giudice Rita Lin lo ha affermato chiaramente in tribunale: "Sembra un tentativo di paralizzare Anthropic". Ha aggiunto che azioni come questa "costituirebbero ovviamente una violazione del Primo Emendamento".
Rita ha inoltre sottolineato che, dopo che Anthropic ha reso pubblica la sua controversia con il Pentagono, il governo ha reagito con forza. A suo dire, "sembra aver avuto una reazione piuttosto veemente". Ha anche affermato che la risposta non sembrava legata a una reale esigenza di sicurezza nazionale. Ha dichiarato in tribunale che "non sembra essere realmente mirata a una dichiarata preoccupazione per la sicurezza nazionale".
Rita ha poi affermato che il governo potrebbe essersi spinto oltre il necessario nel tentativo di punire Anthropic . Non ha ancora emesso una sentenza definitiva, ma il suo tono non lascia dubbi sulle sue preoccupazioni.
"Tutti, compresa Anthropic, concordano sul fatto che il Dipartimento della Guerra sia libero di smettere di usare Claude e cercare un fornitore di IA più permissivo", ha affermato Rita. "Non credo che questo sia il punto cruciale della questione. Credo che il quesito in questo caso sia ben diverso, ovvero se il governo abbia violato la legge."
La causa è stata intentata all'inizio di questo mese. Anthropic chiede al tribunale di rimuovere l'etichetta di rischio per la catena di approvvigionamento. Tale etichetta ha innescato il divieto e impedito l'utilizzo dei suoi modelli da parte del governo. La disputa ora è tra l'azienda e l'amministrazione Trump. Il disaccordo riguarda le modalità di utilizzo degli strumenti di intelligenza artificiale in ambito militare.
Michael Mongan, che rappresenta Anthropic, ha dichiarato in tribunale che questo tipo di azione non è mai stata intrapresa prima contro un'azienda statunitense. Ha affermato: "Non è mai successo nulla di simile nei confronti di un'azienda americana". Ha inoltre aggiunto che la giurisprudenza invocata è limitata e non si adatta a questa situazione.
Il Pentagono esige pieno accesso, mentre Anthropic si oppone all'uso militare della sua intelligenza artificiale.
Prima di tutto ciò, Anthropic collaborava strettamente con il governo. Aveva accordi con diverse agenzie federali.
A luglio, l'azienda ha firmato un contratto da 200 milioni di dollari con il Pentagono. È stata inoltre il primo laboratorio di intelligenza artificiale a far funzionare i propri sistemi all'interno di reti classificate.
A settembre le cose cambiarono. Iniziarono le trattative per integrare Claude nella piattaforma GenAI.mil del Dipartimento della Difesa. Fu a questo punto che tutto rallentò. Il Pentagono voleva il pieno accesso alla tecnologia per qualsiasi utilizzo lecito. Anthropic non era d'accordo.
Un avvocato del governo, Hamilton, ne ha parlato in tribunale. Ha affermato che Anthropic non si stava semplicemente rifiutando di rispettare i termini del contratto. Ha detto:
“Anthropic non si sta semplicemente comportando in modo ostinato. Non si sta limitando a rifiutare i termini contrattuali. Piuttosto, sta sollevando preoccupazioni al Dipartimento della Difesa in merito all'utilizzo della sua tecnologia nelle missioni militari.”
Allo stesso tempo, Anthropic sta portando avanti la sua tecnologia. Claude ora può prendere il controllo del computer di un utente e completare le attività. Una persona può inviare una richiesta dal proprio telefono e il sistema la gestirà. Può aprire applicazioni, utilizzare un browser e compilare fogli di calcolo.
Una dimostrazione mostra un utente in ritardo. L'utente chiede a Claude di esportare una presentazione in formato PDF e di allegarla a un invito a una riunione. Claude completa l'operazione in autonomia.
Questo aggiornamento inserisce Anthropic nella corsa alla creazione di agenti di intelligenza artificiale che funzionino senza input costante. Questa corsa ha subito un'accelerazione dopo che OpenClaw è diventato virale quest'anno. OpenClaw collega i modelli di OpenAI e Anthropic. Gli utenti possono inviare attività tramite app come WhatsApp o Telegram. Il sistema viene eseguito sul dispositivo dell'utente e può accedere ai file locali.
Se desideri un approccio più tranquillo al mondo delle criptovalute DeFi , senza la solita frenesia, inizia con questo video gratuito.