Nei documenti depositati in tribunale martedì, l'amministrazione Trump ha sostenuto che l'inserimento di Anthropic nella lista nera del Pentagono fosse legalmente fondato, contestando le numerose cause legali intentate dalla società.
Lunedì, la società sviluppatrice di Claude ha avviato due cause federali, sostenendo di essere vittima di ritorsioni illegali per aver difeso la sicurezza dell'intelligenza artificiale. Insiste sul fatto che i funzionari del Pentagono stiano usando la lista nera per punirla per essersi rifiutata di rinunciare alle protezioni contro l'uso di armi e la sorveglianza da parte di sistemi autonomi, violando così i suoi diritti sanciti dal Primo Emendamento.
Il 3 marzo, il Segretario alla Difesa Pete Hegseth ha formalmente classificato Anthropic come un rischio per la catena di approvvigionamento a causa di preoccupazioni relative alla sicurezza nazionale.
Anthropic è stata inserita nella lista nera per motivi di sicurezza nazionale.
Nella sua documentazione presentata in tribunale, l'amministrazione Trump ha dichiarato : "Per ragioni di sicurezza nazionale, i termini di servizio della società ricorrente Anthropic PBC per la tecnologia di intelligenza artificiale (IA) sono diventati inaccettabili per il potere esecutivo. Anthropic riconosce il diritto del governo di non 'utilizzare i servizi di Anthropic' e di 'passare ad altri fornitori di IA'".
Ha inoltre sostenuto che l'argomentazione di Anthropic basata sul Primo Emendamento è forzata e non reggerà a un esame legale. Ha affermato che le sue azioni sono state motivate esclusivamente da preoccupazioni per la sicurezza nazionale, non dal desiderio di punire l'azienda per le sue opinioni sulla sicurezza dell'IA.
Ha inoltre affermato che, durante i colloqui con l'azienda, l'atteggiamento generale di Anthropic li ha portati a dubitare della sua effettiva idoneità per il Dipartimento della Difesa.
Secondo quanto riportato nella documentazione, il Pentagono avrebbe iniziato a temere che Anthropic potesse rappresentare una vulnerabilità per le sue catene di approvvigionamento della difesa. A quanto pare, i funzionari governativi temono che l'azienda possa interrompere la fornitura dei suoi sistemi nel bel mezzo di un conflitto se non gradisce il modo in cui la tecnologia viene utilizzata.
Anthropic è preoccupato di dare al governo una forza autonoma
I negoziati sono in stallo da mesi a causa del rifiuto di Anthropic di revocare le norme di sicurezza che impediscono l'utilizzo dell'intelligenza artificiale nella sorveglianza di massa o nel combattimento automatizzato. L'azienda di intelligenza artificiale ha sostenuto che consentire "qualsiasi utilizzo lecito", come richiesto dal Dipartimento della Difesa, andrebbe contro i suoi principi fondamentali di sicurezza e aumenterebbe il rischio di uso improprio dei suoi sistemi Claude.
Finora, gli attivisti contro la guerra hanno acclamato Anthropic come un'azienda eroica per la sua resistenza all'intervento militare. Tuttavia, il co-fondatore e amministratore delegato Dario Amodei ha recentemente osservato che l'azienda di intelligenza artificiale e il governo condividono sostanzialmente gli stessi obiettivi. Margaret Mitchell, ricercatrice nel campo dell'IA e responsabile dell'etica presso l'azienda tecnologica Hugging Face, ha persino avvertito: "Se le persone cercano buoni e cattivi, dove il buono è chi non appoggia la guerra, allora non lo troveranno qui".
Amodei ha inoltre osservato : "Anthropic ha molto più in comune con il Dipartimento della Guerra di quanto non differisca". Ha condiviso le sue preoccupazioni sui pericoli delle armi biologiche create dall'IA e sull'interferenza cinese, ma crede anche che le aziende di IA abbiano il dovere di aiutare i governi a vincere la guerra tecnologica contro le autocrazie.
Stando alle sue dichiarazioni, è meno preoccupato dell'uso dell'intelligenza artificiale in guerra e più terrorizzato dall'idea che una manciata di persone possa avere il potere di lanciare un massiccio attacco automatizzato e insensato con droni, semplicemente premendo un pulsante.
Al momento, il dirigente si sta esprimendo con un netto "no" sulle armi autonome e sulla sorveglianza interna; tuttavia, l'azienda si è dimostrata un alleato estremamente collaborativo delle forze armate statunitensi. In passato, l'azienda ha modificato i suoi modelli di intelligenza artificiale per il Dipartimento della Difesa, integrando Claude nelle reti governative più sicure e classificate, inclusi sistemi di immagini satellitari, analisi di intelligence, modellazione e simulazione e pianificazione operativa.
Nella sua recente causa legale, ha persino osservato: "Anthropic non impone le stesse restrizioni all'uso di Claude da parte dei militari che impone ai clienti civili. Claude Gov è meno propenso a rifiutare richieste che sarebbero vietate in ambito civile".
Non limitarti a leggere le notizie sulle criptovalute. Cerca di capirle. Iscriviti alla nostra newsletter. È gratis .