Giovedì, il CEO di Anthropic, Dario Amodei, ha pubblicamente respinto la richiesta del Pentagono. Il Dipartimento della Difesa vuole l'uso militare illimitato della tecnologia di intelligenza artificiale dell'azienda. La scadenza, a poche ore di distanza, potrebbe comportare l'espulsione della startup da 380 miliardi di dollari dalla catena di approvvigionamento dell'esercito statunitense.
Questa resa dei conti segna la prima volta in cui una grande azienda di intelligenza artificiale sfida pubblicamente la minaccia del governo statunitense di prendere il controllo della sua tecnologia.
Lo stallo
In un post sul blog pubblicato sul sito web di Anthropic, Amodei ha definito le minacce del Pentagono "intrinsecamente contraddittorie", sottolineando che una designa Anthropic come un rischio per la sicurezza, mentre l'altra tratta Claude come essenziale per la sicurezza nazionale.
“In ogni caso, queste minacce non cambiano la nostra posizione: non possiamo in coscienza accogliere la loro richiesta”, ha scritto Amodei.
La controversia si concentra su due condizioni imposte da Anthropic all'uso militare di Claude. L'azienda vieta di colpire autonomamente combattenti nemici e proibisce la sorveglianza di massa di cittadini statunitensi. Il Pentagono considera queste condizioni inaccettabili per le operazioni militari legittime.
Anthropic ha affermato che "l'offerta finale" del Pentagono, ricevuta mercoledì notte, non è riuscita a rispondere alle sue preoccupazioni principali. "Il nuovo linguaggio presentato come compromesso è stato abbinato a un linguaggio legale che avrebbe consentito di ignorare a piacimento tali garanzie", ha dichiarato un portavoce di Anthropic in una nota, come riportato da The Hill .
Il portavoce del Dipartimento della Difesa, Sean Parnell, ha emesso un ultimatum pubblico giovedì. Ha dato ad Anthropic tempo fino alle 17:01 ET di venerdì per concedere accesso illimitato a Claude Gov, pena la risoluzione della partnership e la designazione come azienda a rischio per la catena di approvvigionamento.
"Non lasceremo che NESSUNA azienda decida i termini relativi alle nostre decisioni operative", ha scritto Parnell su X.
Cronologia dell'escalation
Martedì, Amodei ha incontrato direttamente il Segretario alla Difesa Pete Hegseth, durante il quale i funzionari del Pentagono hanno delineato tre conseguenze per la non conformità. In primo luogo, la rimozione dai sistemi militari. In secondo luogo, la designazione di rischio per la catena di approvvigionamento che impedirebbe ad altri appaltatori della difesa di utilizzare prodotti Anthropic. In terzo luogo, l'invocazione del Defense Production Act del 1950 per costringere legalmente l'azienda a consegnare la sua tecnologia.
Amodei ha sostenuto nel post del blog che il rifiuto è anche fondato sulla realtà tecnica. "I sistemi di intelligenza artificiale di frontiera semplicemente non sono sufficientemente affidabili per alimentare armi completamente autonome", ha scritto, aggiungendo che senza un'adeguata supervisione, tali sistemi "non possono essere considerati affidabili per esercitare il giudizio critico che le nostre truppe altamente addestrate e professionali dimostrano ogni giorno".
Il senatore repubblicano Thom Tillis ha criticato la gestione della controversia da parte del Pentagono. "Perché diavolo stiamo discutendo di questo in pubblico? Non è questo il modo di trattare un fornitore strategico", ha detto Tillis ai giornalisti .
Cosa c'è in gioco
Per Anthropic, l'esposizione immediata equivale a un contratto militare da 200 milioni di dollari. Ma la designazione del rischio nella catena di approvvigionamento comporta implicazioni ben più ampie. Obbliga ogni appaltatore della difesa a verificare di non utilizzare prodotti Anthropic nelle proprie operazioni.
Il panorama competitivo sta cambiando rapidamente. Secondo Axios , xAI di Elon Musk ha firmato un accordo per utilizzare Grok nei sistemi classificati, accettando lo standard "per tutti gli scopi legali" per il lavoro classificato. OpenAI e Google stanno accelerando le trattative per entrare nel settore classificato. Anthropic, un tempo l'unica azienda di intelligenza artificiale autorizzata a gestire materiale classificato, rischia di perdere completamente il vantaggio di essere la prima ad agire.
Perché le criptovalute dovrebbero prestare attenzione
La volontà del Pentagono di invocare il Defense Production Act contro un'azienda tecnologica crea un precedente che va oltre l'intelligenza artificiale. Se il governo può legalmente obbligare un'azienda di intelligenza artificiale a rimuovere le restrizioni di sicurezza per motivi di sicurezza nazionale, lo stesso quadro normativo potrebbe, in teoria, essere applicato per costringere le aziende di criptovalute a modificare le funzionalità di privacy o ad indebolire le garanzie sulle transazioni.
Questa situazione di stallo rafforza anche la tesi a favore dello sviluppo di un'IA decentralizzata. Un fornitore centralizzato di IA può essere pressato – o legalmente obbligato – a rimuovere le barriere di sicurezza su richiesta di un governo. Ciò convalida la tesi secondo cui le alternative decentralizzate offrono un'infrastruttura più resiliente contro la coercizione statale.
La rapida crescita di Anthropic ha già sollevato preoccupazioni per i mercati delle criptovalute. La valutazione dell'azienda di 380 miliardi di dollari e l'impatto dell'intelligenza artificiale sui ricavi tradizionali del software stanno mettendo sotto pressione i flussi di credito privati strettamente correlati a Bitcoin.
Anthropic ha anche un legame storico con le criptovalute: la massa fallimentare di FTX deteneva inizialmente una quota significativa della società, che in seguito è stata venduta per contribuire a finanziare i rimborsi dei creditori.
La scadenza di venerdì passerà, ma la vera domanda inizierà dopo: se il Pentagono darà seguito alle sue promesse e cosa ciò significherà per ogni azienda tecnologica che traccia una linea di demarcazione tra contratti governativi e integrità del prodotto.
Il post Anthropic rifiuta l'ultimatum del Pentagono e crea un precedente per le criptovalute è apparso per la prima volta su BeInCrypto .