Microsoft chiede un’azione legale per proteggere l’investimento di 5 miliardi di dollari in Anthropic

Microsoft chiede a un tribunale statunitense di bloccare la decisione del Pentagono di classificare temporaneamente la società di intelligenza artificiale Anthropic come un rischio per la supply chain. Il colosso della tecnologia afferma che una simile mossa potrebbe compromettere l'accesso dell'esercito a sistemi di intelligenza artificiale avanzati e mettere a rischio miliardi di dollari investiti in aziende private.

Microsoft ha recentemente dichiarato che investirà fino a 5 miliardi di dollari in Anthropic e l'azienda sostiene di aver bisogno di un'ordinanza del tribunale per evitare che i contratti e la tecnologia già in uso presso il governo subiscano danni immediati.

Sebbene il Dipartimento della Difesa degli Stati Uniti abbia affermato di dover difendere i propri sistemi e le proprie operazioni, le aziende che sviluppano strumenti di intelligenza artificiale avvertono che restrizioni improvvise potrebbero minare le partnership e mettere a repentaglio la leadership americana nel settore tecnologico.

Microsoft ha presentato una mozione presso la Corte distrettuale degli Stati Uniti per il distretto settentrionale della California, chiedendo un'ordinanza restrittiva provvisoria da parte di un giudice che impedisca al Pentagono di applicare il divieto alla tecnologia di Anthropic in tutti i contratti di difesa esistenti.

In tale documento, Microsoft ha affermato che un'ordinanza del genere avrebbe concesso il tempo necessario per implementare un dispiegamento più fluido ed evitare interruzioni nell'uso continuato di strumenti di intelligenza artificiale da parte dell'esercito. Senza l'ordinanza restrittiva, Microsoft ha avvertito che qualsiasi azienda che operi per conto del Pentagono potrebbe essere costretta a effettuare una rapida transizione di prodotti e termini contrattuali che ora dipendono dai modelli di intelligenza artificiale di Anthropic.

Questo cambiamento, ha affermato l'azienda, potrebbe avere ripercussioni sulle operazioni del Dipartimento della Difesa. "Ciò potrebbe potenzialmente compromettere l'operato dei combattenti statunitensi in un momento cruciale", ha affermato Microsoft nel documento. Microsoft ha presentato la richiesta come amicus curiae, quindi non è direttamente coinvolta.

Tuttavia, secondo l'azienda, la sentenza del tribunale avrebbe un potenziale "impatto materiale" sulla sua attività e sul settore in generale. Anche il costo del finanziamento influenza la partecipazione dell'azienda.

Microsoft prevede di investire fino a 5 miliardi di dollari in Anthropic, una delle aziende di intelligenza artificiale in più rapida crescita negli Stati Uniti, a novembre. Microsoft è un grande investitore in OpenAI , uno sviluppatore concorrente.

Il Pentagono definisce Anthropic un rischio per la catena di approvvigionamento

La controversia è scoppiata la scorsa settimana quando il Pentagono ha formalmente escluso la tecnologia di Anthropic dai contratti di difesa e ha definito l'azienda un rischio per la catena di approvvigionamento.

Questa etichetta è stata tradizionalmente associata ad aziende legate ad avversari stranieri. Tali appaltatori che lavorano con il Dipartimento della Difesa in base a questo ordine devono certificare che i modelli di intelligenza artificiale di Anthropic non vengono utilizzati in sistemi o servizi collegati alle attività del Pentagono.

Anthropic ha rapidamente intentato causa contro il dipartimento per la sua decisione, sostenendo che la designazione era senza precedenti e illegale, e accusando il governo federale. L'azienda ha affermato che la sentenza potrebbe danneggiare significativamente la sua attività e mettere a repentaglio contratti per centinaia di milioni di dollari.

Il dibattito ruota attorno ai modelli di intelligenza artificiale di Anthropic, denominati Claude. L'azienda aveva negoziato con il Pentagono sulle modalità di utilizzo della tecnologia, ma i colloqui si erano interrotti. Anthropic voleva garanzie che i suoi sistemi non sarebbero stati utilizzati per condurre armi completamente autonome o per la sorveglianza domestica di massa.

Con l'evolversi della situazione negli Stati Uniti, Anthropic prevede di aprire un nuovo ufficio a Sydney nelle prossime settimane, espandendo la propria presenza in Australia e Nuova Zelanda. Secondo l'Economic Index dell'azienda, i due Paesi si classificano al quarto e all'ottavo posto a livello mondiale per utilizzo pro capite di Claude.ai. L'ufficio di Sydney diventerà il quarto hub di Anthropic nella regione Asia-Pacifico.

I lavoratori del settore tecnologico e i ricercatori di intelligenza artificiale sostengono Anthropic

La controversia ha anche raccolto il sostegno di Anthropic da parte dell'intera comunità dell'intelligenza artificiale. Oltre 30 dipendenti di OpenAI e Google DeepMind hanno depositato una dichiarazione a sostegno della causa intentata da Anthropic. Tra i firmatari figurava il capo scienziato di DeepMind, Jeff Dean.

Negli atti depositati in tribunale, i ricercatori hanno sostenuto che la designazione da parte del governo costituiva un uso arbitrario del potere che avrebbe potuto danneggiare l'intero settore dell'intelligenza artificiale.

Hanno osservato che se il Pentagono non fosse stato soddisfatto del contratto con Anthropic, avrebbe potuto semplicemente rescindere l'accordo e scegliere un altro fornitore, invece di etichettare l'azienda come una minaccia per la catena di approvvigionamento.

I dipendenti hanno anche avvertito che questa mossa potrebbe minare la competitività degli Stati Uniti nel settore dell'intelligenza artificiale, scoraggiando una discussione aperta sui rischi e sui limiti della tecnologia.

Poco dopo che il Pentagono ha annunciato la designazione, il Dipartimento della Difesa ha firmato un accordo con OpenAI, un evento contro cui alcuni dipendenti di OpenAI avrebbero protestato.

Se stai leggendo questo, sei già in vantaggio. Resta aggiornato con la nostra newsletter .

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto