Trump ordina alle agenzie statunitensi di sospendere l’uso dell’intelligenza artificiale antropica dopo la controversia etica del Pentagono

Il presidente degli Stati Uniti Donald Trump ha inserito Anthropic nella lista nera, imponendo il divieto federale sulla sua tecnologia a seguito di un acceso disaccordo tra l'azienda di intelligenza artificiale e il Pentagono su questioni riguardanti l'applicazione di questa tecnologia da parte dell'esercito.

In quel momento, i negoziati tra Anthropic e il Dipartimento della Difesa erano in stallo, poiché entrambe le parti si rifiutavano di scendere a compromessi, mentre si avvicinava la scadenza per raggiungere un accordo. Per quanto riguarda la richiesta del Pentagono , alcune fonti affermano che i funzionari della sede centrale del Dipartimento della Difesa degli Stati Uniti hanno chiesto ad Anthropic di allentare le sue linee guida etiche; il mancato rispetto di tale obbligo avrebbe potuto comportare gravi ripercussioni.

Nel frattempo, Trump ha condiviso un post su Truth Social in cui esponeva il suo punto di vista sulla questione. Nel post, osservava che "gli estremisti di sinistra di Anthropic hanno commesso un ERRORE DISASTROSO cercando di usare la forza contro il Dipartimento della Guerra e costringerlo a rispettare i loro Termini di Servizio invece della nostra Costituzione", aggiungendo inoltre che "NOI determineremo il futuro del nostro Paese, NON un'azienda di intelligenza artificiale di sinistra radicale e fuori controllo, guidata da persone che non capiscono com'è il mondo reale". In particolare, in quel periodo, la scadenza era a solo un'ora di distanza.

La disputa tra Anthropic e Pentagono solleva preoccupazioni sulla sicurezza

In precedenza, Anthropic aveva respinto la richiesta dei funzionari del Pentagono di concedere ai contractor l'autorizzazione all'utilizzo dei propri sistemi per qualsiasi scopo lecito. A questo punto, l'azienda di intelligenza artificiale si è rifiutata di allentare le limitazioni che impedivano l'utilizzo efficace di Claude per la sorveglianza domestica di massa o per armi completamente autonome.

Data l'intensità della situazione , Trump ha definito l' incidente una minaccia significativa per le truppe statunitensi e la sicurezza nazionale. In una dichiarazione, ha sostenuto che "il loro egoismo sta mettendo a rischio vite americane, le nostre truppe in pericolo e la nostra sicurezza nazionale in pericolo".

In seguito alle dichiarazioni di Trump, alcuni resoconti hanno evidenziato che Sam Altman, CEO di OpenAI, ha dimostrato di impegnarsi per calmare gli animi. Ciononostante, diversi analisti hanno ammesso che ridurre le tensioni rimane un compito arduo .

D'altro canto, Pete Hegseth, Segretario alla Difesa degli Stati Uniti, ha sostenuto che etichettare Anthropic come un rischio per la catena di approvvigionamento minacciava di interrompere il collegamento tra i fornitori militari statunitensi e l'azienda di intelligenza artificiale.

Hegseth ha rilasciato queste dichiarazioni circa 24 ore dopo che l'amministratore delegato di Anthropic, Dario Amodei, aveva rilasciato una dichiarazione in cui sosteneva che la sua azienda non poteva ottemperare alla richiesta del Dipartimento della Difesa. A suo dire, la richiesta era contraria alla coscienza di Anthropic.

Questa situazione ha spinto gli analisti a condurre una ricerca, che ha rivelato che la controversia contrattuale sulla difesa è incentrata sull'intelligenza artificiale nella sicurezza nazionale. Nel frattempo, dopo mesi di dialogo privato, l'azienda di intelligenza artificiale ha recentemente deciso di rendere pubblica la discussione, osservando che il nuovo testo contrattuale, formulato come un compromesso, era redatto in un gergo legale che di fatto rendeva le protezioni dichiarate suscettibili di costante negligenza.

L'intelligenza artificiale generativa si assicura popolarità tra diverse aziende durante l'era del boom dell'intelligenza artificiale

Riguardo all'acceso conflitto tra Anthropic e il Pentagono, alcuni rapporti hanno evidenziato che il campo dell'intelligenza artificiale generativa sfrutta modelli avanzati per creare codice software, testo, immagini e altri output realistici ma imprecisi, che imitano da vicino la creatività umana. Per raggiungere questo risultato, alcune fonti hanno osservato che i modelli funzionano identificando schemi sottostanti nei dati di addestramento per produrre risposte contestuali agli input degli utenti.

A questo punto, vale la pena sottolineare che l'IA generativa va oltre la semplice analisi, arrivando a generare attivamente contenuti. Secondo le ricerche degli analisti, questa capacità potrebbe rivoluzionare numerosi settori, tra cui la difesa. Allo stesso tempo, lo sviluppo di questi modelli pone serie sfide, tra cui preoccupazioni etiche e potenziali rischi esistenziali.

Ciononostante, diverse aziende hanno dimostrato un forte impegno nell'allocare ingenti fondi al settore. Ad esempio, la scorsa estate i funzionari del Pentagono hanno rilasciato una dichiarazione in cui affermavano di essersi assicurati contratti individuali con importanti attori del settore, tra cui OpenAI, Anthropic, Google e xAI. In particolare, si segnalava che ogni contratto aveva un valore di 200 milioni di dollari, in particolare per iniziative di intelligenza artificiale all'avanguardia.

In questo particolare momento, i report hanno evidenziato che Anthropic si considera un'azienda impegnata nello sviluppo e nell'implementazione responsabile delle tecnologie di intelligenza artificiale. Per sottolineare questa dedizione, l'azienda si definisce "Public Benefit Corporation", affermando il suo impegno nello sviluppo e nel mantenimento di un'intelligenza artificiale sicura e avanzata per il beneficio duraturo dell'umanità.

Fatti notare dove conta. Pubblicizza su Cryptopolitan Research e raggiungi gli investitori e gli sviluppatori di criptovalute più abili.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto