I rapporti mostrano che Claude di Anthropic è stato utilizzato dall’esercito statunitense per catturare il leader venezuelano Nicolás Maduro

Secondo quanto riportato, Claude, il prodotto di punta di Anthropic, sarebbe coinvolto nel raid militare statunitense in Venezuela, condotto per catturare il presidente e sua moglie.

Nonostante le politiche anti-violenza di Anthropic, la partnership dell'azienda con Palantir consente l'impiego di Claude in operazioni militari. Alcuni ritengono che l'IA sia stata impiegata per compiti non violenti.

In che modo Claude AI è stato coinvolto nella cattura di Nicolás Maduro?

Una serie di nuovi rapporti ha rivelato che l'esercito statunitense ha utilizzato il modello di intelligenza artificiale di Anthropic, Claude, durante l'operazione ad alto rischio per catturare l'ex presidente venezuelano Nicolás Maduro.

La missione, nota come "Operazione Resolve", ebbe luogo all'inizio di gennaio 2026 e portò all'arresto di Maduro e di sua moglie, Cilia Flores, nel cuore di Caracas. Secondo il Wall Street Journal e Fox News, Claude fu integrato nella missione grazie alla partnership di Anthropic con la società di analisi dati Palantir Technologies .

Il Dipartimento della Guerra degli Stati Uniti, guidato dal Segretario Pete Hegseth, ha fatto sempre più ricorso a modelli di intelligenza artificiale commerciali per modernizzare le sue operazioni di combattimento .

I dettagli sui compiti specifici svolti da Claude sono classificati, ma è noto che l'IA viene utilizzata per riassumere enormi quantità di dati di intelligence, analizzare immagini satellitari e, possibilmente, fornire supporto decisionale per complessi movimenti di truppe.

Il raid è avvenuto nelle prime ore del 3 gennaio 2026, quando le Forze Speciali statunitensi, tra cui i commando della Delta Force, hanno fatto irruzione con successo nel palazzo fortificato di Maduro. Il presidente Donald Trump ha poi descritto Maduro come "aggredito" prima che potesse raggiungere una stanza di sicurezza rinforzata in acciaio.

Le difese aeree venezuelane furono soppresse e diversi siti militari furono bombardati durante la missione. Maduro fu trasportato su una nave da guerra statunitense e poi a New York, dove attualmente deve affrontare accuse federali di narcoterrorismo e importazione di cocaina.

L'operazione ha violato le regole antiviolenza di Anthropic?

Claude è stato progettato con un'attenzione costituzionale alla sicurezza, quindi come è stato utilizzato in un'operazione militare letale? Le linee guida di Anthropic sull'uso pubblico vietano l'uso di Claude per scopi violenti, per lo sviluppo di armi o per la sorveglianza.

Anthropic ha dichiarato di monitorare l'utilizzo dei suoi strumenti e di garantire che siano conformi alle sue policy. Tuttavia, la partnership con Palantir consente all'esercito di utilizzare Claude in ambienti classificati.

Fonti a conoscenza della questione suggeriscono che l'IA potrebbe essere stata utilizzata per compiti di supporto non letali, come la traduzione di comunicazioni o l'elaborazione di dati logistici. Ciononostante, il Dipartimento della Guerra sta attualmente spingendo le aziende produttrici di IA a rimuovere molte delle restrizioni standard per l'uso militare.

Secondo alcune indiscrezioni, l'amministrazione Trump starebbe valutando la possibilità di annullare un contratto da 200 milioni di dollari con Anthropic, poiché l'azienda ha espresso preoccupazione per l'utilizzo della sua intelligenza artificiale per droni autonomi o sistemi di sorveglianza. Il Segretario di Stato Pete Hegseth ha dichiarato che "il futuro della guerra americana si scrive intelligenza artificiale" e ha chiarito che il Pentagono non collaborerà con aziende che limitano le capacità militari.

Ottieni l'8% di CASHBACK spendendo criptovalute con la carta Visa COCA. Ordina la tua carta GRATUITA.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto