L’intelligenza artificiale sta inondando il conflitto tra Stati Uniti e Iran di disinformazione, confondendo i fatti con la finzione.

A causa della campagna militare statunitense contro l'Iran, le informazioni generate dall'intelligenza artificiale e i deepfake sono aumentati a livelli senza precedenti, rendendo difficile distinguere la realtà dalla finzione.

Domenica 15 marzo 2026, il presidente Donald Trump ha accusato l'Iran di utilizzare l'intelligenza artificiale come "arma di disinformazione" per travisare l'andamento del conflitto. Parlando con i giornalisti a bordo dell'Air Force One, ha avvertito che "l'IA può essere molto pericolosa" e ha descritto come il regime iraniano avrebbe presumibilmente utilizzato questa tecnologia per ingannare l'opinione pubblica.

Ha affermato che l'Iran avrebbe utilizzato l'intelligenza artificiale per simulare un attacco riuscito contro la portaerei USS Abraham Lincoln. Ha inoltre sostenuto che le immagini che mostravano 250.000 iraniani riuniti a una manifestazione per la nuova Guida Suprema Mojtaba Khamenei erano "totalmente generate dall'intelligenza artificiale".

Tuttavia, tali affermazioni non sono rimaste incontrastate. Reuters ha confermato, tramite immagini scattate nel porto iracheno di Bassora, che imbarcazioni iraniane cariche di esplosivo hanno effettivamente attaccato petroliere nella zona.

E mentre si sono svolte manifestazioni filo-governative, le testate giornalistiche hanno pubblicato foto verificate di folle provenienti da Teheran, alle quali Trump non ha fatto riferimento diretto.

Quando le immagini reali vengono definite false

La situazione è aggravata da quello che i ricercatori chiamano il "dividendo del bugiardo", ovvero quando le immagini reali vengono scartate perché considerate false.

Il New York Times è stato accusato da un'organizzazione nota come Istituto di Ricerca e Previsione Empirica di aver diffuso immagini di folle provenienti da Teheran, modificate digitalmente.

Il Times ha reagito con veemenza . L'immagine era autentica, secondo la portavoce Nicole Taylor, e le critiche erano "fondamentalmente errate e basate in modo disonesto su una versione ripubblicata che travisa la compressione standard delle immagini".

Il giornalista Mehdi Hasan ha riassunto il problema in modo chiaro, rispondendo direttamente all'accusa mossa contro il Times: "Non solo abbiamo il problema dell'intelligenza artificiale che produce immagini false, ingannandoci e confondendoci, ma ora ci sono anche malintenzionati che accusano falsamente immagini reali di essere immagini generate dall'IA".

Alcuni recenti video del Primo Ministro israeliano Benjamin Netanyahu sono stati etichettati come "deepfake al 100%" dal chatbot basato sull'intelligenza artificiale Grok. L'Hindustan Times ha riportato: "Il secondo video di Benjamin Netanyahu girato in un bar, in cui afferma di essere vivo, ha riacceso le speculazioni online dopo che Grok, il chatbot X di Elon Musk, lo ha etichettato come "generato dall'IA"".

Grok ha etichettato il primo video del Primo Ministro Netanyahu come deepfake.
Fonte: Grok
Grok ha etichettato il secondo video del Primo Ministro Netanyahu come deepfake.
Fonte: Grok

X ha risposto annunciando che avrebbe escluso dal suo programma di pagamento per 90 giorni i creatori che avessero pubblicato video di guerra basati sull'IA senza etichettarli chiaramente. I recidivi sarebbero stati esclusi in modo permanente.

I ricercatori non sono rimasti impressionati. Joe Bodnar dell'Institute for Strategic Dialogue ha dichiarato all'AFP che "i feed che monitoro sono ancora inondati di contenuti generati dall'intelligenza artificiale sulla guerra".

Gli esperti hanno inoltre sottolineato che il modello di X, che remunera i titolari di account premium in base al livello di interazione generato dai loro post, crea un incentivo finanziario diretto a pubblicare contenuti scioccanti ed esagerati.

Gli Stati Uniti pubblicano video sensazionalistici sugli attacchi all'Iran

L'amministrazione Trump è finita nel mirino delle critiche dopo aver pubblicato sui social media video che mescolano filmati militari reali del conflitto con l'Iran con spezzoni di film e scene di videogiochi.

La Casa Bianca ha condiviso diversi video su X e TikTok che i critici definiscono un approccio da "guerra di meme". Un video di 60 secondi inizia con una scena di "Call of Duty : Modern Warfare II" che mostra un giocatore sbloccare una "bomba a guida di massa" prima di passare a filmati reali di attacchi statunitensi contro l'Iran.

Sebbene alcuni video sembrino mostrare attacchi statunitensi andati a buon fine contro aerei iraniani, in seguito l'opinione pubblica ha affermato che i bersagli erano in realtà dei diversivi : immagini dipinte di aerei progettate per ingannare le forze statunitensi.

I legislatori e i veterani si sono opposti fermamente a questa strategia, sostenendo che ignora il costo umano della guerra e trasforma i conflitti reali in intrattenimento.

La senatrice Tammy Duckworth dell'Illinois ha scritto su X : "La guerra non è un fottuto videogioco. Sette americani sono morti e migliaia di altri sono inutilmente a rischio a causa della vostra guerra illegale e ingiustificata. E voi la chiamate una 'vittoria impeccabile'".

Ma come ha affermato Anya Schiffrin della Columbia University, la propaganda basata sull'intelligenza artificiale è globale , mentre la regolamentazione rimane locale, lasciando al pubblico il compito di capire da solo cosa sia reale e cosa sia un'invenzione della macchina.

La tua banca si sta usando i tuoi soldi. A te restano solo le briciole. Guarda il nostro video gratuito su come diventare la tua banca.

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto