Indica un intervallo di date:
  • Dal Al

Perché le immagini satellitari della guerra in Iran modificate con l’Ai sono così convincenti?

La cronaca non si misura più solo con il rumore delle esplosioni, ma con la qualità dei pixel che le documentano. Negli ultimi mesi, la guerra tra Israele, Stati Uniti e Iran è diventata il primo vero conflitto in cui le immagini satellitari manipolate dall’intelligenza artificiale hanno raggiunto un livello di sofisticazione tale da ingannare non solo gli utenti comuni, ma persino gli algoritmi di ricerca più avanzati.

Diverse inchieste condotte da BBC Financial Times, AFP e NewsGuard hanno smascherato una serie di immagini satellitari e video realizzati con l’Ai che hanno inquinato il racconto del conflitto tra Iran, Israele e Stati Uniti. Ecco i casi più eclatanti e i meccanismi che li hanno resi virali.

Il caso della base di Al Udeid in Qatar

Uno degli esempi più citati dai giornali internazionali, tra cui The Hindu e Chosun Ilbo, riguarda un post pubblicato su X dal Tehran Times, un quotidiano vicino al governo iraniano. Il post mostrava un “prima e dopo” della base aerea di Al Udeid in Qatar, sostenendo che i radar statunitensi fossero stati completamente distrutti da un attacco di droni. L’analisi forense di BBC Verify ha rivelato che l’immagine di partenza era uno scatto reale di Google Earth del 2025, ma relativo a una base in Bahrein. L’AI era stata istruita per aggiungere crateri e fumo nero sugli edifici.

L’errore fatale dei propagandisti? Hanno dimenticato di spostare le auto parcheggiate: una fila di veicoli appariva esattamente nella stessa identica posizione in entrambi gli scatti, un dettaglio impossibile dopo un’esplosione reale.

La porta dell’inferno a Evin

Un altro esempio documentato da CBS News riguarda il famigerato carcere di Evin a Teheran. Pochi minuti dopo un attacco israeliano, ha iniziato a circolare su X un video in bianco e nero, simile a una ripresa di una telecamera di sorveglianza, che mostrava una massiccia esplosione all’ingresso della struttura.

Esperti come Hany Farid dell’Università di Berkeley hanno confermato che si trattava di un video generato con strumenti Image-to-Video. I segnali del falso erano sottili ma inequivocabili: l’insegna sopra la porta conteneva caratteri senza senso (il tipico “gibberish” delle AI) e la dinamica del fumo non seguiva le leggi della fisica.

L’incendio dell’ambasciata a Riad

NewsGuard ha segnalato un’immagine, circolata massicciamente su account pro-Iran, che mostrava l’ambasciata americana a Riad, in Arabia Saudita, avvolta dalle fiamme dopo un presunto attacco missilistico del 2 marzo. Anche in questo caso, l’immagine era un prodotto sintetico. Nonostante la drammaticità dello scatto, nessuna agenzia di stampa sul campo aveva riportato l’evento. La particolarità di questo falso era l’uso di filtri per simulare la bassa risoluzione delle foto scattate dai passanti, un trucco per nascondere le imperfezioni dell’intelligenza artificiale e renderla più “autentica” agli occhi di un utente che scorre velocemente il feed dei social.

Gli aerei fantasma e i watermark invisibili

Un caso curioso analizzato da AFP riguarda una foto satellitare che mostrava i resti di jet F-35 israeliani abbattuti. L’immagine era così ben fatta da aver ingannato persino alcuni sistemi di monitoraggio automatico. Tuttavia, i ricercatori hanno scoperto un SynthID, ovvero una filigrana digitale invisibile impressa dalle AI di Google, che confermava l’origine sintetica di parte dell’immagine. Inoltre, i loghi sulle ali degli aerei distrutti non corrispondevano a quelli ufficiali dell’aviazione israeliana, presentando distorsioni geometriche tipiche delle allucinazioni visive dei modelli generativi.

Chi sono i “diffusori”

Oltre ai media di stato come il già citato Tehran Times o i canali legati all’IRGC (le Guardie della Rivoluzione Iraniana), un ruolo chiave è giocato dai cosiddetti imposter OSINT. Si tratta di account su X che si presentano con nomi tecnici e loghi che richiamano agenzie di intelligence indipendenti, ma che in realtà operano come “fabbriche di click”. Questi profili si fingono analisti indipendenti, ma in realtà pubblicano contenuti sintetici per generare traffico e monetizzare attraverso le visualizzazioni. Piattaforme come X hanno recentemente iniziato a sospendere la monetizzazione per chi pubblica video di guerra generati dall’AI senza etichetta proprio per frenare questo fenomeno. Pubblicano queste immagini fake non solo per ideologia, ma per profitto: la viralità di un’immagine satellitare che mostra una base distrutta genera milioni di visualizzazioni, che su piattaforme come X si traducono in pagamenti diretti tramite il programma di condivisione delle entrate pubblicitarie.

Perché i satelliti AI sono così convincenti

Le immagini satellitari “ritoccate” non sono semplici fotomontaggi. Gli attori della disinformazione utilizzano tecniche di Image-to-Image translation, dove partono da una base reale — ad esempio una foto di Google Earth di una base militare — e chiedono all’AI di “sovrapporre” i danni. Il risultato è una texture di distruzione, crateri e fumo che rispetta perfettamente l’illuminazione, le ombre e la prospettiva dell’immagine originale. Come riportato da testate come The Hindu e analisti di AFP, la difficoltà nel distinguerle nasce dal fatto che l’AI non inventa l’intera scena, ma altera solo i dettagli critici, mantenendo inalterato tutto il resto del contesto geografico.

Oltre lo “Slop”: una nuova minaccia

C’è una differenza fondamentale tra queste immagini e quello che chiamiamo “AI slop” o la misinformazione classica. L’AI slop è la “sbobba” digitale: immagini di bassa qualità con mani a sei dita o volti deformati che saturano i social per attirare click svogliati. La misinformazione classica, invece, usa spesso video vecchi (come clip di videogiochi tipo War Thunder o esplosioni in Cina del 2015 spacciate per attacchi a Tel Aviv) ricontestualizzandoli.

Le immagini satellitari AI appartengono a una categoria superiore: sono “sintesi strategica”. Non hanno gli errori grossolani dello slop perché le strutture geometriche degli edifici aiutano l’AI a mantenere la coerenza. Mentre lo slop è spazzatura visiva, queste immagini sono armi di precisione progettate per alterare la percezione tattica del conflitto, rendendo quasi impossibile per i civili, e talvolta per le agenzie di stampa, capire l’entità reale dei danni sul campo in tempo reale.

Cosa è Ai Stories? Storie lunghe su fatti, accadimenti e personaggi della rivoluzione Ai Gen.

Per approfondire. 

Perché i modelli di Ai hanno bisogno di “guardrails” e di “regole” di comportamento?

Helen Toner, il superallineamento e quello che sappiamo sul licenziamento lampo di Sam Altman #AiStories

Anthropic scrive la morale delle macchine. E chiede a Claude di essere più umano degli umani

Come cambia la ricerca di informazioni sul web nell’era dei chatbot? #Ai Stories

Perché non è più possibile con ChatGpt trasformare immagini, scene di film e meme nello stile dello studio Ghibli?

La prova di Sora e una breve guida su come generare video con l’aiuto dell’Ai

Imagen 3 vs Dall-E3: lo scontro educato dei generatori di immagini #AIStories

Le elezioni Usa, i deepfake più assurdi di Kamala Harris e la strategia della non verosimiglianza #AiStories

Il rapporto psicologicamente scorretto di Elon Musk con l’intelligenza artificiale #AiStories

Helen Toner, il superallineamento e quello che sappiamo sul licenziamento lampo di Sam Altman #AiStories

Apple Intelligence, il laboratorio “segreto” di Zurigo e l’intelligenza artificiale migliore di sempre #AiStories