Dom. Giu 22nd, 2025
Disinformazione alimentata dall’IA esplode tra le tensioni Israele-Iran

Da Israele ha iniziato i raid aerei contro l’Iran la scorsa settimana, è emersa una ondata di disinformazione online. BBC Verify ha esaminato numerosi post, rivelando uno sforzo concertato per esagerare l’impatto delle azioni di rappresaglia di Teheran.

L’analisi ha scoperto numerosi video generati dall’intelligenza artificiale che mostrano le capacità militari dell’Iran, insieme a filmati falsificati che rappresentano obiettivi israeliani sotto attacco. Tre importanti video falsi hanno totalizzato oltre 100 milioni di visualizzazioni su varie piattaforme.

Al contrario, gli account pro-Israele hanno diffuso disinformazione riciclando filmati datati di proteste iraniane, rappresentando falsamente un sentimento antigovernativo diffuso e il sostegno alla campagna di Israele.

Gli attacchi israeliani iniziali sono iniziati il 13 giugno, provocando una serie di attacchi missilistici e con droni iraniani contro Israele.

Un’organizzazione di intelligence open source ha definito il volume di disinformazione “sbalorditivo”, accusando i “contadini di engagement” di sfruttare il conflitto per ottenere attenzione e profitto online.

Geoconfirmed, un gruppo di verifica online, ha riportato su X: “Stiamo vedendo di tutto, da filmati non correlati provenienti dal Pakistan a video riciclati dagli attacchi dell’ottobre 2024, alcuni con oltre 20 milioni di visualizzazioni, insieme a clip di giochi e contenuti generati dall’intelligenza artificiale presentati come eventi genuini”.

Alcuni account hanno rapidamente amplificato questa disinformazione, aumentando significativamente il loro numero di follower. Un account pro-iraniano, “Daily Iran Military”, senza alcun legame apparente con le autorità di Teheran, ha registrato una crescita del 100% dei follower su X, passando da 700.000 a 1,4 milioni tra il 13 e il 19 giugno.

Numerosi account simili, molti con stato verificato, si sono diffusi, sollevando preoccupazioni sulla loro autenticità e origine.

Emmanuelle Saliba, Chief Investigative Officer di Get Real, ha descritto questo come “la prima volta che abbiamo visto l’intelligenza artificiale generativa utilizzata su larga scala durante un conflitto”, in commenti a BBC Verify.

BBC Verify ha esaminato gli account che condividono frequentemente immagini generate dall’intelligenza artificiale che esagerano l’efficacia della risposta dell’Iran. Un’immagine, visualizzata 27 milioni di volte, mostrava numerosi missili che colpivano Tel Aviv.

Un altro video affermava di mostrare un attacco missilistico notturno a un edificio israeliano; la Sig.ra Saliba ha notato la difficoltà nel verificare tali clip.

I falsi generati dall’intelligenza artificiale si sono concentrati anche sulle affermazioni di caccia F-35 israeliane distrutte. Se accurate, il numero di jet presumibilmente distrutti rappresenterebbe il 15% della flotta israeliana, secondo Lisa Kaplan, CEO di Alethea. Tuttavia, nessuna di tali immagini è stata verificata.

Un post ampiamente condiviso, che affermava di mostrare un F-35 abbattuto, presentava una chiara manipolazione dell’intelligenza artificiale: dimensioni degli oggetti sproporzionate e mancanza di prove dell’impatto.

Un video di TikTok (con 21,1 milioni di visualizzazioni) che affermava di mostrare un F-35 abbattuto è stato identificato come un filmato di un gioco di simulazione di volo e successivamente rimosso da TikTok dopo l’intervento di BBC Verify.

La Sig.ra Kaplan ha collegato alcune delle disinformazioni sull’F-35 a reti precedentemente associate a operazioni di influenza russa, suggerendo uno spostamento di attenzione dall’indebolimento del sostegno alla guerra in Ucraina alla discredito delle armi occidentali.

“La Russia non ha una risposta all’F-35. Quindi, come la contrasta? Indebollendo il suo sostegno in alcuni paesi”, ha spiegato la Sig.ra Kaplan.

Account consolidati con una storia di coinvolgimento in conflitti, incluso il conflitto Israele-Gaza, hanno anche diffuso disinformazione, le cui motivazioni variano ma sono spesso collegate a una potenziale monetizzazione attraverso gli incentivi della piattaforma.

I post pro-Israele si sono concentrati principalmente sulla presunta crescente dissenso all’interno dell’Iran.

Questo include un video generato dall’intelligenza artificiale ampiamente diffuso che rappresenta falsamente gli iraniani che cantano “amiamo Israele” a Teheran.

Recentemente, con speculazioni su possibili attacchi statunitensi ai siti nucleari iraniani, sono emerse immagini generate dall’intelligenza artificiale di bombardieri B-2 sopra Teheran. La capacità del B-2 di colpire siti nucleari sotterranei ha alimentato questa narrativa.

Fonti ufficiali sia in Iran che in Israele hanno condiviso alcune di queste immagini false. I media di stato di Teheran hanno diffuso filmati di attacchi fabbricati e un’immagine generata dall’intelligenza artificiale di un F-35 abbattuto, mentre un post delle IDF è stato contrassegnato su X per aver utilizzato filmati precedenti non correlati.

Gran parte della disinformazione esaminata da BBC Verify è apparsa su X, dove gli utenti hanno frequentemente utilizzato Grok, il chatbot AI di X, per la verifica. Tuttavia, Grok ha erroneamente convalidato alcuni video AI come genuini.

Un esempio riguarda un video di camion che trasportano missili che emergono da un complesso di montagna. Nonostante l’ovvia manipolazione dell’intelligenza artificiale (le rocce si muovono indipendentemente), Grok ha ripetutamente confermato la sua autenticità, facendo riferimento ai rapporti di Newsweek e Reuters.

X non ha risposto alla richiesta di commento di BBC Verify su questo comportamento del chatbot.

Video simili sono apparsi su TikTok e Instagram. TikTok ha dichiarato di applicare proattivamente le linee guida che vietano i contenuti falsi e di collaborare con i verificatori di fatti. Meta non ha risposto alla richiesta di commento di BBC Verify.

Sebbene le motivazioni varino, gran parte della disinformazione è condivisa da utenti medi dei social media. Matthew Facciani dell’Università di Notre Dame suggerisce che le scelte binarie presentate dai conflitti accelerano la diffusione di tali contenuti, guidati da risposte emotive e allineamento con le identità politiche.

Cosa vuoi che BBC Verify indaghi?

Questo arriva dopo che il presidente degli Stati Uniti Donald Trump ha detto che aveva “sbagliato” dicendo che l’Iran non stava costruendo armi nucleari.

Israele e l’Iran si scambiano nuovi attacchi un giorno dopo che Teheran ha detto che non avrebbe negoziato sul suo programma nucleare.

Il magnate della tecnologia ha detto che i suoi figli non avrebbero avuto accesso alla loro eredità per 30 anni.

Sta infrangendo i record per i giochi online: qual è il motivo del suo crescente appeal?

Tate, 36 anni, è il fratello minore dell’influencer controverso Andrew Tate.