
L’utilizzo di fake news come strumento politico sta cambiando e sta assumendo nuove finalità. Negli ultimi anni, ci si è abituati a imbattersi in storie e immagini ingannevoli create tramite intelligenza artificiale.
Ma, come riporta Semafor, negli Stati Uniti è in atto un nuovo tipo di propaganda politica, fatta su YouTube.
Sulla piattaforma di Google sono in aumento i video generati con l’intelligenza artificiale che modificano o inventano trame e vicende che mettono in buona luce gli esponenti dei diversi schieramenti.
La storia del Segretario della Difesa Pete Hegseth che cucina per un gruppo di veterani con disabilità, accompagnata da foto create tramite IA, ha ricevuto più di seimila condivisioni su Facebook.
Se, in precedenza, le fake news venivano utilizzate più che altro per screditare gli avversari politici, ora stanno quindi diventando uno strumento molto più complesso ed efficace per creare instabilità.
All’origine
Con il progresso dell’intelligenza artificiale è diventato più semplice generare immagini, video e audio.
Un deep fake è un prodotto audiovisivo realistico creato tramite una rete neurale – la base dell’IA e dei modelli linguistici di grandi dimensione – gli Llm. Viene generato tramite lo studio e l’unione di migliaia di immagini, video e registrazioni diverse unite su base statistica.
Sembra un processo molto complesso, ma non lo è.
La generazione di deep fake è diventata immediata e, soprattutto, economica.
Questo, insieme alle abilità generative dei chatbot, ha reso più semplice diffondere fake news e più difficile etichettarle come prodotti dell’IA.
Rapidi ed efficaci
Così come la creazione di questi contenuti inventati si è semplificata, anche la velocità con cui vengono condivisi è aumentata in maniera esponenziale.
Lo studioso Yuval Noah Harari, in un suo recente saggio, Nexus, ha sottolineato come il problema delle fake news e dei deep fake sia legato al fatto che gli algoritmi dei social network agevolano i contenuti che generano maggiori interazioni.
Questo, di conseguenza, favorisce le storie assurde che attirano lo sdegno e i commenti degli utenti.
Più la storia polarizza i suoi visitatori, più genererà attività online.
A peggiorare la situazione sono gli algoritmi dei social media, che permettono alle fake news di proliferare.
Gli impatti di questo meccanismo possono essere devastanti per la vita delle persone.
Uno degli esempi più noti è quello del Myanmar, dove l’algoritmo di Facebook non solo aveva permesso alle fake news di diffondersi, ma aveva anche fomentato la violenza contro la comunità dei rohingya nel Paese.
Per di più, il processo si autoalimenta nel tempo. Maggiore è il numero di notizie false condivise, più la situazione peggiora. Si innesca quindi un ciclo continuo e difficile da fermare.

Il primo ministro dell’India, Narendra Modi, durante un incontro con il presidente della Federazione Russa, Vladimir Putin, nel 2021. Foto: Wikimedia Commons.
Alla prova del 2024
Sono diversi i casi in cui l’utilizzo delle fake news per scopi di propaganda politica ha avuto effetti profondi sul processo politico e aumentato la polarizzazione.
Lo scorso anno, durante il quale oltre 70 Paesi sono andati al voto, è stato un banco di prova impegnativo.
In India per esempio, durante le elezioni del 2024, l’uso dei deep fake durante la campagna elettorale ha rappresentato una grande minaccia.
In un Paese con circa un miliardo di aventi diritto di voto – circa 645 milioni sono andati alle urne –, l’uso di audio e immagini falsificate e trame di scandalo è stato usato per creare un clima instabile tra i cittadini.
Un altro caso emblematico riguarda le elezioni presidenziali negli Stati Uniti.
A settembre, durante la campagna elettorale, l’allora candidato del partito repubblicano, Donald Trump, e il suo vice JD Vance hanno diffuso la notizia di un gatto che era stato rubato e mangiato da migranti haitiani.
Una storia appresa su Facebook, non verificata e infondata.
La vicenda è stata poi ripresa dai media tradizionali ed emittenti televisive. Oltre a creare clamore in rete, la notizia ha favorito un clima di violenza verso le comunità di immigrati.

Il presidente della Federazione Russa, Vladimir Putin, con il presidente degli Stati Uniti, Donald Trump, al G20 di Amburgo, nel 2017. Foto: Wikimedia Commons.
Minacce esterne
Gli stessi strumenti di disinformazione, oltre che dai candidati, vengono spesso utilizzati da nazioni estere e agenzie di spionaggio.
La Cina ha perfezionato le sue tattiche di disinformazione online per creare campagne di fake news.
Le stesse sono state utilizzate per influenzare il voto a Taiwan, considerata dal partito comunista inese come parte del proprio Stato.
Anche la Russia ha adottato l’utilizzo di campagne sui social media come strumento di ingerenza sui processi elettorali stranieri.
Gli esempi sono molti, dalle elezioni presidenziali in Romania a quelle negli Stati Uniti, dove la disinformazione di Mosca ha amplificato alcune notizie false, tra cui proprio quelle relative alla comunità haitiana.

Foto: Canva.
Non solo umani
In questo contesto, sta crescendo il ruolo dei chatbot che rendono più immediato il processo di disinformazione.
Non è più necessario che ci siano persone fisiche dietro a queste operazioni.
Basandosi su una notizia fabbricata in maniera artificiale, è possibile diffonderla via social media tramite le cosiddette bot farm.
In pratica, migliaia – in alcuni casi milioni – di account falsi fanno rimbalzare da una parte all’altra della rete storie non verificate, che vengono poi diffuse ancora di più a causa del clamore che generano.
I deep fake mostrano come l’IA e i social siano diventati uno strumento non soltanto di informazione positiva – scopo per cui erano stati creati –, ma di destabilizzazione politica.
Che sia promossa da attori interni o forze straniere, questa tendenza è sempre più pericolosa.
I sistemi per creare fake news crescono in fretta e occorrono sistemi efficaci per combatterle.