ChatGpt utilizzato per fare propaganda politica

Di il 16 Giugno, 2025
solen-feyissa-ECTqHPd7Afg-unsplash_chatgpt_chat_gpt_open_ai_free_unsplash_AI
Aumentano le tattiche usate da account stranieri, in particolare cinesi, per creare falsi contenuti di marketing e destabilizzare i Paesi rivali tramite contenuti generati dall’assistente di OpenAI

Pochi giorni fa, l’azienda guidata da Sam Altman ha reso pubblico un report in cui dichiarava di aver scoperto e chiuso dieci diverse operazioni che andavano contro le policy aziendali e l’utilizzo corretto dell’intelligenza artificiale.

Gli account collegati a queste azioni sono stati banditi dall’utilizzo del chatbot.

Quattro di questi erano di origine cinesi, mentre gli altri provenivano da Nord Corea, Russia, Cina, Israele e Iran.

Il dipartimento di intelligence e investigazioni di OpenAI ha alzato i livelli di allerta ed è cresciuta la preoccupazione per l’utilizzo scorretto degli strumenti di IA all’interno dell’azienda.

Già all’inizio della diffusione dei chatbot in rete, alcune testate come il New York Times erano preoccupate per la minaccia che rappresentavano per l’informazione pubblica.

Ora il pericolo è realtà.

free-photo-of-webpage-of-ai-chatbot-a-prototype-ai-smith-open-chatbot-is-seen-on-the-website-of-openai-on-a-apple-smartphone-examples-capabilities-and-limitations-are-shown

Bomba a orologeria

Se si pensa alle capacità dei chatbot – come la creazione di immagini, la generazione di narrative e la scrittura di testi anche complessi –, il collegamento alla pubblicità è immediato.

Il problema, come mostra la ricerca di OpenAI, è rappresentato dall’utilizzo dell’IA non come supporto al marketing positivo, ma come mezzo per creare e diffondere propaganda politica e disinformazione.

L’abilità dei chatbot nel creare testi ingannevoli migliora ogni giorno.

La minaccia si è aggravata con la diffusione sempre più facilitata di deep fake e immagini, strumenti perfetti, per amplificare la portata delle fake news.

Se si aggiunge che questi prodotti di destabilizzazione politica vengono poi condivisi e utilizzati sui social media, la situazione si fa ancora più complessa.

Tra finzione e reale

Sempre più utenti attivi sulle piattaforme social dichiarano che riconoscere le false informazioni online è diventato più complicato che mai.

Durante le elezioni presidenziali statunitensi, per esempio, il programma NewsGuard ha sottolineato il crescente pericolo di imbattersi in fake news su TikTok.

Tuttavia, gli intervistati per una ricerca del gruppo sull’argomento hanno dichiarato di essere sicuri sul fatto di saper riconoscere le informazioni affidabili.

Spesso però questa sicurezza inganna gli utenti, che cadono nella trappola della disinformazione.

Per questo motivo, ByteDance, la società proprietaria di TikTok, ha preso la decisione di investire in un piano di educazione elettorale, creando la pagina Election Center, in collaborazione con Democracy Works, organizzazione no-profit nel campo dell’informazione online.

Questo non è un caso isolato in cui un’azienda di social media si schiera per combattere la disinformazione online. Infatti sia Meta sia TikTok sono intervenuti contro la propaganda russa diffusa sulle proprie piattaforme, eliminando gli account collegati ai media statali Russia Today e Sputnik.

Sam Altman OpenAI ChatGPT 2019 San Francisco free Wikimedia Commons.

Sam Altman, amministratore delegato di OpenAI, all’evento TechCrunch Disrupt nel 2019. Foto: Flickr.

Nuova frontiera

Anche OpenAI si è impegnata nella lotta alle fake news e pubblica report periodici sull’abuso dei propri prodotti da parte di attori malintenzionati.

Tuttavia, queste azioni potrebbero non essere sufficienti a limitare la circolazione contenuti falsicreati tramite IA.

Infatti, i casi di sfruttamento di ChatGpt per la creazione di propaganda e campagne di destabilizzazione stannodiventando un problema rilevante.

I chatbot hanno delle caratteristiche che si adattano perfettamente agli obiettivi propagandistici di governi  come quelli di  Cina, Iran o Russia – ma, come riportato nello studio di OpenAI, anche Israele e gruppi di estrema destra in tutto il mondo.

Sono in grado di generare testi, immagini, brevi commenti o prodotti audio. Sono rapidi e possono essere utilizzati per diffondere notizie infondate, sia sui social sia sulle piattaforme di IA stesse.

Di conseguenza è fondamentale un maggiore controllo sulle fake news, da parte delle aziende di intelligenza artificiale e dei social media, sui propri contenuti.

L’IA generativa ha permesso un gigantesco passo in avanti nel mondo dell’informazione e della generazione di contenuti.

Ma, come prevedibile, sono presto diventate anche un’arma formidabile di propaganda politica.

Devi essere loggato per lasciare un commento.