Il primo influencer politico generato dall’IA nel Regno Unito

Di il 13 Aprile, 2026
Un rapper generato dall'intelligenza artificiale, milioni di visualizzazioni e un partito di estrema destra dietro le quinte: Effie Webb ha investigato il caso che sta ridefinendo i confini della propaganda politica
Immagine di copertina: Effie Webb, giornalista del Bureau of Investigative Journalism
La versione originale di questo articolo è stata pubblicata in lingua inglese dallo stesso autore il 13 aprile 2025.

Danny Bones ha il profilo tradizionale di un rapper britannico di successo: milioni di visualizzazioni su TikTok, centinaia di migliaia di stream su Spotify, una solida base di fan attratta dalla sua musica su immigrazione, identità nazionale e declino culturale.

Il problema è che non è una persona reale. Danny Bones è un personaggio generato dall’intelligenza artificiale, costruito e gestito da un gruppo anonimo chiamato Node Project.

Un’inchiesta del Bureau of Investigative Journalism ha rivelato che lo stesso gruppo era stato incaricato da Advance UK, un partito di estrema destra fondato dall’ex esponente di Reform UK Ben Habib, di produrre contenuti per la campagna elettorale, diventando uno dei primi casi documentati di un partito britannico che paga un’operazione basata sull’IA per orientare la propria comunicazione.

L’inchiesta è stata condotta da Effie Webb, giornalista del Bureau of Investigative Journalism, che abbiamo avuto il piacere di intervistare.

Come sei entrata in contatto con Danny Bones per la prima volta? E come hai capito che non si trattava di una persona reale, ma di un personaggio generato dall’IA?

Spotify me lo ha consigliato attraverso una playlist Discover Weekly. All’inizio mi è sembrato davvero bravo e non ci ho pensato molto, ma poi ho cliccato sul profilo. Il mio radar per l’IA è piuttosto allenato, quindi ho pensato subito fosse un avatar generato dall’IA. Mi aveva incuriosita e ho iniziato ad esaminarlo più da vicino. Ho scoperto che non aveva una sola canzone, bensì quattro. Non era un artista verificato, siccome Spotify non fa più queste verifiche, ma era un artista registrato, quindi pensavo fosse legittimo. Sono poi passata ai social media, dove aveva ancora più successo e milioni di visualizzazioni su TikTok, ed era attivo su tutte le piattaforme. Mi aveva preso, perché avevo visto molti avatar IA, influencer, meme e contenuti spazzatura, ma non avevo mai visto musicisti e personaggi davvero convincenti e di successo. Così ho trovato Danny Bones, e da lì è seguito tutto il resto.

Era un’operazione piuttosto complessa, e dietro c’era il Node Project. Puoi dirci qualcosa di più sul Node Project? Quanto è grande questo gruppo, quanto è sofisticato e qual è la portata dell’operazione?

Quando sono andata sul sito del Node Project per la prima volta, sono rimasta colpita da quanto sembrasse professionale e legittimo, quello che ci si aspetterebbe da un sito di un’agenzia di influencer. Si descriveva come un collettivo, e ho dato per scontato che ci fosse più di una persona dietro. Ma era molto ambiguo riguardo ai membri del team e all’organizzazione. Non c’era alcuna indicazione sulla loro posizione o origine. Ovviamente il personaggio di Danny Bones viene presentato come un patriota britannico, o in qualunque modo si voglia chiamarlo, quindi ho dato per scontato ci fosse un legame con il Regno Unito, ma stavo cercando di capire chi ci fosse dietro. È impressionante sia visivamente, è relativamente iper-realistico, e molte persone con cui ho parlato inizialmente non hanno capito che fosse IA, sia musicalmente: la musica non era solo di buona qualità, ma proveniva da un personaggio coerente. Mantenere un avatar IA coerente da video a video, con la stessa voce, è una delle cose più difficili nell’IA. Quindi ho pensato che dietro non ci potesse essere una persona qualunque, ma qualcuno con vere competenze tecniche.

Ma il Node Project non è solo dietro al personaggio di Danny Bones, ha anche creato contenuti per Advance UK. Qual è il significato di questo legame? Il Node Project è un gruppo indipendente? È un’operazione politica che fa anche musica? O, al contrario, è un gruppo che fa contenuti online e fa anche politica?

Direi la seconda. Inizialmente pensavo che il Node Project fosse solo dietro al personaggio di Danny Bones. Nelle loro comunicazioni, lasciano intendere che Danny Bones sia il primo di altri avatar in arrivo. Ma durante l’inchiesta sono riuscita a collegarlo ad Advance UK, un partito nazionalista cristiano che pubblicava molti contenuti politici generati dall’AI sul proprio account X. Avendo già visto alcuni dei contenuti di Danny Bones e del Node Project, riuscivo a vedere somiglianze nello stile, il tipo di tagli, le immagini IA, persino la voiceover sembrava molto simile, e ovviamente il tema del patriottismo britannico. Poi ho notato che alla fine del video di campagna di due minuti di Advance UK che era diventato virale, c’era il logo del Node Project. A quel punto, ho iniziato a indagare se il Node Project fosse semplicemente un’entità finanziata da Advance UK, o una cosa separata. Ad essere onesta, è qualcosa nel mezzo. È un progetto separato e indipendente. Fanno contenuti. Il personaggio di Danny Bones non ha nulla a che fare con il partito, lo hanno chiarito quando l’ho chiesto. Il contenuto di Advance UK è stato commissionato su base freelance, come mi hanno detto sia Advance UK sia il Node Project. È lì che ho notato ciò che era davvero significativo: abbiamo discusso della minaccia che l’IA potrebbe rappresentare per la democrazia e le elezioni, e il 2024 era ampiamente considerato l’anno dei video deepfake, con così tante elezioni in corso. Ne avevamo sempre parlato in modo molto teorico, ma Danny Bones è stato il primo avatar davvero convincente e direttamente collegabile a un partito politico. Altri partiti potrebbero aver usato l’IA prima, ma questa è una situazione in cui qualcuno viene pagato per creare contenuti senza essere responsabile, perché è solo un personaggio IA.

Su quest’ultimo punto, pensi che pagare un gruppo che crea contenuti attraverso l’IA comporti differenze rispetto alla tradizionale propaganda? O è la stessa cosa che avere un influencer o un content creator che gestisce una campagna politica per te?

Ho riflettuto su quanto sia diverso e se sia peggio. Non penso necessariamente che ci siano molte differenze sostanziali. E penso che, nel prossimo anno circa, vedremo sempre più influencer IA diventare la nuova norma, in politica quanto nelle industrie commerciali. Ciò che mi preoccupa di più è che si tratta di un’operazione senza volto. Non c’è nessuno a cui rendere conto e nessuno a cui rivolgersi. Durante la mia inchiesta, non li ho segnalati a TikTok e alle altre piattaforme, ma ho comunicato che avrei incluso questi contenuti nell’articolo, e TikTok ha bloccato il suo account. Ma la responsabilità finisce più o meno lì. Poi sono andata alla Electoral Commission, che regola le elezioni e le campagne politiche, ma anche se avesse violato qualche regola elettorale, sarebbe stato molto difficile attribuire la colpa a qualcuno. Quindi penso che in un certo senso il partito si stia mettendo a maggior rischio usando un influencer IA, perché se è una persona reale e qualcosa va storto, puoi rivolgerti a lei. Penso che sia probabilmente troppo presto per dare verdetti, ma legalmente è un campo minato.

Al di là della responsabilità, qual è secondo te la differenza tra campagne generate dall’IA e contenuti diffusi da bot farm e account falsi?

Penso che la differenza sia che con i contenuti generati dall’IA l’operazione è più centralizzata e riconoscibile. Con il personaggio di Danny Bones c’erano essenzialmente due cose in corso. Una era Advance UK che pagava per contenuti del Node Project che non necessariamente violavano le regole della piattaforma, erano messaggi patriottici, generati dall’IA sì, ma che diffondevano solo un messaggio politico. Allo stesso tempo, il Node Project pubblicava i contenuti di Danny Bones, che riguardavano meno la disinformazione e più l’incitamento all’odio, l’islamofobia e quel tipo di cose. Penso che una rete decentralizzata e frammentata di bot abbia probabilmente meno probabilità di portare legittimità a un partito politico. Essendo un personaggio unico e riconoscibile, Danny Bones poteva più facilmente sostenere il partito e funzionare come un vero influencer. I bot anonimi semplicemente non sono influenti allo stesso modo.

Oltre alla parte politica di questa operazione, qual è il motore economico? Cosa ci dice questo sulla monetizzazione dei contenuti generati dall’IA sui social media?

Non penso che ci sia un problema con la monetizzazione dell’IA di per sé. Il problema che questa inchiesta evidenzia è che stanno monetizzando contenuti che sono rage bait, incitamento all’odio e materiale leggermente complottista o con linguaggio che ricorda il complottismo. Non è la prima volta che succede. Le piattaforme incentivano l’engagement in quel modo, dando priorità ai contenuti che provocano rabbia, e i contenuti del Node Project fanno esattamente questo. In termini di monetizzazione, Danny Bones aveva tre flussi di entrate. Il primo erano le piattaforme: stavano monetizzando su Spotify e X, anche se non sono del tutto sicura riguardo a quest’ultimo. YouTube sicuramente no, perché hanno smesso di monetizzare i creator e gli avatar generati dall’IA. Il secondo flusso proveniva da abbonamenti e merchandise, a cui generalmente non mi opporrei, ma in questo caso è tutto legato a contenuti razzisti. Il terzo è il ricavo politico-partitico. Va detto che l’operazione era molto solida e aveva una struttura sofisticata. Immagino stessero spendendo una buona somma in strumenti IA, ma d’altra parte questi strumenti sono piuttosto economici e potrebbero in realtà fare un profitto decente. Mi hanno detto via email che non stavano guadagnando una somma significativa, non posso confermarlo, ma è quello che hanno detto.

E la tua seconda inchiesta ha scoperto un’altra operazione economica che coinvolge meme coin e trading di criptovalute.

Il lato crypto è davvero interessante. Lo sto osservando anche con la guerra in Iran in corso. Ci sono tutte queste meme coin e meme coin politiche che nascono specialmente sulla scia di eventi come la guerra in Iran, o collegate a personaggi simili a Danny Bones. X e lo spazio crypto sono pieni di questo tipo di eventi politici e controversi che vengono rapidamente trasformati in una coin molto volatile. Il Node Project, va detto a loro merito, non era coinvolto in questo di per sé. Ma ciò che era davvero interessante era che le persone che spingevano le meme coin intorno a Danny Bones non avevano nulla a che fare con la politica britannica, stando a quanto ho potuto ricostruire. È quindi molto più un’economia dell’odio che un’operazione politica.

Al di là del lato della responsabilità politica, c’è anche un problema di moderazione e verifica dei contenuti. Durante l’episodio di Danny Bones, Grok, l’assistente IA di X, ha detto agli utenti che Danny Bones era una persona reale, non IA. Cosa ci dice questo sull’affidabilità degli strumenti di moderazione basati sull’IA? E come sottolinea l’importanza della supervisione umana sui contenuti online e sulle community notes?

Su X, il passaggio dai team umani dedicati alla sicurezza dei contenuti alle Community Notes non è un modello sbagliato in linea di principio, ma nella pratica non è ottimale, poiché il servizio delle Community Notes è molto ampio. Non affronta affatto l’elemento dell’incitamento all’odio. Si propone di affrontare la disinformazione, ma ovviamente ci sono così tanti contenuti su X che i gruppi volontari non riusciranno mai a controllarli tutti. E da quello che vedo, Grok sembra prendere sempre più quel ruolo. Le persone chiedono semplicemente a Grok se un contenuto è verificato e legittimo. In base all’esempio di Danny Bones, Grok non ha una grande comprensione della realtà, il che rivela che le IA non sono brave a rilevare altre IA. Quindi penso che sia una sorta di corsa al ribasso su X in particolare. La moderazione dei contenuti IA in generale riceve molte critiche, ma è difficile vederla funzionare perché ne sentiamo parlare solo quando fallisce. C’è un’enorme quantità di contenuti che l’AI può moderare con successo, e allo stesso tempo un’enorme quantità che non viene intercettata. La domanda interessante per gli sviluppi futuri è se il modello in cui l’IA modera l’IA possa diventare affidabile.

Passiamo dalla rete alla vita reale. Danny Bones è stato il primo caso di un influencer IA realistico che sosteneva un partito politico. Esiste una minaccia concreta che gli influencer IA arrivino a condizionare le elezioni? O dobbiamo semplicemente prendere atto che i contenuti generati dall’IA sono ormai parte del paesaggio informativo?

La tentazione di proiettarsi sullo scenario peggiore è forte: la democrazia è in pericolo, le elezioni non saranno più libere. Anche nel mondo delle politiche pubbliche c’è chi sostiene che l’IA rappresenti una minaccia enorme. Io non arrivo a tanto. Ragionare così significa trattare il problema come qualcosa di nuovo e alieno, ignorando che con questa minaccia conviviamo da anni. I social media erano già una minaccia per la democrazia molto prima dell’IA, e non parlo solo di X. Abbiamo visto in questi anni cosa fanno gli algoritmi, su qualunque piattaforma. L’IA è solo l’ultimo elemento di una storia già in corso. Un avatar come Danny Bones potrà influenzare qualcuno, magari chi ascolta la sua musica finisce per fare proprie certe posizioni politiche. Ma siamo ancora lontani da una propaganda partitica esplicita veicolata da un influencer artificiale. Non credo che il pubblico ci starebbe, almeno per ora. Questo caso lo ha dimostrato: nei commenti ai suoi video c’era chi lo trovava imbarazzante, poco autentico. Il che non significa che per altri non funzioni.

Abbiamo parlato di moderazione e della possibilità che le piattaforme regolino i contenuti IA e l’incitamento all’odio. La tua inchiesta ha però mostrato che anche il giornalismo gioca un ruolo rilevante. Come può contribuire a contrastare questo fenomeno senza diventare parte del problema, amplificandone la visibilità?

Quando si scrive di qualcosa di dannoso online, che si tratti di IA o meno, gli stai inevitabilmente dando una piattaforma. E se si tratta di un’operazione di influenza come questa, gli stai offrendo pubblicità gratuita. Lo abbiamo visto accadere concretamente: le iscrizioni al loro canale sono arrivate solo dopo la pubblicazione dell’inchiesta, così come tutta l’attività crypto. È un’arma a doppio taglio. Nel mio caso, la questione si riduce a valutare il peso della storia. Coprire ogni singolo contenuto IA online non è praticabile: bisogna avere criteri di selezione. I miei sono essenzialmente tre. Primo: c’è un partito politico coinvolto? Secondo: esistono danni concreti nel mondo reale, o una prospettiva realistica di essi, come incitamento alla violenza, truffe, frodi? L’attività crypto è un esempio: le persone potrebbero perdere soldi veri. Terzo: i deepfake e le immagini sintetiche in zone di conflitto vanno sempre indagati e corretti, non si può lasciare quel tipo di contenuto online senza una risposta. Detto questo, la questione dell’amplificazione è reale e va tenuta presente.

Questa inchiesta ha mostrato quanto rapidamente si stia evolvendo l’IA. Come cambierà il panorama dell’informazione online man mano che questi strumenti diventano sempre più accessibili?

Negli ultimi due anni i modelli IA generativi non sono necessariamente diventati più economici, anzi, nonostante quello che si sente dire, in molti casi stanno diventando più costosi. Quello che sta cambiando è la diffusione. E con essa emerge una tensione: aziende come OpenAI o xAI si stanno accorgendo che modelli con meno restrizioni sui contenuti generano più fidelizzazione. Troppi limiti e si perdono utenti. Stiamo quindi assistendo a un allentamento progressivo dei guardrail, con una logica non dissimile da quella che ha guidato i social media, perché questi strumenti sono prima di tutto prodotti commerciali. Il panorama informativo ne è già profondamente segnato, non solo per i media sintetici e i contenuti generati dall’IA, ma anche per i dati su cui questi modelli vengono addestrati e le informazioni che poi restituiscono agli utenti. Il problema di fondo è quello dell’informazione asimmetrica. È un’area affascinante, ma difficilissima da misurare: a differenza dei social media, dove la diffusione della disinformazione è almeno in parte tracciabile, con i chatbot personalizzati ognuno ha la propria versione della realtà. Rendere queste aziende più responsabilizzate è necessario, ma nell’immediato futuro lo vedo poco probabile.

Devi essere loggato per lasciare un commento.
Rocco De Carolis
/ Published posts: 13

Rocco De Carolis è contributor per Mediatrends, dove scrive di guerra ibrida, comunicazione politica e dinamiche digitali dell’informazione. Studente di Global Humanitarian Studies presso UCL, ha una formazione in sicurezza internazionale e geopolitica, consolidata con un Diploma in Global Security presso ISPI. Ha partecipato a missioni umanitarie in America Latina e coordina programmi di mentoring nel Regno Unito per United Italian Societies. Scrive di disinformazione, propaganda, interferenze straniere, comunicazione politica e attivismo sui media digitali. È interessato alle fratture del presente: conflitti, potere, narrazioni e alle loro conseguenze sociali. Studia in particolare il ruolo dei dati e della comunicazione nei processi politici, con un’attenzione specifica al sistema politico e mediatico anglo-americano.