L’intelligenza artificiale accentua le filter bubble dell’informazione e la pluralità è l’unico antidoto

Di il 07 Luglio, 2025
"Occorre capire come l'IA indicizzerà i contenuti. Più entra nella quotidianità, più diventa invisibile e ci si disabitua a decidere", dice Mariarosaria Taddeo, professoressa all'Oxford Internet Institute

Media, editoria, giornalismo, intelligenza artificiale, utenti. Dietro questi termini ci sono relazioni che stanno cambiando non solo il mondo del web, ma la percezione stessa del mondo.

Durante The Big Interviewla serie di incontri di Wired Italia tenuti il 26 giugno all’Università Bocconi di Milano, Mediatrends – ospite dell’evento – ha approfondito l’intricato tema con Mariarosaria Taddeo, filosofa che si occupa di etica delle tecnologie digitali e professoressa di Etica digitale e tecnologie della Difesa all’Oxford Internet Institute dell’Università di Oxford.

All’evento di Wired, Taddeo è stata ospite di un panel intitolato Regoliamo l’AI nei conflitti armati, partendo da cosa reputiamo inaccettabile.

L’intervento di Mariarosaria Taddeo durante The Big Interview, evento organizzato da Wired Italia all’Università Bocconi il 26 giugno 2025. Foto: Franco Russo.

Tra IA e sicurezza informatica

Dopo la laurea magistrale in filosofia e un dottorato di ricerca nella stessa disciplina, Taddeo è stata ricercatrice in sicurezza informatica ed etica all’Università di Warwick e ha ottenuto una borsa di studio Marie Curie all’Università dell’Hertfordshire, prima di entrare all’Oxford Internet Institute.

I suoi lavori più recenti si concentrano sull’etica e la governance delle tecnologie digitali e spaziano dalla progettazione di misure di governance per sfruttare l’IA alle sfide etiche dell’uso della tecnologia di difesa, fino all’etica della sicurezza informatica e alla governance dei conflitti cyber.

Ha pubblicato più di 150 articoli, concentrati su argomenti come tecnologie digitali affidabili, governance dell’innovazione digitale, governance etica dell’IA per la difesa nazionale, etica della sicurezza informatica.

I suoi lavori appaiono su importanti riviste come Nature, Nature Machine Intelligence, Science e Science Robotics.

Taddeo ha guidato, dirige e co-dirige diversi progetti nell’ambito dell’etica digitale.

In particolare, è responsabile di un’iniziativa in corso sui Principi etici per l’uso dell’IA per la sicurezza nazionale e la difesa, finanziato dal Defence Science and Technology Laboratory – laboratorio di scienza e tecnologia della difesa del Regno Unito.

È stata anche responsabile di un progetto finanziato dal Nato Cooperative Cyber ​​Defence Centre of Excellence per definire linee guida etiche per la regolamentazione dei conflitti cyber.

Nel 2020, Orbit – l’Osservatorio per la ricerca e l’innovazione responsabile nelle tecnologie dell’informazione e della comunicazione collegato all’Università di Oxford – l’ha inserita tra le 100 donne più influenti al mondo nel campo dell’etica dell’intelligenza artificiale.

Nello stesso anno, è stata nominata tra i dodici “eccezionali talenti emergenti” del 2020 dal Women’s Forum for Economy and Society e, nel 2023, ha ricevuto il titolo di Gran ufficiale al Merito della Repubblica Italiana.

Ha ricevuto il World Technology Award for Ethics nel 2016 e il Simon Award per la ricerca eccezionale in informatica e filosofia nel 2010.

È stata inoltre una tra gli esperti della task force su intelligenza artificiale e cybersecurity del Centre for European Policy Studies, un importante think tank di Bruxelles, le cui pubblicazioni influenzano le politiche dell’Unione Europea – in questo caso, in materia di cybersecurity.

pexels-sanketgraphy-16587313 chatgpt openai free

Foto: Pexels.

Informazione su misura

L’IA generativa sta diventando una delle modalità utilizzate dagli utenti per informarsi. Le testate web devono quindi trovare un modo per adattarsi alla canalizzazione dell’informazione su software come ChatGpt e Gemini.

Secondo la professoressa Taddeo, “ci sono diversi aspetti da considerare. Uno di questi è la fruizione dell’informazione, che è sempre più personalizzata, gestita sia intorno alle priorità che alle opinioni individuali, e questo credo che sia un aspetto che l’IA rinforzerà”.

L’informazione su misura ha fatto un grande passo in avanti con gli assistenti virtuali basati sull’intelligenza artificiale.

“Useremo l’intelligenza artificiale come medium per trovare l’informazione che cerchiamo, ma sarà lei stessa a imparare a conoscerci e, quindi, a prevenire le nostre esigenze e necessità. Ecco, ritengo che questo sia un punto problematico perché, andando avanti, i social media e l’esposizione a una diversa informazione rispetto a quella che ci aspettiamo – non tanto in termini di qualità ma di contenuti – è alla base della formazione del pensiero critico e della pluralità delle democrazie”.

Anche nelle redazioni, i cambiamenti non si faranno attendere, sottolinea la professoressa.

“Ad alcuni di questi già stiamo assistendo con l’adozione dell’IA per scrivere, ad esempio, un articolo o fare ricerca. Penso che più i giornalisti si formeranno su questi temi e meno problemi ci saranno anche in futuro”.

In questa sfida, gli Stati Uniti portano alla luce degli esempi lampanti.

“Piuttosto che farsi fagocitare dall’IA per l’acquisizione di dati, le testate americane cercano di trovare un accordo e questa è una direzione che dobbiamo monitorare perché, invece, è importante proteggere il copyright e si deve arrivare prima che le testate si organizzino da sole”.

Per Taddeo, dunque, è importante tenere sotto controllo la situazione degli accordi che i media stringono con le più grandi società di software intelligenti.

Google AI with magnifying glass

Immagine: Wikimedia Commons.

IA e indicizzazione dei contenuti

Tra gli altri elementi essenziali da monitorare, specifica Taddeo, c’è la funziona di “mediatore” dell’IA.

“L’IA è già parte dei motori di ricerca, ma assumerà un ruolo sempre più importante nella mediazione con l’utente”, spiega.

“In questo senso, sarà interessante capire come l’IA indicizzerà i contenuti in futuro. Più la tecnologia si inserisce nel nostro ambiente quotidiano, più diventa invisibile. E questo esserci senza farsi vedere e fare scelte al nostro posto diventa pericoloso perché ci disabitua alla capacità di prendere decisioni”.

Insomma, gli utenti saranno sempre più in difficoltà ad agire? “Credo che questo punto sia il nocciolo più critico di tutta la questione”, commenta la professoressa.

In questo scenario, si inserisce anche quella che fino a poco tempo fa veniva definita “la logica del clickbait“, sulla base della quale sono nate tante delle prime redazioni online: intercettare coloro che fossero disposti a pagare per essere pubblicizzati, nonché gli editori stessi.

Con l’IA però cambia anche questa logica e, pure in questo caso, il futuro non si prospetta roseo.

“Ho sempre pensato che il clickbait fosse il risultato di due cose: la tecnologia e un certo tipo di fruizione delle notizie”, dice Taddeo.

“Anche in questo campo l’IA farà il suo gioco e sarà tanto più efficiente quanto meno il fruitore medio sarà informato”.

Un altra faccia della medaglia che per la professoressa di Oxford nasce molto tempo fa: “la stessa logica del clickbait funzionava un po’ così”.

gilles-lambert-pb_lF8VWaPU-unsplash_free_photo

Foto: Unsplash.

Una bolla sempre più grande

Se queste sono le premesse, la conseguenza più immediata per l’utente sarà “una fruizione più veloce dell’informazione. Chi sa fare le domande giuste all’IA sarà più esposto a contenuti in linea con quanto richiesto”, spiega Taddeo.

“Anche questa è una questione di formazione: chi fa domande sbagliate otterrà sintesi peggiori”.

Una scarsa consapevolezza penalizza sempre e forse l’unico modo per batterla è proprio quello di studiarla.

“Oggi chi si espone all’IA con poca consapevolezza rischia di perdere il senso dell’informazione”, aggiunge la docente.

“Per fare un esempio pratico: se leggo un articolo di un giornalista che conosco, posso anche pensare di non essere d’accordo con il suo punto di vista, ma se penso che quel contenuto l’abbia scritto l’IA, ecco che nasce il tech bias, ovvero quella tendenza a credere a quello che sto leggendo senza filtri. Non è un tema nuovo, ma fino a che punto si spingerà questa tendenza è un aspetto da analizzare”.

In questo mare magnum di tech e informazioni, come si fa a garantire ancora un’informazione plurale?

Come punto fondamentale, conclude Taddeo, “la pluralità va protetta e dobbiamo essere proattivi nel mantenerla”.

Considerando che “non si censurano le informazioni, non siamo più esposti alla diversità dell’informazione, immersi in quelle che vengono chiamate filter bubble, e finiamo per diversificare i contenuti che leggiamo. Una volta che questa pluralità si perderà, sarà molto difficile recuperarla”.

Devi essere loggato per lasciare un commento.
/ Published posts: 62

Chiara Buratti muove i suoi primi passi nel mondo del giornalismo nel 2011 al "Tirreno" di Viareggio. Nel 2012 si laurea in Comunicazione Pubblica e nel 2014 consegue il Master in Giornalismo. Dopo varie esperienze, anche all'estero (El Periódico, redazione Internazionali - Barcellona), dal 2016 è giornalista professionista. Lavora nel web/nuovi media e sulla carta stampata (Corriere della Sera - 7, StartupItalia). Ha lavorato in TV con emittenti nazionali anche come videoeditor e videomaker (Mediaset - Rete4 e Canale 5, Ricicla.tv).