Wikipedia fa a cazzotti con l'IA, in campo i redattori - Mediatrends

Wikipedia fa a cazzotti con l’IA e mette in campo un esercito di redattori

Di il 29 Agosto, 2025
Da un lato, il team ha dato vita a una squadra di lavoro a caccia di errori generati dall'intelligenza artificiale, da un altro è naufragato il tentativo di Wikimedia Foundation di integrare l'IA
Foto: Wikimedia Commons

Centinaia di articoli di Wikipedia potrebbero contenere errori generati dall’intelligenza artificiale e ora un cospicuo gruppo di redattori e analisti è a lavoro per cercare di eliminarli.

Così, all’inizio di alcune pagine ora compare la dicitura “Questo articolo potrebbe incorporare testo da un modello linguistico di grandi dimensioni”, come si legge sul Washington Post.

Un esempio di una pagina segnalata incorretta dai moderatori di Wikipedia

Un’IA poco intelligente

Sebbene Wikipedia non vieti espressamente l’uso dell’intelligenza artificiale, il sito è nato come libera enciclopedia alimentata dalle conoscenze degli utenti del web.

E tale sarebbe dovuta restare, se non che qualche IA ha voluto metterci il naso, generando valanghe di errori come hanno riferito gli analisti che al momento stanno lavorando su una pulizia generale.

A detta degli esperti, l’IA avrebbe realizzato modifiche e generato anche articoli completamente nuovi con errori, citazioni inventate e altro.

Utilizzata come fonte riconosciuta attendibile e approfondita dagli utenti online, adesso Wikipedia potrebbe anche iniziare a perdere parte della sua credibilità.

All’ombra dei nuovi modelli linguistici LLM che hanno reso più facile che mai generare testi convincenti, secondo uno studio condotto dai ricercatori della Princeton University, circa il 5% delle 3.000 nuove pagine di Wikipedia in lingua inglese create nell’agosto 2024 contenevano testo generato dall’intelligenza artificiale.

E tra gli scritti identificati tali figurano sia approfondimenti che sono “soltanto” stati modificati da strumenti di IA che articoli che sono stati completamente scritti da un’intelligenza artificiale, in particolare riferiti a storie di aziende o gruppi politici e probabilmente ideati ad hoc per farsi pubblicità o propaganda. 

È, ad esempio, il caso della pagina dedicata a Villa Llao Llao, in cui l’IA ha descritto un hotel argentino invece di un villaggio, ma anche l’approfondimento su Amberlihisar, considerato dai moderatori di Wikipedia completamente falso.

La fortezza di Ambelihisar. Foto: Wikimedia Commons

Un team contro l’IA sulla Wiki

Quando il problema ha iniziato a diffondersi, nel 2023, i redattori di Wikipedia hanno fondato un team.

Si chiama WikiProject AI Cleanup e lavora proprio sulla ricerca degli errori generati dall’intelligenza artificiale sul sito con un’idea molto precisa: fornire delle guide per aiutare i redattori a individuare un tipo di scrittura prodotta dall’IA da una, invece, realizzata dall’essere umano.

Inoltre, il WikiProject AI Cleanup ha stilato un elenco di oltre 500 pagine con sospetti errori di IA da sottoporre a revisione.

E proprio durante questo mese, Wikipedia ha modificato la sua politica di cancellazione rapida: ora i redattori possono eliminare rapidamente gli articoli con evidenti segni distintivi di scrittura generata dall’intelligenza artificiale, oltre a vietare l’uso di immagini generate dall’intelligenza artificiale.

Una politica che è stata a lungo discussa dal team di Wikipedia, l’enciclopedia libera sbarcata sul web il 15 gennaio 2001 e co-guidata da Jimmy Wales, allora CEO della Bomis, e Larry Sanger, al tempo redattore capo.

I redattori hanno discusso caso per caso gli articoli sospetti, avvisato i trasgressori e segnalato nuovi casi di scrittura generati dall’intelligenza artificiale, per poi inserirli all’interno di alcune guide e orientare le politiche del sito, come si legge sul Washington Post.

Foto: Pexels

Il tentativo della Wikimedia Foundation

La Wikimedia Foundation ha però preso in considerazione lo sviluppo di strumenti di intelligenza artificiale ma in qualità di aiutante per automatizzare una serie di attività come l’integrazione di nuovi redattori e la traduzione di alcuni articoli.

Ma l’iniziativa della Wikimedia Foundation non è sempre stata accolta con favore, anzi. A giugno, la fondazione ha abbandonato l’esperimento per aggiungere riassunti generati dall’intelligenza artificiale ai suoi articoli, dopo le proteste di molti redattori, come si legge su Wired.

Insomma, fin a che punto ci si possa spingere con le nuove frontiere dell’intelligenza artificiale e quanto questi strumenti siano davvero efficaci per certi tipi di lavori, come gli approfondimenti dei redattori della Wiki, è un capitolo ancora completamente aperto.

Devi essere loggato per lasciare un commento.
/ Published posts: 89

Chiara Buratti muove i suoi primi passi nel mondo del giornalismo nel 2011 al "Tirreno" di Viareggio. Nel 2012 si laurea in Comunicazione Pubblica e nel 2014 consegue il Master in Giornalismo. Dopo varie esperienze, anche all'estero (El Periódico, redazione Internazionali - Barcellona), dal 2016 è giornalista professionista. Lavora nel web/nuovi media e sulla carta stampata (Corriere della Sera - 7, StartupItalia). Ha lavorato in TV con emittenti nazionali anche come videoeditor e videomaker (Mediaset - Rete4 e Canale 5, Ricicla.tv).