
Foto: Wikimedia Commons
Centinaia di articoli di Wikipedia potrebbero contenere errori generati dall’intelligenza artificiale e ora un cospicuo gruppo di redattori e analisti è a lavoro per cercare di eliminarli.
Così, all’inizio di alcune pagine ora compare la dicitura “Questo articolo potrebbe incorporare testo da un modello linguistico di grandi dimensioni”, come si legge sul Washington Post.

Un esempio di una pagina segnalata incorretta dai moderatori di Wikipedia
Un’IA poco intelligente
Sebbene Wikipedia non vieti espressamente l’uso dell’intelligenza artificiale, il sito è nato come libera enciclopedia alimentata dalle conoscenze degli utenti del web.
E tale sarebbe dovuta restare, se non che qualche IA ha voluto metterci il naso, generando valanghe di errori come hanno riferito gli analisti che al momento stanno lavorando su una pulizia generale.
A detta degli esperti, l’IA avrebbe realizzato modifiche e generato anche articoli completamente nuovi con errori, citazioni inventate e altro.
Utilizzata come fonte riconosciuta attendibile e approfondita dagli utenti online, adesso Wikipedia potrebbe anche iniziare a perdere parte della sua credibilità.
All’ombra dei nuovi modelli linguistici LLM che hanno reso più facile che mai generare testi convincenti, secondo uno studio condotto dai ricercatori della Princeton University, circa il 5% delle 3.000 nuove pagine di Wikipedia in lingua inglese create nell’agosto 2024 contenevano testo generato dall’intelligenza artificiale.
E tra gli scritti identificati tali figurano sia approfondimenti che sono “soltanto” stati modificati da strumenti di IA che articoli che sono stati completamente scritti da un’intelligenza artificiale, in particolare riferiti a storie di aziende o gruppi politici e probabilmente ideati ad hoc per farsi pubblicità o propaganda.
È, ad esempio, il caso della pagina dedicata a Villa Llao Llao, in cui l’IA ha descritto un hotel argentino invece di un villaggio, ma anche l’approfondimento su Amberlihisar, considerato dai moderatori di Wikipedia completamente falso.

La fortezza di Ambelihisar. Foto: Wikimedia Commons
Un team contro l’IA sulla Wiki
Quando il problema ha iniziato a diffondersi, nel 2023, i redattori di Wikipedia hanno fondato un team.
Si chiama WikiProject AI Cleanup e lavora proprio sulla ricerca degli errori generati dall’intelligenza artificiale sul sito con un’idea molto precisa: fornire delle guide per aiutare i redattori a individuare un tipo di scrittura prodotta dall’IA da una, invece, realizzata dall’essere umano.
Inoltre, il WikiProject AI Cleanup ha stilato un elenco di oltre 500 pagine con sospetti errori di IA da sottoporre a revisione.
Una politica che è stata a lungo discussa dal team di Wikipedia, l’enciclopedia libera sbarcata sul web il 15 gennaio 2001 e co-guidata da Jimmy Wales, allora CEO della Bomis, e Larry Sanger, al tempo redattore capo.
I redattori hanno discusso caso per caso gli articoli sospetti, avvisato i trasgressori e segnalato nuovi casi di scrittura generati dall’intelligenza artificiale, per poi inserirli all’interno di alcune guide e orientare le politiche del sito, come si legge sul Washington Post.

Foto: Pexels
Il tentativo della Wikimedia Foundation
La Wikimedia Foundation ha però preso in considerazione lo sviluppo di strumenti di intelligenza artificiale ma in qualità di aiutante per automatizzare una serie di attività come l’integrazione di nuovi redattori e la traduzione di alcuni articoli.
Ma l’iniziativa della Wikimedia Foundation non è sempre stata accolta con favore, anzi. A giugno, la fondazione ha abbandonato l’esperimento per aggiungere riassunti generati dall’intelligenza artificiale ai suoi articoli, dopo le proteste di molti redattori, come si legge su Wired.
Insomma, fin a che punto ci si possa spingere con le nuove frontiere dell’intelligenza artificiale e quanto questi strumenti siano davvero efficaci per certi tipi di lavori, come gli approfondimenti dei redattori della Wiki, è un capitolo ancora completamente aperto.