Il web non è più “uomo-centrico”. Che cosa succede oggi?

Di il 27 Febbraio, 2026
Un tempo il lettore era un’entità riconoscibile, con comportamenti, preferenze, percorsi di navigazione. Oggi, accanto a lui, si muove una moltitudine silenziosa artificiale
Immagine di copertina: un codice HTML. Fonte: Pexels

Il web sta vivendo una trasformazione silenziosa ma radicale.

Non riguarda un nuovo social network, né un cambio improvviso nelle abitudini degli utenti ma la natura del traffico che attraversa la rete: sempre più spesso, chi visita un sito non è un lettore, un cliente o un utente reale, ma un bot.

Alcuni sono innocui, altri utili, altri ancora opachi. Alcuni arrivano da aziende tecnologiche occidentali, altri da infrastrutture cinesi difficili da decifrare.

Tutti insieme stanno ridisegnando il modo in cui misuriamo, interpretiamo e valorizziamo la comunicazione digitale.

Negli ultimi mesi, due fenomeni paralleli hanno attirato l’attenzione di ricercatori e media: un’ondata di traffico misterioso proveniente dalla Cina verso siti occidentali di piccole dimensioni, e la crescita esponenziale del traffico generato da bot di intelligenza artificiale.

Presi insieme, raccontano una storia più grande: il web non è più un ecosistema centrato sull’umano, come si legge su Wired.

Robot al lavoro. Fonte: Unsplash

Chatbot, i nuovi user

Decine di piccoli siti occidentali come blog personali, archivi culturali, portali di hobby, forum semi-abbandonati, hanno registrato un aumento improvviso e massiccio di visite provenienti dalla Cina.

Non si tratta di traffico organico: le visite arrivano in orari regolari, seguono pattern ripetitivi, non interagiscono con i contenuti e spesso utilizzano user agent standardizzati.

Tra le spiegazioni possibili ci sono crawler governativi o istituzionali, che con la Cina mantengono un vasto ecosistema di monitoraggio del web. Inoltre, nuovi sistemi potrebbero essere stati attivati per mappare contenuti stranieri.

Un’altra ragione potrebbe essere rappresentata dallo scraping per addestrare modelli linguistici cinesi di AI generativa. Anche le big tech cinesi hanno bisogno di dataset ampi e aggiornati e, se l’accesso a contenuti occidentali è limitato, lo scraping diretto diventa una scorciatoia;

Alcune piattaforme potrebbero raccogliere contenuti per traduzioni automatiche, aggregatori o motori di ricerca locali ma potrebbero essere plausibili anche errori di routing o configurazioni anomale con una parte del traffico che potrebbe essere accidentale, dovuta a CDN o server mal configurati.

Intanto, non sappiamo con certezza chi stia generando questo traffico né perché. E l’opacità, nel mondo digitale è sempre un segnale da non ignorare.

Sempre più bot

Parallelamente, un altro fenomeno sta cambiando la natura del traffico online: la crescita dei bot di intelligenza artificiale.

Secondo analisi recenti, come si legge su Wired, una quota significativa delle visite ai siti web proviene da crawler che raccolgono testi per addestrare modelli linguistici, bot che verificano informazioni in tempo reale per rispondere a query degli utenti, agenti autonomi che navigano il web per eseguire task complessi, sistemi SEO automatizzati, strumenti di monitoraggio e analisi competitiva.

Per anni abbiamo considerato le metriche digitali come una bussola affidabile.

Le pageview erano un segnale di interesse, il tempo di permanenza un indizio di coinvolgimento, la provenienza geografica un modo per capire dove si muoveva il pubblico.

Oggi quella bussola sembra impazzita. L’arrivo massiccio di bot ha trasformato le statistiche in un territorio ambiguo, dove il confine tra ciò che è reale e ciò che è automatizzato si assottiglia fino quasi a scomparire.

Molti editori raccontano la stessa esperienza: grafici che improvvisamente schizzano verso l’alto senza una ragione apparente, picchi di traffico notturni che non corrispondono a nessuna pubblicazione, audience che sembra crescere ma non lascia tracce di sé.

In questo scenario, la domanda non è più “quante persone mi leggono?”, ma “quante di queste visite sono davvero persone?”. E la risposta, sempre più spesso, è: “Molte meno di quanto pensassimo”.

La presenza crescente di bot non altera solo le metriche ma cambia la natura stessa del pubblico: un tempo il lettore era un’entità riconoscibile, con comportamenti, preferenze, percorsi di navigazione. Così oggi, accanto a lui, si muove una moltitudine silenziosa che non legge, non scrolla, non interagisce. Passa, prende, se ne va.

È un pubblico fantasma che non lascia commenti, non si iscrive a newsletter, non compra prodotti, non costruisce relazioni. Eppure occupa spazio, consuma banda, distorce la percezione del valore.

Per chi lavora nella comunicazione, questo significa trovarsi davanti a un paradosso: un sito può sembrare più vivo che mai, ma essere in realtà meno rilevante. Oppure può apparire marginale agli occhi dei bot, e dei sistemi di AI che selezionano contenuti, pur avendo una comunità reale e fedele.

Il rischio è che la visibilità non dipenda più dalla qualità o dall’interesse umano, ma dalla capacità di essere “leggibili” per le macchine.

E questo sposta l’asse della comunicazione verso un terreno nuovo, dove il contenuto non parla più solo alle persone, ma anche agli algoritmi che lo scandagliano.

L’AI cinese Deepseek, fonte: Pexels

Verso un nuovo contenuto

In un web sempre più popolato da bot, il contenuto assume una funzione diversa. Non è più soltanto un prodotto editoriale, un messaggio, un racconto: diventa materia prima ma qualcosa da estrarre, catalogare, ricombinare.

I modelli di intelligenza artificiale leggono, assorbono, sintetizzano. E nel farlo, spesso, non restituiscono nulla a chi quei contenuti li ha creati. È un’economia dell’estrazione che ricorda quella delle risorse naturali: chi produce non è necessariamente chi beneficia.

Questo solleva domande profonde per l’editoria e per i brand: “Se i contenuti vengono utilizzati per addestrare sistemi che poi generano testi concorrenti, qual è il valore residuo del lavoro originale?”. “Se una parte significativa delle visite non è umana, come si misura il ritorno sugli investimenti?”. E soprattutto: “Come si difende l’autorialità in un ecosistema in cui la lettura non implica più riconoscimento, e la circolazione non implica più attribuzione?”

Di fronte a questo scenario, la reazione non può essere solo tecnica. Chiaramente servono strumenti più sofisticati per distinguere traffico umano da traffico automatizzato, firewall intelligenti, analytics capaci di leggere i pattern comportamentali con maggiore finezza.

Ma serve anche una nuova consapevolezza culturale: il web non è più quello di dieci anni fa, e forse non tornerà a esserlo.

Un robot curioso, fonte: Unsplash

Un nuovo concetto di “audience”

Per gli editori tutto questo significa ripensare il concetto di audience, spostando l’attenzione dalle visite alle relazioni, dai numeri alle comunità, dalla quantità alla qualità.

Per i brand significa interrogarsi su come misurare davvero l’impatto, evitando di confondere la visibilità con l’efficacia.

Per chi lavora nella comunicazione significa accettare che il pubblico non è più un’entità omogenea, ma un insieme ibrido di persone e macchine, di lettori e crawler, di attenzione e automazione.

In questo nuovo ecosistema, la sfida non è solo proteggere i contenuti, ma capire come convivere con un web che non è più interamente umano.

Un web in cui la geopolitica entra dalle porte laterali, e in cui l’intelligenza artificiale non è solo uno strumento ma un attore che partecipa alla circolazione delle informazioni.

Devi essere loggato per lasciare un commento.
Chiara Buratti
/ Published posts: 137

Chiara Buratti muove i suoi primi passi nel mondo del giornalismo nel 2011 al "Tirreno" di Viareggio. Nel 2012 si laurea in Comunicazione Pubblica e nel 2014 consegue il Master in Giornalismo. Dopo varie esperienze, anche all'estero (El Periódico, redazione Internazionali - Barcellona), dal 2016 è giornalista professionista. Lavora nel web/nuovi media e sulla carta stampata (Corriere della Sera - 7, StartupItalia). Ha lavorato in TV con emittenti nazionali anche come videoeditor e videomaker (Mediaset - Rete4 e Canale 5, Ricicla.tv).