I brand devono fare i conti con i bot e l’intelligenza artificiale

Di il 30 Settembre, 2025
NYC_-_200_Liberty_Street_-_Winter_Garden_-_200_Vesey_Street_-_Goldman_Sachs_World_Headquarters_-_panoramio_free_wikimedia
Il problema di opinioni false e ingannevoli che circolano soprattutto sui social generate dall'IA hanno messo in difficoltà alcuni tra i marchi americani più noti, da McDonald's a Goldman Sachs
Foto copertina: la sede centrale di Goldman Saches a Manhattan. Foto: Wikimedia Commons.

L’intelligenza artificiale e i bot, tra i temi più dibattuti del momento, sono un’arma a doppio taglio.

Da una parte, offrono una serie di opportunità fino a poco tempo fa inimmaginabile, dall’altra, se usati in modo anti-etico, possono trarre in inganno sempre più utenti, attraverso tecniche sempre più difficili da smascherare.

Oggi a fare i conti con bot sempre più acuti, intelligenti e ingannevoli sono anche i brand colpiti da un fenomeno conosciuto come Shadow AI.

Negli ultimi due anni, si legge sul Wall Street Journal, a pagare il prezzo di un’IA anti-etica sono stati, tra gli altri, Target, McDonald’s, Boeing.

Foto: Pexels.

Prezzo da pagare

Il professore Emilio Ferrara, che insegna Informatica e comunicazione all’università della California del Sud, al Wall Street Journal ha dichiarato “la differenza è la rapidità con cui i bot basati sull’intelligenza artificiale riescono a creare campagne su temi incendiari o divisivi, ad esempio argomenti di guerra culturale, e a farli rimanere in tendenza”.

Gli stessi algoritmi di Facebook, progettati per massimizzare l’engagement, hanno finito per promuovere contenuti divisivi e fake news.

Bot ingannevoli e reti automatizzate hanno sfruttato queste dinamiche per diffondere propaganda e manipolare l’opinione pubblica e Meta ha dovuto affrontare audizioni governative, critiche globali e una revisione profonda dei suoi sistemi.

Oggi si affida anche a fact-checker esterni per ridurre la polarizzazione dei contenuti che circolano in rete.

Ma il tema ha riguardato anche il comparto finanziario. Goldman Sachs, ad esempio, ha utilizzato modelli predittivi per orientare le decisioni di investimento.

Ma quando le previsioni si sono rivelate errate, le perdite sono state significative e la banca ha dovuto ristrutturare i team di data science, integrando controlli più rigorosi e testando i modelli su scenari più realistici oltre ad aumentare la supervisione umana nelle decisioni strategiche.

Due anni fa, alcuni dipendenti Samsung hanno condiviso codice riservato con ChatGpt per ricevere assistenza. Senza rendersene conto, hanno esposto informazioni sensibili a un sistema esterno e la big tech ha reagito vietando l’uso di IA generativa.

Così, l’azienda ha vietato l’uso di ChatGpt e simili per i dipendenti e ha attuato policy aziendali più severe, creato strumenti interni di IA controllati oltre ad avviare campagne di sensibilizzazione sulla sicurezza informatica.

Molti sono, insomma, i brand che sono dovuti correre ai ripari contro la Shadow AI che espone le organizzazioni a rischi legali, violazioni del Gdpr e vulnerabilità informatiche.

Minaccia silenziosa, ma sempre più diffusa.

Foto: Pexels.

Difficili rimedi anti-fake bot

Se, da una parte la conoscenza della materia sta accelerando e sono sempre di più le aziende che si dotano di esperti informatici per prevenire questo tipo di attacchi, da un’altra diventa sempre più complicato identificare gli individui che li hanno sferrati.

Ma il problema non riguarda soltanto la singola azienda, bensì tutta la rete poichè questi bot sono ben addestrati a far sì che gli argomenti oggetto di dibattiti e discussioni online divengano sempre più divisivi, così da innescare reazioni non limitate a una particolare piattaforma o ideologia politica.

E possono arrivare a scatenare dei dibattiti tanto accesi da mettere in difficoltà alcuni dirigenti stessi.

Un esempio è il caso Cracker Barrel Old Country Store.

Il brand ha di recente abbandonato il suo nuovo logo a causa di una serie critiche scatenate da parte di consumatori, influencer e funzionari eletti, tra cui il presidente degli Stati Uniti Donald Trump che, secondo Peak Metrics, sarebbero state generate proprio da un bot su X.

Appena partito il bot, alcuni account che vantano centinaia di migliaia di follower, dopo l’annuncio del nuovo logo, hanno puntato il dito contro Cracker Barrel accusando l’azienda di aver abbandonato il suo “fascino country” e il suo passato.

Secondo PeakMetrics, in una ricerca condotta per il Wall Street Journal, lo scorso 20 agosto il 44,5% dei post su X che menzionavano Cracker Barrel nelle 24 ore successive alla presentazione del nuovo logo è stato scritto da bot o presunti bot.

Pertanto, dopo che anche anche il presidente Trump si è schierato contro Cracker Barrel su Truth, l’azienda ha fatto marcia indietro.

Insomma, un problema sempre più concreto e tangibile a cui i brand oggi non possono voltare le spalle.

Devi essere loggato per lasciare un commento.
Chiara Buratti
/ Published posts: 97

Chiara Buratti muove i suoi primi passi nel mondo del giornalismo nel 2011 al "Tirreno" di Viareggio. Nel 2012 si laurea in Comunicazione Pubblica e nel 2014 consegue il Master in Giornalismo. Dopo varie esperienze, anche all'estero (El Periódico, redazione Internazionali - Barcellona), dal 2016 è giornalista professionista. Lavora nel web/nuovi media e sulla carta stampata (Corriere della Sera - 7, StartupItalia). Ha lavorato in TV con emittenti nazionali anche come videoeditor e videomaker (Mediaset - Rete4 e Canale 5, Ricicla.tv).