Anche i chatbot diventano anti-woke su richiesta di Trump

Di il 29 Luglio, 2025
La sfida per lo sviluppo dell'IA passa anche dalle scelte politiche. I modelli linguistici ritraggono certi pregiudizi, ma c'è il dubbio che costruirne una esente da ogni stereotipo sia impossibile
Foto: Wikipedia.

Che ruolo gioca l’intelligenza artificiale nelle scelte politiche? E fino a che punto può influenzare gli utenti che la utilizzano? E ancora, esistono anche le intelligenze anti-woke? Se, al momento, risposte precise non ce ne sono, c’è chi inizia a pensare che “il pensiero politico” che si cela dietro l’IA – il frutto del lavoro dei linguaggi di programmazione e delle informazioni che apprende – sia molto importante nella costruzione non solo della propria idea politica, ma dello stesso pensiero critico.

Tra coloro che per primi hanno iniziato a pensare a questa evenienza c’è il presidente degli Stati Uniti, Donald Trump, il quale ha ha firmato un ordine esecutivo per evitare il controllo ideologico delle macchine – o per assoggettarle al proprio. Un documento con un titolo eloquente: “Prevenire l’IA woke”.

Foto: Pexels.

IA anti woke

Con l’idea di rimodellare il modo in cui le aziende tecnologiche statunitensi addestrano i loro modelli, Trump ha firmato l’ordinanza che denuncia “la diversità, l’equità e l’inclusione”, definendola un’ideologia “pervasiva e distruttiva” che può “distorcere la qualità e l’accuratezza dei risultati”, come si legge su Techcrunch.

Se i chatbot erano nati per incarnare valori di inclusività, neutralità e correttezza politica, oggi si assiste alla comparsa – o quantomeno alla percezione – di chatbot antiwoke: modelli linguistici che rifiutano o sfidano apertamente quella che viene definita ideologia woke.

Nello specifico, nell’ordinanza l’amministrazione americana fa riferimento a informazioni su etnia o sesso, manipolazione della rappresentazione razziale o sessuale, teoria critica della razza, transgenderismo, pregiudizi inconsci, intersezionalità e razzismo.

Le piattaforme che collaborano con il governo americano – praticamente tutte le maggiori, Google, Open AI, Anthropic e xAI – per Trump dovranno essere “libere da pregiudizi” e in particolare evitare le “distorsioni” dovute alla “ideologia Dei” – ossia diversità, equità e inclusione –, che, secondo Trump, porterebbero alla “manipolazione della rappresentazione razziale o sessuale”.

Un’affermazione che ha suscitato l’immediata reazione degli esponenti del partito democratico. Il senatore Edward Markey ha parlato di “tentativo incostituzionale di condizionare le piattaforme”.

trump Air force one flickr free

Donald Trump, 45esimo e 47esimo presidente degli Stati Uniti sull’Air Force One. Foto: Flickr.

Effetti intimidatori

Gli esperti avvertono però che la scelta di Trump potrebbe avere una sorta di “effetto intimidatorio” sugli sviluppatori, che potrebbero sentirsi sotto pressione per allineare i risultati dei modelli e i dati alla retorica della Casa Bianca, al fine di garantire fondi federali alle loro attività che bruciano liquidità.

E non è un caso se l’ordine è arrivato proprio lo stesso giorno in cui Washington ha pubblicato il Piano d’azione sull’intelligenza artificiale, che sposta le priorità nazionali dal rischio sociale e si concentra, invece, sullo sviluppo di infrastrutture di intelligenza artificiale, sulla riduzione della burocrazia per le aziende tecnologiche, sul rafforzamento della sicurezza nazionale e sulla competizione con la Cina.

L’ordinanza incarica il direttore dell’Ufficio di gestione e bilancio, insieme all’amministratore per la politica degli appalti federali, all’amministratore dei servizi generali e al direttore dell’Ufficio per la politica scientifica e tecnologica di emanare linee guida per le altre agenzie su come conformarsi.

La scorsa settimana, OpenAI, Anthropic, Google e xAI hanno firmato contratti con il dipartimento della Difesa per ricevere fino a 200 milioni di dollari ciascuno per sviluppare flussi di lavoro di intelligenza artificiale che affrontino sfide critiche per la sicurezza nazionale.

Non è chiaro quale di queste aziende sia nella posizione migliore per trarre vantaggio dal divieto dell’IA.

SAN FRANCISCO, CALIFORNIA - SEPTEMBER 20: Anthropic Co-Founder & CEO Dario Amodei speaks onstage during TechCrunch Disrupt 2023 at Moscone Center on September 20, 2023 in San Francisco, California. (Photo by Kimberly White/Getty Images for TechCrunch)_free Wikimedia Commons

Dario Amodei, cofondatore e ad di Anthropic, all’evento TechCrunch Disrupt del 2023, a San Francisco. Foto: Flickr.

Super controllore

L’ordine esecutivo firmato da Trump solleva, comunque, una questione chiave che verte sulla necessità di capire come si possa garantire che un’intelligenza artificiale sia davvero libera da qualsiasi pregiudizio, quali sarebbero le sanzioni in caso di mancata conformità e quali rischi si correrebbero affidando il controllo di un sistema del genere a un ente governativo.

Uno studio pubblicato a maggio dalla Stanford Graduate School of Business ha rilevato che le risposte fornite dall’IA sono spesso percepite dagli americani come orientate a sinistra. Un caso emblematico è stato quello di Gemini con l’inserimento di uomini neri e donne orientali tra i soldati della Germania nazista.

Un eccesso di “politically correct” che ha invece portato un risultato fuorviante ed errato.

Allo stesso tempo, poco più di due settimane fa Grok, l’IA di X di Elon Musk, aveva elogiato Hitler e giustificato l’Olocausto. E dopo pochi giorni sono arrivate le dimissioni dell’amministratore delegato Linda Yaccarino.

Il problema dunque esiste, ma se non si pongono limiti alla creatività dell’AI si rischia di cadere nell’eccesso opposto di risposte razziste o antisemite, come si legge sul Corriere della Sera.

Come mettere delle barriere a questi algoritmi? Che cosa si può cambiare e che cosa, invece, finisce per produrre fake news

Nonostante sia ancora all’inizio, ci sono tutte le carte per pensare che la guerra al possesso dell’IA migliore passi anche dalla politica.

Devi essere loggato per lasciare un commento.
/ Published posts: 89

Chiara Buratti muove i suoi primi passi nel mondo del giornalismo nel 2011 al "Tirreno" di Viareggio. Nel 2012 si laurea in Comunicazione Pubblica e nel 2014 consegue il Master in Giornalismo. Dopo varie esperienze, anche all'estero (El Periódico, redazione Internazionali - Barcellona), dal 2016 è giornalista professionista. Lavora nel web/nuovi media e sulla carta stampata (Corriere della Sera - 7, StartupItalia). Ha lavorato in TV con emittenti nazionali anche come videoeditor e videomaker (Mediaset - Rete4 e Canale 5, Ricicla.tv).