
Foto: Wikipedia.
Che ruolo gioca l’intelligenza artificiale nelle scelte politiche? E fino a che punto può influenzare gli utenti che la utilizzano? E ancora, esistono anche le intelligenze anti-woke? Se, al momento, risposte precise non ce ne sono, c’è chi inizia a pensare che “il pensiero politico” che si cela dietro l’IA – il frutto del lavoro dei linguaggi di programmazione e delle informazioni che apprende – sia molto importante nella costruzione non solo della propria idea politica, ma dello stesso pensiero critico.
Tra coloro che per primi hanno iniziato a pensare a questa evenienza c’è il presidente degli Stati Uniti, Donald Trump, il quale ha ha firmato un ordine esecutivo per evitare il controllo ideologico delle macchine – o per assoggettarle al proprio. Un documento con un titolo eloquente: “Prevenire l’IA woke”.

Foto: Pexels.
IA anti woke
Con l’idea di rimodellare il modo in cui le aziende tecnologiche statunitensi addestrano i loro modelli, Trump ha firmato l’ordinanza che denuncia “la diversità, l’equità e l’inclusione”, definendola un’ideologia “pervasiva e distruttiva” che può “distorcere la qualità e l’accuratezza dei risultati”, come si legge su Techcrunch.
Se i chatbot erano nati per incarnare valori di inclusività, neutralità e correttezza politica, oggi si assiste alla comparsa – o quantomeno alla percezione – di chatbot antiwoke: modelli linguistici che rifiutano o sfidano apertamente quella che viene definita ideologia woke.
Nello specifico, nell’ordinanza l’amministrazione americana fa riferimento a informazioni su etnia o sesso, manipolazione della rappresentazione razziale o sessuale, teoria critica della razza, transgenderismo, pregiudizi inconsci, intersezionalità e razzismo.
Le piattaforme che collaborano con il governo americano – praticamente tutte le maggiori, Google, Open AI, Anthropic e xAI – per Trump dovranno essere “libere da pregiudizi” e in particolare evitare le “distorsioni” dovute alla “ideologia Dei” – ossia diversità, equità e inclusione –, che, secondo Trump, porterebbero alla “manipolazione della rappresentazione razziale o sessuale”.
Un’affermazione che ha suscitato l’immediata reazione degli esponenti del partito democratico. Il senatore Edward Markey ha parlato di “tentativo incostituzionale di condizionare le piattaforme”.

Donald Trump, 45esimo e 47esimo presidente degli Stati Uniti sull’Air Force One. Foto: Flickr.
Effetti intimidatori
Gli esperti avvertono però che la scelta di Trump potrebbe avere una sorta di “effetto intimidatorio” sugli sviluppatori, che potrebbero sentirsi sotto pressione per allineare i risultati dei modelli e i dati alla retorica della Casa Bianca, al fine di garantire fondi federali alle loro attività che bruciano liquidità.
E non è un caso se l’ordine è arrivato proprio lo stesso giorno in cui Washington ha pubblicato il Piano d’azione sull’intelligenza artificiale, che sposta le priorità nazionali dal rischio sociale e si concentra, invece, sullo sviluppo di infrastrutture di intelligenza artificiale, sulla riduzione della burocrazia per le aziende tecnologiche, sul rafforzamento della sicurezza nazionale e sulla competizione con la Cina.
L’ordinanza incarica il direttore dell’Ufficio di gestione e bilancio, insieme all’amministratore per la politica degli appalti federali, all’amministratore dei servizi generali e al direttore dell’Ufficio per la politica scientifica e tecnologica di emanare linee guida per le altre agenzie su come conformarsi.
La scorsa settimana, OpenAI, Anthropic, Google e xAI hanno firmato contratti con il dipartimento della Difesa per ricevere fino a 200 milioni di dollari ciascuno per sviluppare flussi di lavoro di intelligenza artificiale che affrontino sfide critiche per la sicurezza nazionale.
Non è chiaro quale di queste aziende sia nella posizione migliore per trarre vantaggio dal divieto dell’IA.

Dario Amodei, cofondatore e ad di Anthropic, all’evento TechCrunch Disrupt del 2023, a San Francisco. Foto: Flickr.
Super controllore
L’ordine esecutivo firmato da Trump solleva, comunque, una questione chiave che verte sulla necessità di capire come si possa garantire che un’intelligenza artificiale sia davvero libera da qualsiasi pregiudizio, quali sarebbero le sanzioni in caso di mancata conformità e quali rischi si correrebbero affidando il controllo di un sistema del genere a un ente governativo.
Uno studio pubblicato a maggio dalla Stanford Graduate School of Business ha rilevato che le risposte fornite dall’IA sono spesso percepite dagli americani come orientate a sinistra. Un caso emblematico è stato quello di Gemini con l’inserimento di uomini neri e donne orientali tra i soldati della Germania nazista.
Un eccesso di “politically correct” che ha invece portato un risultato fuorviante ed errato.
Allo stesso tempo, poco più di due settimane fa Grok, l’IA di X di Elon Musk, aveva elogiato Hitler e giustificato l’Olocausto. E dopo pochi giorni sono arrivate le dimissioni dell’amministratore delegato Linda Yaccarino.
Il problema dunque esiste, ma se non si pongono limiti alla creatività dell’AI si rischia di cadere nell’eccesso opposto di risposte razziste o antisemite, come si legge sul Corriere della Sera.
Come mettere delle barriere a questi algoritmi? Che cosa si può cambiare e che cosa, invece, finisce per produrre fake news
Nonostante sia ancora all’inizio, ci sono tutte le carte per pensare che la guerra al possesso dell’IA migliore passi anche dalla politica.