
L’ntelligenza artificiale è molto convincente, più di quanto si pensi.
Secondo uno studio dell’Istituto federale svizzero di tecnologia di Losanna, questa capacità persuasiva dell’IA, derivata da una serie di fattori, potrebbe avere importanti implicazioni politiche.
Utilizzando un comune chatbot, si è impressionati dalla gentilezza, quasi leziosa, con cui risponde alle domande. Del resto, un’IA non può urlare.
Soprattutto, gli assistenti hanno un’ottima capacità di microtargeting: riescono cioè a costruire narrazioni che soddisfano i bisogni di rassicurazione emotiva da parte degli elettori indecisi.
Al Guardian, Francesco Salvi, autore della ricerca, ha messo in guardia da “eserciti di bot che fanno microtargeting su elettori indecisi, persuadendoli con narrative e storie che sembrano autentiche”.
Quello che vuoi
Nella tradizione oxfordiana, il dibattito è una vera e propria arte.
Gli studenti sono incoraggiati a esercitarsi nell’argomentazione retorica anche su posizioni in cui non credono in prima persona, ma che imparano a difendere in tempi e regole molto specifiche.
In Italia, ad esempio, Camelot è una piattaforma sviluppata per regolamentare il dibattito in luoghi pubblici come le scuole.
ChatGpt-4 si è dimostrato più persuasivo degli esseri umani in dibattiti su temi particolarmente polarizzanti, come l’aborto, ma anche su questioni meno divisive, come le uniformi scolastiche, secondo uno studio pubblicato su Nature Human Behaviour. L’effetto è più evidente quando l’IA conosce dati personali dei partecipanti, come età, genere o opinioni politiche.
Nell’intervista, Salvi usa un termine inglese molto specifico: nudge. Il nudging può essere conosciuto ai molti per il famoso libro di Richard Thaler e Cass Sustein, tradotto nella nostra lingua come “la spinta gentile”.
In effetti, la persuasione è in scienza politica un esercizio di potere, cioè una forma di condizionamento di un attore A sul comportamento di un attore B.
Questa persuasione può essere occulta, ambigua, ma anche gentile, cioè usata per promuovere decisioni che portano al benessere di sé e della collettività.
Come al solito, molto dipende dalle domande che si sceglie di porre e dall’ecosistema informativo nel suo insieme.

Il mito della caverna in una rappresentazione del 1604 dell’incisore e cartografo olandese Jan Saenredam. Foto: Flickr.
L’IA vuole conoscerti
Secondo gli autori, però, questo esito non dipende soltanto dalla qualità razionale o analitica delle argomentazioni.
Piuttosto, ha a che fare proprio con quella affabile e camaleontica bonomia con cui l’IA riesce ad adattare le proprie risposte ai bisogni dell’interlocutore.
Salvi ha suggerito che questa capacità aumenta al crescere della conoscenza di informazioni, prese ad esempio dai social media.
Al contrario, Sander van der Linden, psicologo sociale all’Università di Cambridge, ha dichiarato che in uno studio non è stato mostrato come la presenza di informazioni personali abbia incrementato la capacità di persuasione dell’IA.
Secondo Michael Wooldridge, ricercatore all’Università di Oxford, questa capacità del chatbot potrebbe risultare, in realtà, una risorsa.
Se l’IA è davvero capace di convincere di qualcosa, potrebbe anche smontare teorie cospirazioniste o, ad esempio, incoraggiare gli utenti ad adottare stili di vita più salutari.
L’IA, in sostanza, sa esattamente quali nervi scoperti toccare.
Proprio come aveva vaticinato Guido Morselli in Roma senza papa, affidando udienze e interrogazioni retoriche a due computer arbiter.
O come uno di quei poeti tanto temuti da Platone.