
Riccardo Gallotti ha raccontato il lavoro del suo team di ricerca, che indaga come le persone si comportano e interagiscono in contesti complessi, studiando fenomeni come cooperazione sociale, fiducia e disinformazione. “Al CHuB Lab lavoriamo in modo interdisciplinare, fianco a fianco con psicologi, sociologi, economisti, ingegneri dei trasporti ed esperti di IA”, ha spiegato. “Negli ultimi anni l’attenzione si è concentrata in particolare su disinformazione e fake news, in un contesto radicalmente trasformato dall’arrivo dell’IA generativa. Oggi chiunque, senza competenze specifiche, può creare testi, immagini e video realistici: uno strumento potente, che apre a straordinarie possibilità creative ma anche a diversi rischi, dalle campagne d’odio alla manipolazione politica. A questi si aggiungono minacce più sofisticate, come il microtargeting e le campagne di disinformazione online gestite da bots, in grado di amplificare messaggi persuasivi e orientare l’opinione pubblica in maniera mirata e difficilmente controllabile.”
Per misurare concretamente questa capacità persuasiva, Riccardo Gallotti con il suo ed altri team di ricerca hanno condotto un esperimento, pubblicato su Nature Human Behaviour insieme a EPFL e Princeton. Oltre 900 partecipanti hanno preso parte a mini-dibattiti accademici, dove un avversario umano e un modello basato su GPT-4 si confrontavano su temi politici e sociali. Il risultato è stato sorprendente: nel 64,4% dei casi è stata l’IA a convincere di più il pubblico. Inoltre, quando i partecipanti sapevano di parlare con una macchina, tendevano a cambiare idea più facilmente rispetto a quando si confrontavano con un essere umano.
Questi dati mostrano un passaggio critico: la persuasione, un’abilità sociale tradizionalmente umana, è oggi alla portata di algoritmi accessibili a chiunque. “L’IA ha reso la persuasione più facile, veloce e accessibile” ha sottolineato Gallotti. Ecco perché il dibattito non può limitarsi a valutare le potenzialità tecniche: bisogna riflettere su come queste tecnologie influenzeranno la democrazia, l’informazione e la fiducia tra le persone. Un punto centrale è anche la quantificazione del linguaggio: le macchine non fanno altro che mappare i dati di training, ossia ciò che hanno “mangiato” rapidamente negli ultimi anni e che continuano ad assimilare. Il linguaggio che generano è infatti statistico, e può cambiare in base alle informazioni che forniamo loro. “Se la macchina non può essere critica, dobbiamo esserlo noi”, ha aggiunto Gallotti.
A questo punto, il Prof. Alfio Ferrara ha sottolineato l’importanza dell’AI literacy, cioè la capacità diffusa di leggere criticamente i messaggi generati dalle macchine. Ha ricordato come non basti più considerare queste tecnologie un sapere tecnico riservato agli esperti: è necessario renderle comprensibili a tutti, perché i cittadini possano capire come viene prodotto il linguaggio delle macchine e sviluppare strumenti critici per valutarlo. Se gli algoritmi apprendono dai nostri comportamenti e sanno adattare le loro argomentazioni, diventa fondamentale che ognuno possieda competenze per riconoscerne limiti, rischi e potenzialità.
Accanto ai rischi ci sono anche opportunità concrete. Con progetti come AI4Trust, Gallotti e il Chub Lab partecipano allo sviluppo di una piattaforma che integra modelli di intelligenza artificiale con strumenti di analisi dei dati e pratiche di fact-checking collaborativo. L’obiettivo è individuare e tracciare in tempo reale la diffusione di contenuti di disinformazione online, fornendo a giornalisti, policy maker e società civile strumenti affidabili per contrastarne l’impatto.
In conclusione, come hanno ricordato Gallotti e Ferrara, la capacità persuasiva dell’intelligenza artificiale non è più una curiosità tecnologica, ma un fenomeno con implicazioni dirette sulla qualità dell’informazione, sul funzionamento della democrazia e sulle relazioni di fiducia tra le persone. Per questo, accanto all’analisi dei rischi, la ricerca e le istituzioni stanno lavorando a strumenti e iniziative che possano utilizzare le stesse tecnologie per contrastare la disinformazione e sostenere un dibattito pubblico più consapevole e inclusivo.
Il calendario completo degli appuntamenti è disponibile al sito https://eventi.wired.it/nextfest25-trentino/programma-completo
Il WIRED Next Fest Trentino è organizzato da WIRED Italia in partnership con la Provincia autonoma di Trento – Assessorato allo sviluppo economico, lavoro, famiglia, università e ricerca - Trentino Marketing, Trentino Sviluppo, Azienda per il Turismo Rovereto, Vallagarina e Monte Baldo, Comune di Rovereto.
Lavora alla costruzione del palinsesto il Comitato scientifico presieduto dall'Head of Content di WIRED Italia, che vede la partecipazione dell’Università degli Studi di Trento, della Fondazione Bruno Kessler, della Fondazione Edmund Mach, della Fondazione Hub Innovazione Trentino, dell’Istituto provinciale per la ricerca e la sperimentazione educativa - IPRASE e del MUSE - Museo delle Scienze.
Immagini disponibili a questo link accedendo con le seguenti credenziali:
Username: presswired
Password: Presswired2025