Sabato, 24 Maggio 2025 - 17:01 Comunicato 1370

Equilibri digitali: umanità e macchina nel mondo che cambia

Al Festival dell’Economia di Trento 2025, il panel “L’intelligenza artificiale e l’uomo” ha offerto un confronto tra etica, tecnologia e responsabilità collettiva. Moderato dalla giornalista Rai, Barbara Carfagna, ha visto protagonisti padre Paolo Benanti, Giuliano Noci e Massimo Lapucci in un dialogo sul ruolo crescente dell’IA nella società. Dalla visione della Chiesa come “piazza aperta” in cui orientare l’innovazione al bene comune, alla metafora della leva che potenzia l’agire umano, fino alla necessità di una governance trasparente in settori critici come la finanza, i relatori hanno discusso sfide culturali, differenze tra modelli asiatici e occidentali, rischi di analfabetismo digitale e nuove forme di potere algoritmico.
Un dibattito che ha ribadito l’urgenza di educare, progettare e regolare l’intelligenza artificiale, mettendo al centro l’essere umano.
L’intelligenza artificiale e l’uomo Nella foto: Giuliano Noci, Massimo Lapucci, Paolo Benanti, Barbara Carfagna [ Alessandro Holneider - Archivio Ufficio Stampa PAT]

A inaugurare il confronto è stato padre Paolo Benanti, teologo e docente alla Pontificia Università Gregoriana, che ha evidenziato come la Chiesa cattolica stia assumendo un ruolo sempre più attivo nel dibattito sull’intelligenza artificiale. L’obiettivo – ha spiegato – non è opporsi all’innovazione, ma accompagnarla con responsabilità, orientandola verso un progresso che metta al centro la persona e la giustizia sociale. In questo senso, la dottrina sociale della Chiesa può offrire uno sguardo profondo sui mutamenti in corso, proponendosi non come voce solitaria, ma come piazza aperta: un luogo di confronto tra uomini e donne di buona volontà, dove si possa interrogare insieme il senso dell’innovazione e cercare modi per “addomesticare” la tecnologia. Secondo Benanti, l’IA agisce come un vero e proprio dispositivo di potere, capace di orientare consumi, relazioni e scelte quotidiane. Ma la questione più urgente riguarda la formazione delle coscienze. Se l’essere umano non viene educato a comprendere e filtrare l’enorme flusso di contenuti generati dalle macchine, rischia di perdere la capacità stessa di discernere ciò che è vero, utile, umano. Per questo, ha concluso, la sfida cruciale è educativa: costruire strumenti e percorsi che permettano alle nuove generazioni di abitare il futuro con consapevolezza, evitando una nuova forma di analfabetismo digitale.

Sul piano culturale e geopolitico, Giuliano Noci – prorettore del Politecnico di Milano e membro del Comitato per la strategia nazionale sull’intelligenza artificiale – ha offerto una visione ampia e sistemica della trasformazione in atto. A suo avviso, l’intelligenza artificiale non è semplicemente uno strumento, ma il perno di una nuova architettura sociale, fondata su connessioni continue tra persone, oggetti e agenti digitali. Ha richiamato, con un’immagine efficace, il principio di Leonardo da Vinci secondo cui la leva è capace di sollevare il mondo: allo stesso modo, ha spiegato, l’IA può amplificare l’agire umano, potenziandone capacità e scelte; il rischio è che un approccio etico troppo astratto si riveli inefficace nel contesto competitivo globale. Per questo, serve una progettazione consapevole, capace di integrare valori e realismo operativo. Noci ha messo in guardia dal rischio di un'Europa che, pur animata dalle migliori intenzioni regolatorie, finisca per entrare in un campo da gioco "storto", dove altri attori globali competono senza regole, “giocando con il doping”. In questo scenario, l’etica deve essere concreta e applicabile, altrimenti si trasforma in un vincolo unilaterale. Non si tratta di scegliere tra uomo e macchina, ha sostenuto, ma di costruire una sintesi progettuale in cui la tecnologia diventi forma di ordine prevedibile, spesso più affidabile dell’imprevedibilità umana. Per Noci, la vera sfida non è temere la macchina, ma imparare a incorporarla consapevolmente nel codice della società futura.

A chiudere l’incontro è stato l’intervento di Massimo Lapucci - docente di finanza, corporate governance e sostenibilità, senior advisor e International Fellow presso il Digital Ethics Center della Yale University - che ha richiamato l’attenzione sulla necessità di una governance trasparente e responsabile. L’intelligenza artificiale, ha sostenuto, è ormai un partner che interagisce con noi in molti ambiti della vita, ma non può essere trattata come un’entità indipendente. In particolare, ha evidenziato i rischi legati all’uso dell’IA in settori sensibili come la finanza, dove gli algoritmi possono amplificare distorsioni già esistenti se non adeguatamente regolati. Ha riconosciuto nell’AI Act dell’Unione Europea un primo passo importante verso una regolazione sensata, sottolineando che lo scopo non è bloccare l’innovazione, ma usarla per liberare l’essere umano da compiti ripetitivi e ridargli tempo e spazio per pensare, creare e decidere.

(vb)


Immagini