
A inaugurare il confronto è stato padre Paolo Benanti, teologo e docente alla Pontificia Università Gregoriana, che ha evidenziato come la Chiesa cattolica stia assumendo un ruolo sempre più attivo nel dibattito sull’intelligenza artificiale. L’obiettivo – ha spiegato – non è opporsi all’innovazione, ma accompagnarla con responsabilità, orientandola verso un progresso che metta al centro la persona e la giustizia sociale. In questo senso, la dottrina sociale della Chiesa può offrire uno sguardo profondo sui mutamenti in corso, proponendosi non come voce solitaria, ma come piazza aperta: un luogo di confronto tra uomini e donne di buona volontà, dove si possa interrogare insieme il senso dell’innovazione e cercare modi per “addomesticare” la tecnologia. Secondo Benanti, l’IA agisce come un vero e proprio dispositivo di potere, capace di orientare consumi, relazioni e scelte quotidiane. Ma la questione più urgente riguarda la formazione delle coscienze. Se l’essere umano non viene educato a comprendere e filtrare l’enorme flusso di contenuti generati dalle macchine, rischia di perdere la capacità stessa di discernere ciò che è vero, utile, umano. Per questo, ha concluso, la sfida cruciale è educativa: costruire strumenti e percorsi che permettano alle nuove generazioni di abitare il futuro con consapevolezza, evitando una nuova forma di analfabetismo digitale.
Sul piano culturale e geopolitico, Giuliano Noci – prorettore del Politecnico di Milano e membro del Comitato per la strategia nazionale sull’intelligenza artificiale – ha offerto una visione ampia e sistemica della trasformazione in atto. A suo avviso, l’intelligenza artificiale non è semplicemente uno strumento, ma il perno di una nuova architettura sociale, fondata su connessioni continue tra persone, oggetti e agenti digitali. Ha richiamato, con un’immagine efficace, il principio di Leonardo da Vinci secondo cui la leva è capace di sollevare il mondo: allo stesso modo, ha spiegato, l’IA può amplificare l’agire umano, potenziandone capacità e scelte; il rischio è che un approccio etico troppo astratto si riveli inefficace nel contesto competitivo globale. Per questo, serve una progettazione consapevole, capace di integrare valori e realismo operativo. Noci ha messo in guardia dal rischio di un'Europa che, pur animata dalle migliori intenzioni regolatorie, finisca per entrare in un campo da gioco "storto", dove altri attori globali competono senza regole, “giocando con il doping”. In questo scenario, l’etica deve essere concreta e applicabile, altrimenti si trasforma in un vincolo unilaterale. Non si tratta di scegliere tra uomo e macchina, ha sostenuto, ma di costruire una sintesi progettuale in cui la tecnologia diventi forma di ordine prevedibile, spesso più affidabile dell’imprevedibilità umana. Per Noci, la vera sfida non è temere la macchina, ma imparare a incorporarla consapevolmente nel codice della società futura.
A chiudere l’incontro è stato l’intervento di Massimo Lapucci - docente di finanza, corporate governance e sostenibilità, senior advisor e International Fellow presso il Digital Ethics Center della Yale University - che ha richiamato l’attenzione sulla necessità di una governance trasparente e responsabile. L’intelligenza artificiale, ha sostenuto, è ormai un partner che interagisce con noi in molti ambiti della vita, ma non può essere trattata come un’entità indipendente. In particolare, ha evidenziato i rischi legati all’uso dell’IA in settori sensibili come la finanza, dove gli algoritmi possono amplificare distorsioni già esistenti se non adeguatamente regolati. Ha riconosciuto nell’AI Act dell’Unione Europea un primo passo importante verso una regolazione sensata, sottolineando che lo scopo non è bloccare l’innovazione, ma usarla per liberare l’essere umano da compiti ripetitivi e ridargli tempo e spazio per pensare, creare e decidere.