In piazza S. Maria Maggiore il confronto si è aperto con la ricercatrice Sara Tonelli che è intervenuta agganciandosi alla definizione di ChatGPT, uno strumento potente che si automigliora grazie anche ad un continuo feedback umano: “Non c’è una coscienza, ma solo un software, e quindi siamo molto lontani, come umani, dall’essere sostituiti dall’intelligenza artificiale.” E in merito alla regolamentazione ha sottolineato come sia necessario un compromesso che allunga però le tempistiche della ricerca: “Con l’intelligenza artificiale avremmo degli strumenti per frenare l’ondata d’odio sui social, ma non possiamo utilizzare i dati dei ragazzi.
Abbiamo trovato delle soluzioni, come fare delle simulazioni nelle scuole con il consenso dei genitori.” In merito Guido Scorza, garante della privacy, ha sottolineato come non esista una contrapposizione tra tecnologia e regole: “L’innovazione è un mezzo che serve ad accrescere un benessere collettivo che non toglie diritti e libertà. Nelle scuole la tecnologia deve entrare, ma deve però essere a prova di diritto e di libertà.” Sempre Scorza spiega sempre sia necessaria una trasparenza: “Le persone hanno diritto di sapere se la tecnologia usa informazioni personali, ma sono anche libere di scegliere se far parte di questo esperimento collettivo, secondo un diritto di scelta.”
Secondo Stefano Moriggi c’è bisogno di una maggior cultura della tecnologia, soprattutto nella scuola: “ChatGPT sarà sempre più performativa, mentre chi li utilizzerà lo sarà sempre meno. La modalità di interazione che dobbiamo utilizzare con le macchine è dialogica. La questione è complessa, non riconducibile al buonsenso.”
L’avvocato Carlo Blengino infine ha posto la questione geo-politica dell’Open AI: “L’Europa ha tentato da subito di mettere davanti i diritti umani, mentre in America questo problema non si è posto, perché lo hanno capito da tempo. ChatGPT è forse un primo passo verso un bene comune che necessita di una regolamentazione che l’Europa agevola.” In merito all’educazione conclude sostenendo che il problema è nei policy maker: “La tutela delle persona a discapito di un bene globale. Noi siamo per la dignità della persona. Il problema sui dati deve essere una scelta.”