«L’automazione sta aiutando a eliminare lavori faticosi e ripetitivi. E questo è un bene. La fine di questo lavoro gravoso è alle porte ed è inevitabile», ha esordito Federico Butera, professore alla Bicocca e alla Sapienza e presidente della Fondazione Irso. «L’invenzione delle mansioni nel Taylorismo e del Fordismo ci ha dato l’impressione che il lavoro fosse solo in queste. Ma c’è molto di più: ci sono ruoli, gradi di competenze, possibilità di collaborazione e altri fattori complessi che lo definiscono. Se oggi bisogna concepire il lavoro solo rispetto al risultato, il grande interrogativo è come questo si potrò negoziare tenendo conto che è fatto anche espressione di creatività, innovazione, incertezza, conflittualità. Questa riprogettazione complessa del mercato del lavoro è troppo complicata per qualsiasi attore singolo oggi presente sul mercato. Occorre una progettazione socio-tecnica (ad opera quelli che chiamo “architetti socio-tecnici”) per stabilire una collaborazione con le tecnologie, una sorta di alleanza».
«Oggi nella programmazione si mettono insieme tanti pezzi la cui provenienza è oscura» chiarisce Giovanni Sebastiano, direttore pianificazione strategica di Exprivia-Italtel. «Sta avvenendo ciò che nel 2007 si è avuto con la crisi finanziaria: prodotti messi insieme in modo anonimo che hanno messo in crisi la catena di valore. Oggi l’intelligenza artificiale funziona così, mette insieme semilavorati. I livelli di sicurezza di ogni singolo componente sono quindi a rischio». E a proposito di software: «Acuta intelligenza, ma anche profonda consapevolezza, ecco cosa ancora manca alle macchine. Non hanno ancora maturato la capacità di elaborare scelte consapevoli e complesse. Gli algoritmi e i software che eseguono compiti che ci sembrano intelligenti sono gli stessi che c’erano nella fine degli anni Sessanta. Il “machine learning” di cui tutti oggi parlano non è altro che un pattern recognition, la capacità di trarre conclusioni automatiche da informazioni raccolte. Riconoscere questi i pattern è quanto di più utile che la tecnologia possa oggi offrire all’uomo».
«La potenza dell’intelligenza artificiale è dovuta alla capacità di calcolo, alla disponibilità praticamente infinita di dati e gli algoritmi e la loro sempre maggiore efficienza ed efficacia», aggiunge Giovanni Pascuzzi, giurista dell’Università di Trento. «A volte l’algoritmo appare oscuro perché non siamo in grado di comprenderlo, una “dittatura” del calcolo. Attraverso gli algoritmi ci stiamo spogliando della nostra capacità di scelta, del nostro libero arbitrio. Per quanto riguarda poi le applicazioni degli algoritmi in ambito giuridico, questo è un campo ancora tutto da definire. Certamente nella giustizia il parametro di riferimento non può essere il risparmio. Altrimenti il Codice sarebbe da buttare. Il giudice può sbagliare, perché è un essere umano. Ma sottoposti al giudizio di un algoritmo saremmo tutti trattati nella stessa maniera. E se ciò avvenisse il diritto perderebbe la sua capacità di adeguarsi alla società che cambia».
Il dibattito, coordinato da Pino Bruno, direttore di Tom’s Hardware, si è poi spostato sul tema della “roboetica”, partendo dalle famose “Tre leggi” di Isaac Asimov sui robot e sui limiti della loro azione rispetto all’essere umano. Una sollecitazione è arrivata anche dal sociologo Domenico De Masi, presente in sala, sul destino lavorativo dei giovani in questo mercato del lavoro dominato dall’avanzare della tecnologia. Una riflessione che ha fatto riflettere sulla reale disponibilità da parte di tutti noi a rinunciare ai vantaggi della tecnologia.
Sito: www.festivaleconomia.it
Twitter: https://twitter.com/economicsfest
Facebook: https://www.facebook.com/festivaleconomiatrento/
Instagram: https://www.instagram.com/festivaleconomia/