
La docente ha proseguito: “Penso all’autoguida delle vetture. È l'umano che inserisce le regole. La correzione dell’errore non però rende l’auto infallibile. L’inventore di Chat gpt ci dice che ci sono risposte che sembrano corrette ma non sempre lo sono. Anche i robot possono soffrire di allucinazioni. La macchina obbedisce agli input, compreso il non autodistruggersi, eppure c'è un caso testimoniato, un tentativo di suicidio di un robot. Ora si ragiona sul fatto se si può brevettare una scoperta fatta dall’ai, come le sue eventuali responsabilità. Serve sul tema una giurisdizione territoriale che dovrà essere mondiale. A chi possiamo fare riferimento ? C'è una normativa europea per ora, ma serve di certo una governance a livello globale”.
Dal dibattito è emerso un timore che è quello di molti: “La sorveglianza e la raccolta dei dati sono troppo pervasivi? Il rischio c'è, ma è molto utile una ai che aiuti nel prevenire il riciclaggio e la corruzione. Ci permette di avere degli indici che possono portarci ad individuare il reato. Il confine? I dati raccolti debbono essere utilizzati in modo lecito, ho perplessità per esempio sul riconoscimento facciale utilizzato da molte aziende all’estero, già ora. Si tratta di una forma evolutiva o al contrario? Dalla fantascienza siamo passati già alla realtà. Servono regole omogenee. Un altro rischio: aumenteranno le discriminazioni? La giustizia predittiva ci preoccupa, è molto usata negli Usa. Non da noi. Dove c'è non ha aumentato però la correttezza delle decisioni. Vengono inseriti anche degli errori del passato, rimangono dentro i data base. La morale? Non tutto ciò che è pensato da una macchina è migliore di quanto fatto da un uomo. L’avvocato del futuro però potrà trarre vantaggio dall’ai, il computer della Cassazione già ci presenta tutti i precedenti” ha concluso.