Venerdì, 24 Maggio 2024 - 14:47 Comunicato 1255

Editoria e informazione, il futuro davanti alla rivoluzione dell’intelligenza artificiale

Cercano risposte agli scenari futuri dell’IA, il sottosegretario di Stato alla Presidenza del Consiglio dei ministri con delega all'informazione e all'editoria, l'amministratore delegato de Il Sole 24 Mirja Cartia d'Asero e il Coo di Mediahuis Paul Verwilt al Festival dell’Economia di Trento. E nelle tante visioni possibili – molte delle quali, su loro concorde ammissione, ancora anche da immaginare – il punto focale si sposta sulle regolamentazioni. Parafrasando Ayrton Senna nel dire che, per poter andare veloce, occorre un circuito sicuro, secondo il sottosegretario perché la notizia possa “viaggiare” al meglio nel mondo d’oggi, serve e servirà un ecosistema salvaguardato e tutelato. In particolare va tenuto conto di tre punti essenziali: la tutela del copyright, l’identificazione chiara di ciò che viene prodotto per mezzo di IA e l’aggravante penale del deepfake.
Come l’informazione e l’editoria fanno i conti con l’Intelligenza artificiale Nella foto: Daniele BELLASIO [ Alessandro Holneider - Archivio Ufficio Stampa PAT]

È la componente umana, allora, quello che salverà davvero informazione ed editoria dai peggiori scenari possibili prodotti dall’intelligenza artificiale e dai suoi usi sregolati. Più che, come sta accadendo oggi, una polarizzazione tra editori che battagliano l’IA e quelli che avviano con essa dei negoziati, i tre ospiti intervenuti sul tema al Festival, concordano nel ricercare una terza via, mediatrice ma fatta di regole ferree. “Per salvare il mondo dei media dai rischi dell’intelligenza artificiale dobbiamo adottare un approccio umano-centrico – ha dichiarato Mirja Cartia d'Asero. Dobbiamo quindi tenere conto del fatto che si tratta di un tool tecnologico capace di amplificare le risorse a disposizione di un giornalista, ma anche che servono delle tutele etiche chiare”. Manca in particolare, secondo Paul Verwilt, “una legge internazionale che si occupi della proprietà intellettuale: nel momento in cui l’ai assorbe degli input e genera un output, questo nuovo prodotto di chi è?”. Il rischio è, nel non dare risposta a questo quesito, ha aggiunto Alberto Barachini, “che si perda la consapevolezza di chi ha dato vita agli input stessi, quindi del ruolo dei giornalisti, della creatività, del pluralismo. Dobbiamo ricordare sempre da dove veniamo e dunque l’importanza dell’informazione stessa. Il rischio è che non resti che superficie o di paradossi come l’idea che un’informazione prodotta da intelligenza artificiale possa essere più imparziale”.

Senza incappare in un’over-regolamentazione, fondamentale diventa dunque la presenza di norme. Norme che cominciano a comparire sulla scena – basti pensare all’Ai Act approvato di recente dall’Europa – ma che hanno tempi lunghi di gestazione e applicazione. Cosa resta, nel mentre? “L’autoregolamentazione – hanno affermato sia d’Asero che Verwilt -. Regolamenti interni ai gruppi editoriali, che lavorino sul blocco dei dati accessibili da parte delle società di ai, sull’uso moderato di questa intelligenza da parte dei redattori, ma anche, ancora, sulla definizione chiara dei contenuti prodotti da IA (e delle percentuali di utilizzo della stessa) e sulla tutela della presenza necessaria nella filiera produttiva di una componente umana.

(kd)


Immagini