24 aprile 2024
Testo dell'intervista al Messaggero del 24 aprile 2024
1)Sottosegretario il via libera al disegno di legge sull’Intelligenza artificiale segna la via italiana contro i rischi dell’Intelligenza artificiale in attesa del via libera all’Ai Act europeo. Qual è il senso profondo di queste norme anche nei tempi? Si rischiava un altro anno di far-west nell’utilizzo dei contenuti giornalistici da parte delle piattaforme tecnologiche?
1) Abbiamo lavorato per anticipare i tempi di applicazione dell’AI Act non immediati. Il disegno di legge approvato ieri è la conferma della validità della visione italiana sulla necessità di governare l’intelligenza artificiale. Visione in linea con quando sta avvenendo in Europa, ma anche con quanto ha definito la risoluzione delle Nazioni Unite. Il presidente Meloni aveva annunciato misure a protezione dell’occupazione e la collaborazione di tutto il governo ha prodotto misure che saranno efficaci per limitare questi rischi. Con la Commissione guidata da Padre Benanti abbiamo dato priorità alla difesa del diritto d’autore, all’identificazione dei contenuti prodotti con Ai e all’introduzione delle aggravanti e del reato di Deep Fake.
2)Quali sono i rischi cruciali da cui proteggere l’ecosistema, pur riconoscendo le opportunità dell’Ia per Pa, giustizia e sanità? Oltre ai danni per il mondo dell’editoria e dell’informazioni c’è in gioco la formazione dell’opinione pubblica, soprattutto dei più vulnerabili, come i giovani.
2) La nostra ispirazione è una visione umano-centrica dell’innovazione. Investire in tecnologia è decisivo per il nostro Paese, ma il processo deve sempre essere accompagnato dall’intenzione di migliorare le condizioni di vita dei cittadini. Dal punto di vista dell’informazione abbiamo a cuore l’integrità del sistema, che può essere distorto dagli automatismi digitali con conseguenze insondabili sulla formazione delle opinioni e della coscienza collettiva. Un pericolo tanto più insidioso soprattutto a pochi mesi da scadenze elettorali internazionali di fondamentale importanza e di una costante guerra ibrida dell’informazione.
3)La richiesta di consenso da parte dei genitori per gli under 14 che utilizzano l’Ia, non rischia di essere aggirato come spesso accade per l’accesso ad alcune piattaforme social?
3)Il pericolo c’è, come c’è sempre stato, ma questa norma permette a chi fornisce i servizi di intelligenza artificiale di fornire supporto al parental control per consentire ai genitori di limitare l’accesso a queste tecnologie da parte degli under 14.
4)Crede che il marchio con la filigranatura sia lo strumento più efficace per tutelare l’integrità informativa?
4)Sì, anche per questo la Commissione AI per l’Informazione ne ha evidenziato la validità eseguendolo in primis per la stessa Relazione consegnata al premier. Funziona, infatti, con qualunque supporto digitale e quindi video, immagini, testo o qualunque altro tipo di file. Un passo importante, questo, anche in vista di altri supporti digitali che potrebbero nascere in futuro e che sarebbero comunque filigranabili. Inoltre il marchio con filigranatura si basa sulle più moderne tecniche di crittografia dove la cybersecurity è massima e questo permette di non essere attaccabili da altre intelligenze artificiali. Infine, consente la verificabilità e il tracciamento dell’informazione in maniera pubblica e trasparente. Chiunque dotato di un pc e una connessione a Internet può verificare in autonomia che il file è integro e originario.
5)Che significa aver introdotto l’aggravante di Deep Fake?
5)Il significato è innanzitutto etico e di sicurezza per i cittadini e per le nostre democrazie. Il ddl, infatti, non solo interviene introducendo delle circostanze aggravanti in relazione all’impiego di sistemi di intelligenza artificiale nella commissione dei reati, ma introduce anche una nuova, autonoma, fattispecie di reato, che informalmente chiamiamo di “deep fake”. Si vuole punire chiunque cagioni ad altri un danno ingiusto, mediante diffusione di immagini, video o audio manipolati in tutto o in parte, generati o alterati mediante l’impiego di sistemi di intelligenza artificiale, atti a indurre in inganno sulla loro genuinità.
6)Ma sul piano sanzionatorio cosa è previsto, dal punto di vista amministrativo e penale?
6)Le aggravanti descritte determinano, com’è ovvio, un aumento della pena stabilita per i reati ai quali afferiscono. Quanto al reato di “deep fake”, è stata prevista la pena detentiva da uno a cinque anni.
7)A proposito di governance, la tutela della privacy spetterà all’Autorità Garante per la Privacy, affiancata però dai «comitati etici interessati”. L’Authority aveva tuttavia rivendicato un ruolo maggiore, da autorità indipendente più competente di altre a vigilare. Che ne pensa?
7)La collaborazione tra Autorità garante per la protezione dei dati personali, Agid e Acn potrà certamente bilanciare gli interventi necessari a governare una rivoluzione come quella dell’intelligenza artificiale ancora agli albori. Servono le competenze di tutti perché il Paese possa sviluppare un processo virtuoso evitando sia il far west, sia una eccessiva regolamentazione che frenerebbe lo sviluppo.
8)Il ddl prevede un miliardo a disposizione. Non è un po’ poco? Paesi come la Francia ne hanno messi in campo 30?
8)Il governo si è mosso con rapidità mettendo a disposizione, pur in un contesto economico molto complesso, risorse ingenti. Il paragone con gli altri paesi non mi entusiasma mai, ogni realtà ha le sue dinamiche e le sue esigenze.
Intelligenza Artificiale , Messaggero , Deep Fake