IL 2023 TRA SFIDE ETICHE E TECNOLOGICHE

Conferenza “Cybersecurity e intelligenza artificiale: il 2023 tra sfide etiche e tecnologiche” del 5 maggio 2023, organizzata dal Master in Cybersecurity: politiche pubbliche, normative e gestione dell’Università Luiss Guido Carli di Roma, in partnership con FB&Associati e Microsoft

È passato quasi un mese dalla Conferenza “Cybersecurity e intelligenza artificiale: il 2023 tra sfide etiche e tecnologiche”, organizzata dal Master in Cybersecurity: politiche pubbliche, normative e gestione dell’Università Luiss Guido Carli di Roma, in partnership con FB&Associati e Microsoft, eppure il dibattito sviluppatosi lo scorso 5 maggio è parso in questi ultimi giorni sempre più attuale.

Dall’attacco cyber al Ministero delle Imprese e del Made in Italy di venerdì 26 maggio, alla notizia del lancio, da parte dell’organizzazione no-profit OpenAI, Inc., di un programma per assegnare dieci sovvenzioni da 100.000 dollari per finanziare esperimenti volti a creare un processo democratico per decidere quali regole i sistemi di Intelligenza Artificiale dovrebbero seguire, l’intelligenza artificiale e la cybersicurezza sono sulla bocca di tutti.  

L’Intelligenza Artificiale (IA) sta cambiando la nostra maniera di comunicare e informare, e mentre in questi ultimi mesi l’attenzione si è catalizzata sui c.d. Large Language Models, utilizzate in principio dalle grandi società per offrire servizi di customer care ai clienti, le chatbot sono diventate sempre più sofisticate e oggi riescono ad imitare le conversazioni umane con una precisione impressionante.

È necessario trovare un punto di equilibrio che contemperi i lati più drammatici con i grandi vantaggi che questa tecnologia offre. La soluzione è una buona legislazione, capace di governare il sistema. L’Unione Europea ha intrapreso la strada giusta, legiferare per controllare il sistema e renderlo al servizio dell’uomo. Ecco perché la legislazione deve essere duttile per stare al passo con la tecnologia”, così apriva la Conferenza Nunzia Ciardi, Vice Direttore Generale dell’Agenzia per la Cybersicurezza Nazionale.

Il dibattito, moderato da Gianni Riotta, ha visto la partecipazione di Carlo Mauceli, Chief Technology Officer di Microsoft, Alessandro Musumeci, Capo della segreteria tecnica del Sottosegretario di Stato con delega alla transizione digitale, Brando Benifei, Relatore dell’Artificial Intelligence Act al Parlamento EuropeoFrancesco Filini, Deputato di Fratelli d’Italia e membro della Commissione Finanze, Antonio Gullo, Prorettore alla Didattica Luiss Guido Carli e Condirettore del Master in Cybersecurity: politiche pubbliche, normative e gestione, Giuseppe F. Italiano, Direttore del Master e Paolo Spagnoletti, co-Direttore.

Al centro della discussione il dibattito etico sull’utilizzo dell’IA, che ruota attorno a domanda principale: ammettere che anche l’intelligenza “non umana” possa “pensare”, “fare valutazioni” ed essere capace di un “processo creativo” potrebbe rappresentare un cambiamento troppo drastico per l’intelligenza umana con conseguenze sulla nostra vita di tutti i giorni?

Domanda che ha fatto da sfondo nell’ampia discussione a livello europeo, in corso ormai da tempo, nell’ambito dell’Artificial Intelligence Act: l’approvazione, due settimane fa, della relazione del Parlamento Europeo sulla proposta di Regolamento per fissare un quadro normativo sull’intelligenza artificiale in Unione Europea ha rappresentato un primo accordo politico importante. La relazione – presentata dai co-relatori Brando Benifei (S&D) e Dragoş Tudorache (Renew Europe) – dovrà ora essere votata alla prossima sessione plenaria dell’Eurocamera, in programma tra il 12 e il 15 giugno, in vista dei negoziati interistituzionali con il Consiglio dell’Unione Europea. Lo scorso 5 maggio, proprio poco prima dell’approvazione, Brando Benifei aveva infatti sottolineato come la regolamentazione dell’intelligenza artificiale sia un percorso graduale che non potrà essere accorciato più di tanto: “si tratta di uno sforzo di dialogo regolatorio. L’approccio dell’Unione Europea ha suscitato interesse anche nel resto del mondo, essendo il primo regolamento in assoluto sull’intelligenza artificiale. C’è la necessità di un linguaggio comune, di creare un ecosistema di fiducia. È importante alimentarne la discussione, aumentare la trasparenza intorno alla tematica, fare chiarezza”.

Imprescindibile dall’utilizzo dell’IA, e strettamente connessa, è la cybersecurity. Infatti, se da un lato, le piattaforme digitali, le chatbot ed i tools AI-based stanno portando ad un’espansione dell’esercizio della libertà di espressione e aprono la strada a nuove forme di democratizzazione del diritto ad “essere informati” dei cittadini, dall’altro, l’uso improprio e in alcuni casi non regolato dell’IA, determina l’insorgere di nuovi rischi in ambito di cybersecurity.

Carlo Mauceli, CTO di Microsoft Italia, ha illustrato l’implementazione dei programmi di threat intelligence aziendali, fondamentali per combattere il c.d. cybercrime. L’Intelligenza Artificiale permette di analizzare dati e informazioni di una quantità enorme, attraverso due azioni importanti, detection e prevention. La threat intelligence semplifica la valutazione, la risposta agli eventi imprevisti, la ricerca delle minacce, la gestione delle vulnerabilità e i flussi di lavoro degli analisti di intelligence sulle minacce informatiche quando si esegue l’analisi dell’infrastruttura delle minacce e si raccolgono informazioni sulle minacce stesse.

La tematica è complessa e richiede un approccio multidisciplinare, interventi normativi e di policy a livello nazionale e internazionale che abbiano quale comune denominatore la protezione del “dato”, sia questo inteso come “informazione” o “dato personale”. Istituzioni ed aziende scambiano grandi quantità di dati, anche con l’esterno, ed il flusso deve avvenire in sicurezza: sono necessarie valide strategie di cyber defense per preservare l’integrità dei sistemi e dei processi, per mitigare la portata degli attacchi e informativo di riferimento al quale gli utenti hanno accesso. A livello nazionale, è cruciale il ruolo del Dipartimento per la Trasformazione Digitale, rappresentato, alla Conferenza, da Alessandro Musumeci, Capo della Segreteria Tecnica del Sottosegretario all’Innovazione, Sen. Alessio Butti. Il Dipartimento ha infatti attivato un programma di studio e ricerca su IA, coinvolgendo università e istituti di ricerca e finanziato con i fondi del Piano Nazionale di Ripresa e Resilienza. Partendo dal Programma Strategico sull’Intelligenza Artificiale 2022-2024, è così in definizione un piano applicato al sistema Paese che punti sull’IA come vettore di sviluppo di competenze, sintonizzate con il tessuto produttivo e con il coinvolgimento diretto della ricerca.

Il dibattito è continuato ricordando i recenti avvenimenti, dal blocco di ChatGPT alla convocazione, da parte della Casa Bianca di Google, Microsoft, Open AI e la startup Anthropic, sottolineando la necessità di un’innovazione tecnologica responsabile e adeguate salvaguardie per proteggere i diritti e la sicurezza delle persone.

Fabio Bistoncini, Presidente e Fondatore di FB&Associati, ha affertmato che “cybersecurity e Intelligenza Artificiale sono due evoluzioni tecnologiche che vanno regolate tenendo conto tanto della loro complessità quanto dei bisogni che sono in grado di soddisfare. Non devono spaventare e devono essere trattate con consapevolezza: i gruppi di interesse devono fornire informazioni verificabili e veritiere senza nasconderne gli impatti negativi e il decisore pubblico deve poter decidere basandosi su dati e fatti, senza imbrigliare l’innovazione attraverso policy adattative che non permettano di gestire lo sviluppo tecnologico”.

La conferenza si è conclusa con l’intervento del professor Giuseppe Italiano, Direttore del Master, il quale ha sottolineato ancora una volta quanto sia ormai fondamentale la regolamentazione, poiché la tecnologia avanza con una velocità impressionante e senza precedenti. “Non ha senso provare a fermare l’innovazione tecnologica: la storia ci insegna che le innovazioni irrompono nelle nostre società senza neanche chiedere permesso. Sta a noi comprenderne potenzialità e limiti e vedere come governarle efficacemente”.