Icona app
Leggi TPI direttamente dalla nostra app: facile, veloce e senza pubblicità
Installa
Banner abbonamento
Cerca
Ultimo aggiornamento ore 21:30
Immagine autore
Gambino
Immagine autore
Telese
Immagine autore
Mentana
Immagine autore
Revelli
Immagine autore
Stille
Immagine autore
Urbinati
Immagine autore
Dimassi
Immagine autore
Cavalli
Immagine autore
Antonellis
Immagine autore
Serafini
Immagine autore
Bocca
Immagine autore
Sabelli Fioretti
Immagine autore
Di Battista
Immagine autore
Guida Bardi
Home » Tecnologia

Il nuovo report ENISA sull’Intelligenza Artificiale: una prospettiva italiana

Immagine di copertina

Il recente rapporto rilasciato da ENISA sull'Intelligenza Artificiale e la cybersecurity delinea un nuovo quadro normativo e standard di approccio per la comprensione degli scenari di evoluzione in ambito B2B e G2G. Il comparto AI italiano può beneficiare da un'attenta ricezione degli orientamenti dell'Agenzia Europea in materia

***Iniziamo da oggi una rubrica bisettimanale “Scenari ciber(n)etici” curata da DEAS S.p.A., azienda leader nel settore della Cybersicurezza che ospiterà contributi di esperti qualificati su aspetti strategici, politici, internazionali e tecnologici su questo tema sempre più attuale e delicato.

Rilasciato il 31 marzo 2023, il nuovo report ENISA (Agenzia dell’Unione europea per la cibersicurezza) presenta un’aggiornata “panoramica degli standard (esistenti, in fase di elaborazione, esame e progettazione) relativi alla sicurezza informatica dell’artificiale intelligenza (AI)” (p. 6). Le novità, in termini di approccio normativo all’Intelligenza Artificiale, sono diverse e rilevanti per comprendere il mutato quadro di riferimento in cui si collocano gli stakeholders europei del settore.

Dalla CIA all’AI trustworthiness

In primo luogo, il paradigma della cybersecurity viene esteso dalla tradizionale triade di “confidenzialità, integrità-disponibilità” (CIA: confidentiality–integrity–availability) all’affidabilità dell’IA (AI trustworthiness). L’AI è un ambito tecnologico che serve più cicli di attività umana – civile e militare – in una logica di interoperabilità. Per questo la ricerca di uno standard di sicurezza per l’Intelligenza Artificiale diventa un obbiettivo fondamentale per stabilire nuove norme tecniche (e giuridiche) nel contesto europeo.

La precedente pubblicazione ENISA, il Securing Machine Learning Algorithms del marzo 2021, aveva identificato tre dimensioni dell’interazione tra cybersecurity e Intelligenza Artificiale: quella della cybersicurezza dell’AI, ovvero della robustezza dei suoi sistemi; quella della AI per la cybersicurezza, ovvero dell’utilizzo dell’AI per l’automatizzazione della sicurezza IT; e quella dell’utilizzo malevolo dell’AI, per l’ingegnerizzazione degli attacchi informatici.

Il focus dell’intero report ENISA è rappresentato dalla cybersicurezza dell’AI, con l’obbiettivo di assicurare cioè “qualità dei dati, supervisione, solidità, accuratezza, spiegabilità, trasparenza e tracciabilità” (p. 10) dei processi legati all’intelligenza artificiale. Questo rappresenta il secondo elemento di novità introdotto dal Report.

Ormai ogni settore della filiera ICT è interessato da specifici standard di sicurezza: dal software developement all’approvvigionamento delle pubbliche amministrazioni, dai dati e contenuti trasmessi agli asset dei sistemi informativi. È il momento in cui, secondo ENISA, si deve valorizzare la necessità di garantire e incoraggiare un’armonizzazione normativa finalizzata a consentire di evitare sovrapposizioni o duplicazioni degli sforzi legislativi prodotti dagli Stati dell’Unione.

Tale documento, quindi, può essere oggetto di importanti riflessioni, di carattere operativo e non, oltre a rivolgersi ad un’ampia platea di interessati: curiosi, appassionati, studiosi, tecnici, imprenditori e governi sono infatti i destinatari del “Cybersecurity of AI and Standardisation” paper. Quali sono i punti chiave del rapporto? Che benefici possono arrecare gli orientamenti di ENISA?

Il terzo elemento di interessedel Report è l’importanza attribuita all’applicabilità di alcuni standard già esistenti per lo sviluppo di software allo sviluppo di prodotti IA, sulla base del principio per cui l’IA “è nella sua essenza un software” (p. 17). In particolare, gli standard tecnici e organizzativi generali già vigenti, a partire dalla famiglia di certificazioni ISO-IEC 27001 e ISO-IEC 9001 possono, secondo il rapporto, certamente contribuire a mitigare alcuni tra i rischi affrontati dall’IA; e senza escludere la necessità di interventi ausiliari, costituiti da orientamenti specifici, pernuove modalità di applicazione e di sviluppo nei contesti di possibile impiego dell’intelligenza artificiale.

Raccomandazioni di ENISA

L’approccio in oggetto è da considerarsi, però, non esaustivo. La nozione stessa di IA, in perenne evoluzione, non si limita al solo concetto di software, ma include necessari elementi come l’hardware o l’infrastruttura, considerando inoltre che gli standard già esistenti non sembrano idonei ad affrontare tematiche contingenti quali la tracciabilità e la qualità dei dati che compongono l’IA.

In tal senso, la sicurezza informatica può, da un lato, essere impiegata in modo strumentale rispetto alla corretta implementazione delle caratteristiche di affidabilità dell’IA; dall’altro, la precisa implementazione dei paradigmi di affidabilità è da considerarsi elemento essenziale per garantire la sicurezza informatica.

Infine, un elemento di novità del Report è rappresentato dalle raccomandazioni rivolte alle organizzazioni incaricate del compito di armonizzare gli standard in materia. ENISA focalizza in particolare l’attenzione su alcune misure di raccordo della governance e delle pratiche normative per l’IA, fra cui:

  1. l’utilizzo di una terminologia IA standardizzata e armonizzata per la sicurezza informatica;
  2. lo sviluppo di linee guida specifiche su come applicare gli standard esistenti alla sicurezza informatica del software;
  3. lo sviluppo di metriche e sistemi di tracciabilità per il machine learning;
  4. la creazione di collegamenti tra i comitati tecnici della sicurezza informaticae comitati tecnici AI;
  5. lo sviluppo di standard settoriali basati in modo coerente ed efficiente su quelli orizzontali, dato l’ampio raggio dei dominii di applicabilità dell’IA;
  6. l’incoraggiamento di investimenti R&D, assieme alla promozione di un sistema di benchmarking dei progetti legati all’IA;
  7. la promozione di strumenti e competenze per rendere omogenee le pratiche di valutazione della conformità nell’ambito dell’IA.
  8. l’armonizzazione tra le diverse iniziative normative europee, in particolare tra Cybersecurity Act (maggio 2013) e Cyber Resilience Act (settembre 2022) per stabilire requisiti di cybersicurezza coerenti per i prodotti IA.

Dalla cybersicurezza dell’AI all’AI per la cybersicurezza: un contributo italiano?

Il comparto IA italiano, che secondo l’Osservatorio Artificial Intelligence della School of Management del Politecnico di Milano ha registrato una crescita del 32% nel corso del 2022, è un testimone e un protagonista importante per l’ecosistema europeo dell’Intelligenza Artificiale. Non soltanto per l’ingegnerizzazione di nuove soluzioni analitiche e predittive nell’ambito della pianificazione aziendale e gestione degli investimenti; ma anche per la sua applicazione per i concreti casi d’uso in ambito cyber.

La sfida italiana, infatti, non consiste solo nel partecipare alla creazione e condivisione delle pratiche della cybersicurezza dell’AI, secondo la prima dimensione del rapporto tra cyber e AI indicata da ENISA. È in particolare la seconda dimensione individuata da ENISA, quella dell’AI per la cybersicurezza, che è particolarmente importante per la modernizzazione della Difesa italiana.

Progettare ed implementare soluzioni di AI per la cybersicurezza contribuirebbe a far sorgere, consolidare o migliorare posizioni di vantaggio, tanto per le aziende (secondo un modello B2B: business to business), quanto per realtà governative (secondo un modello B2G: business to governement). La capacità di rilevare, prevenire e rispondere a minacce informatiche sempre più sofisticate e complesse, idonee a causare danni e rischi a beni meritevoli di tutela (causando, ad esempio, la perdita di dati sensibili, interruzioni di servizi essenziali, danni reputazionali o finanziari), sarebbe in tale prospettiva più efficiente e rapida rispetto ai canoni tradizionali.

I benefits derivanti da questo genere di soluzioni, in un’ottica prospettiva, si osservano da punti di vista qualitativi che quantitativi.

Sotto il primo aspetto, l’intelligenza artificiale può essere utilizzata per analizzare grandi quantità di dati, identificare modelli e tendenze anomale, e rilevare in tempo reale attività sospette o potenzialmente pericolose. Inoltre, le soluzioni di intelligenza artificiale possono apprendere e migliorare continuamente, adattandosi alle nuove minacce e migliorando la precisione delle analisi.

In secondo luogo, l’implementazione di soluzioni di intelligenza artificiale può contribuire a ridurre anche i costi associati alla sicurezza informatica. Numerose attività di monitoraggio e rilevamento possono essere automatizzate, liberando le risorse umane per attività più strategiche e di alto valore aggiunto.

In sintesi, l’implementazione di soluzioni di intelligenza artificiale a servizio della cybersicurezza costituisce idoneo e necessario mezzo per aiutare organizzazioni, sia pubbliche che private, a fronteggiare i rischi, migliorare l’efficienza e ridurre i costi associati alla sicurezza informatica.

Ti potrebbe interessare
Tecnologia / Cyber Security, la Scuola di Alta Formazione di DEAS eccellenza nel training operativo
Tecnologia / Whatsapp, in arrivo una nuova funzione che trascrive i messaggi vocali
Tecnologia / Usa il computer con la forza del pensiero: il video del primo uomo col chip di Elon Musk nel cervello
Ti potrebbe interessare
Tecnologia / Cyber Security, la Scuola di Alta Formazione di DEAS eccellenza nel training operativo
Tecnologia / Whatsapp, in arrivo una nuova funzione che trascrive i messaggi vocali
Tecnologia / Usa il computer con la forza del pensiero: il video del primo uomo col chip di Elon Musk nel cervello
Tecnologia / Strumenti Innovativi per Professionisti
Tecnologia / Amazon cambia il reso per l’elettronica: le nuove regole
Tecnologia / Il Ceo di Jakala Stefano Pedron: “L’intelligenza artificiale rivoluzionerà i processi marketing”
Tecnologia / In sella ad una e-bike per andare in ufficio: ecco il servizio CYCL-e Around di Pirelli per le aziende
Tecnologia / Instagram e Facebook in down in tutto il mondo
Economia / Nuovo accordo tra Luiss Business School, LEME e DEAS per formazione e ricerca sulla cybersecurity
Tecnologia / Su Amazon Prime Video arriva la pubblicità: per non vederla bisogna pagare un supplemento di 1,99 euro al mese