
Cybersecurity e AI: amici o nemici?
A cura di Renato Rondano
Cybersecurity e AI
L’intelligenza artificiale o, meglio, l’AI (Artificial Intelligence), è uno dei trend tecnologici del momento: “la Soluzione” per qualcuno, “il Problema” per qualcun altro.
L'AI è un settore scientifico molto ampio che ha come basi tecnologiche l’informatica, l’automazione, l’analisi, la statistica, l’ingegneria dell’hardware e del software. Ma creare macchine in grado di ragionare e imparare richiede di aggiungere, perlomeno, la linguistica, le neuroscienze, la filosofia e la psicologia.
Con due balzi del +32% e + 52% negli ultimi due anni, secondo gli osservatori del Politecnico di Milano, l’Intelligenza Artificiale ha messo il turbo nel mercato italiano, con l’avvio di numerosi progetti.
È certamente la tecnologia che sta maggiormente impattando la nostra società e che promette, in breve tempo, di rivoluzionare il mondo del lavoro. A conferma di ciò, un recente rapporto del Fondo Monetario Internazionale prevede che, nelle economie più avanzate, fino al 60% degli impieghi (compreso quello dell’insegnante) vedranno cambiamenti significativi legati all’AI.
Di pari passo, in questi ultimi anni, è fortemente cresciuta la richiesta di sicurezza informatica per proteggere le reti, i sistemi, le applicazioni, i dispositivi, i dati, le risorse finanziarie e le persone dagli attacchi provenienti dal cyberspace.
La Nis2 [1], la nuova direttiva europea sulla cybersecurity, obbliga le aziende a essere sicure oltre che conformi alle norme, costringendole a fare un passo in più per contenere le violazioni e i danni conseguenti. E il passo in più può essere rappresentato dall’AI. Molte aziende che già da tempo hanno scelto l’AI in termini di efficienza ed efficacia per molti settori del loro business, la scelgono ora per la Security Governance aziendale.
La cybersecurity non è una tecnologia, è piuttosto un processo, un insieme di procedure in grado di sfruttare le tecnologie difensive messe a disposizione dalle AI per automatizzare quelle procedure di controllo che permettono di proteggersi in modo efficace, limitando i danni.
Possiamo quindi essere certi che i cyberdefender abbiano trovato nell’AI un’amica, una preziosa alleata nella lotta ai cyber criminali e alla protezione del proprio sistema.
Secondo le rilevazioni del Threat Intelligence Report, elaborato dall’Osservatorio Cybersecurity di Exprivia [2], il terzo trimestre del 2024 è stato il peggiore degli ultimi due anni sul piano della cybersecurity. In particolare, si sono registrati 681 episodi di cybercrime, con 540 attacchi (+24% dall’inizio del 2024), 134 incidenti (+10%, in crescita del 40% circa dall’inizio del 2024) e 7 violazioni della privacy.
Nello specifico, sempre dal Threat Intelligence Report, apprendiamo che l’utilizzo di tecniche di attacco basate sull’AI ha riguardato ben il 18% degli incidenti informatici registrati in Italia. E tutto fa pensare che questa percentuale continuerà a salire nei prossimi anni.
Possiamo quindi essere certi che anche i cyber criminali abbiano trovato nell’AI un’amica, una preziosa alleata nei tentativi di superare le difese e violare i sistemi altrui.
Il cyberdefender usa l’AI per proteggersi, il cyberhacker usa l’AI per attaccare. Ci troviamo quindi di fronte a uno scontro tra Intelligenze Artificiali nei processi di cyber sicurezza: un’AI contro un’altra AI o magari un’AI contro sé stessa! Si tratta forse del primo esempio concreto di scontro tra AI, con campo di battaglia la cybersecurity e con in palio la sicurezza aziendale e personale.
Chi è la favorita? Vinceranno i difensori o gli attaccanti?
Vediamo le carte, in mano ai due contendenti, note come AI Cybersecurity Solution e CyberAttack powered by AI.
L'AI è un settore scientifico molto ampio che ha come basi tecnologiche l’informatica, l’automazione, l’analisi, la statistica, l’ingegneria dell’hardware e del software. Ma creare macchine in grado di ragionare e imparare richiede di aggiungere, perlomeno, la linguistica, le neuroscienze, la filosofia e la psicologia.
Con due balzi del +32% e + 52% negli ultimi due anni, secondo gli osservatori del Politecnico di Milano, l’Intelligenza Artificiale ha messo il turbo nel mercato italiano, con l’avvio di numerosi progetti.
È certamente la tecnologia che sta maggiormente impattando la nostra società e che promette, in breve tempo, di rivoluzionare il mondo del lavoro. A conferma di ciò, un recente rapporto del Fondo Monetario Internazionale prevede che, nelle economie più avanzate, fino al 60% degli impieghi (compreso quello dell’insegnante) vedranno cambiamenti significativi legati all’AI.
Di pari passo, in questi ultimi anni, è fortemente cresciuta la richiesta di sicurezza informatica per proteggere le reti, i sistemi, le applicazioni, i dispositivi, i dati, le risorse finanziarie e le persone dagli attacchi provenienti dal cyberspace.
La Nis2 [1], la nuova direttiva europea sulla cybersecurity, obbliga le aziende a essere sicure oltre che conformi alle norme, costringendole a fare un passo in più per contenere le violazioni e i danni conseguenti. E il passo in più può essere rappresentato dall’AI. Molte aziende che già da tempo hanno scelto l’AI in termini di efficienza ed efficacia per molti settori del loro business, la scelgono ora per la Security Governance aziendale.
La cybersecurity non è una tecnologia, è piuttosto un processo, un insieme di procedure in grado di sfruttare le tecnologie difensive messe a disposizione dalle AI per automatizzare quelle procedure di controllo che permettono di proteggersi in modo efficace, limitando i danni.
Possiamo quindi essere certi che i cyberdefender abbiano trovato nell’AI un’amica, una preziosa alleata nella lotta ai cyber criminali e alla protezione del proprio sistema.
Secondo le rilevazioni del Threat Intelligence Report, elaborato dall’Osservatorio Cybersecurity di Exprivia [2], il terzo trimestre del 2024 è stato il peggiore degli ultimi due anni sul piano della cybersecurity. In particolare, si sono registrati 681 episodi di cybercrime, con 540 attacchi (+24% dall’inizio del 2024), 134 incidenti (+10%, in crescita del 40% circa dall’inizio del 2024) e 7 violazioni della privacy.
Nello specifico, sempre dal Threat Intelligence Report, apprendiamo che l’utilizzo di tecniche di attacco basate sull’AI ha riguardato ben il 18% degli incidenti informatici registrati in Italia. E tutto fa pensare che questa percentuale continuerà a salire nei prossimi anni.
Possiamo quindi essere certi che anche i cyber criminali abbiano trovato nell’AI un’amica, una preziosa alleata nei tentativi di superare le difese e violare i sistemi altrui.
Il cyberdefender usa l’AI per proteggersi, il cyberhacker usa l’AI per attaccare. Ci troviamo quindi di fronte a uno scontro tra Intelligenze Artificiali nei processi di cyber sicurezza: un’AI contro un’altra AI o magari un’AI contro sé stessa! Si tratta forse del primo esempio concreto di scontro tra AI, con campo di battaglia la cybersecurity e con in palio la sicurezza aziendale e personale.
Chi è la favorita? Vinceranno i difensori o gli attaccanti?
Vediamo le carte, in mano ai due contendenti, note come AI Cybersecurity Solution e CyberAttack powered by AI.
AI Cybersecurity Solution
Molte aziende e industrie conoscono e utilizzano da anni le AI predittive per il loro business. Attraverso modelli ML (Machine Learning) e DL (Deep Learning) elaborano e analizzano i dati al fine di formulare previsioni o prendere decisioni in tempo reale.
I modelli ML utilizzano algoritmi di apprendimento che traggono conclusioni o previsioni in base ai dati del passato. I modelli DL utilizzano reti neurali profonde per apprendere da una grande quantità di dati. Essendo realizzati per gestire dati non strutturati e complessi, i modelli DL sono spesso utilizzati per il riconoscimento di immagini e audio, l’elaborazione del linguaggio naturale e l’analisi predittiva.
I sistemi predittivi sono tanto più accurati quanto più ampio e rappresentativo è il dataset di addestramento.
Tali modelli hanno caratteristiche che possono risultare utili ai cyberdefender per:
Le AI predittive possono quindi essere un grande alleato per difendersi, automatizzando e velocizzando alcune procedure di analisi dei dati, limitando gli errori umani e migliorando così la velocità di risposta a eventuali minacce.
Le AI generative si concentrano, invece, sulla creazione di nuovi dati che sono simili (ma non identici) ai dati reali. Gli algoritmi generativi non solo imparano dai dati esistenti, ma generano anche nuovi scenari credibili. Uno molto noto è rappresentato dalle Generative Adversarial Networks (GANs). Si tratta di un algoritmo generativo ad apprendimento automatico di tipo DL in grado di creare immagini che sembrano realistiche, ma che in realtà non esistono nel mondo reale. Le GANs sono composte da due reti neurali, una generatrice e una discriminante, che si “sfidano” a vicenda: la generatrice crea scenari (dati) reali e realistici ma falsi, mentre la discriminante valuta la loro autenticità.
Nel settore della cybersecurity aziendale, le AI generative risultano particolarmente adatte a testare le proprie difese da attacchi con nuove tecniche e metodologie, mai testate prima. Può servire a mettere alla prova l’AI predittiva su nuovi scenari ingannevoli, creati da un’AI generativa.
Per esempio, è possibile usare l’AI predittiva per esaminare i dati in ingresso e i dati fake prodotti dall’AI generativa e quindi farle calcolare la probabilità che un dato prodotto si configuri come reale o come risultato di un malevolo utilizzo dell’AI generativa.
I modelli ML utilizzano algoritmi di apprendimento che traggono conclusioni o previsioni in base ai dati del passato. I modelli DL utilizzano reti neurali profonde per apprendere da una grande quantità di dati. Essendo realizzati per gestire dati non strutturati e complessi, i modelli DL sono spesso utilizzati per il riconoscimento di immagini e audio, l’elaborazione del linguaggio naturale e l’analisi predittiva.
I sistemi predittivi sono tanto più accurati quanto più ampio e rappresentativo è il dataset di addestramento.
Tali modelli hanno caratteristiche che possono risultare utili ai cyberdefender per:
- processare una mole enorme di dati, di warning e di alert:
- individuare le minacce che utilizzano tecniche e metodologie sulla falsariga di attacchi noti, per esempio riconoscendo i malware (in particolare i famigerati ransomware) o gli attacchi con tecniche di Social Engineering, come il phishing nelle sue varie forme;
- individuare le “devianze” di comportamento, quindi tutto ciò che non corrisponde a un comportamento consolidato o previsto.
Le AI predittive possono quindi essere un grande alleato per difendersi, automatizzando e velocizzando alcune procedure di analisi dei dati, limitando gli errori umani e migliorando così la velocità di risposta a eventuali minacce.
Le AI generative si concentrano, invece, sulla creazione di nuovi dati che sono simili (ma non identici) ai dati reali. Gli algoritmi generativi non solo imparano dai dati esistenti, ma generano anche nuovi scenari credibili. Uno molto noto è rappresentato dalle Generative Adversarial Networks (GANs). Si tratta di un algoritmo generativo ad apprendimento automatico di tipo DL in grado di creare immagini che sembrano realistiche, ma che in realtà non esistono nel mondo reale. Le GANs sono composte da due reti neurali, una generatrice e una discriminante, che si “sfidano” a vicenda: la generatrice crea scenari (dati) reali e realistici ma falsi, mentre la discriminante valuta la loro autenticità.
Nel settore della cybersecurity aziendale, le AI generative risultano particolarmente adatte a testare le proprie difese da attacchi con nuove tecniche e metodologie, mai testate prima. Può servire a mettere alla prova l’AI predittiva su nuovi scenari ingannevoli, creati da un’AI generativa.
Per esempio, è possibile usare l’AI predittiva per esaminare i dati in ingresso e i dati fake prodotti dall’AI generativa e quindi farle calcolare la probabilità che un dato prodotto si configuri come reale o come risultato di un malevolo utilizzo dell’AI generativa.
CyberAttack powered by AI
Sinora abbiamo considerato le AI come strumento di difesa, ma i modelli di AI possono anche essere utilizzati come strumento d’attacco.
Ogni nuova tecnologia rappresenta una nuova opportunità per i criminal hacker. Ogni nuova tecnologia ha sempre due facce e l’intelligenza artificiale non fa eccezione.
Possiamo ragionevolmente presumere che ogni attacco inizierà con una fase di reconnaissance allo scopo di comprendere il funzionamento e le vulnerabilità dell’AI: ogni risposta generata può rivelare informazioni. Questo passaggio è utile sia quando l’obbiettivo è l’AI stessa sia nel caso di un attacco a un sistema il cui accesso è mediato tramite l’AI.
Scoprire il modello predittivo (il suo metodo di addestramento, i dati sui quali ha imparato e continua a imparare) usato da un sistema per difendersi, può essere decisivo per violare il sistema stesso.
Il National Institute of Standards and Technology (NIST) [3] ha rilasciato un rapporto intitolato “Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations (NIST.AI.100-2)“ che fornisce una dettagliata analisi delle quattro principali categorie di attacco all’AI:
C’è un aumento generale dei rischi cyber in tutto il mondo, innescato dall’arrivo dell’AI generativa. Nelle mani dei criminali informatici, questa tecnologia amplifica la portata degli attacchi di Social Engineering, ne velocizza e ne facilita la preparazione e ne aumenta l’efficacia. La generazione di testi in risposta (per esempio per un chatbot) spesso convince un utente a cliccare su un link che porta a un malware, o a divulgare informazioni riservate. Si tratta di macchine intelligenti, in grado di superare il test di Turing e farsi passare per umani.
“Mai come oggi, assistiamo a casi di phishing e di compromissione delle email aziendali ingannevoli anche per chi ha l’occhio più attento”, ha dichiarato Brian Roche, CEO di Veracode [4], a Wired.
Ogni nuova tecnologia rappresenta una nuova opportunità per i criminal hacker. Ogni nuova tecnologia ha sempre due facce e l’intelligenza artificiale non fa eccezione.
Possiamo ragionevolmente presumere che ogni attacco inizierà con una fase di reconnaissance allo scopo di comprendere il funzionamento e le vulnerabilità dell’AI: ogni risposta generata può rivelare informazioni. Questo passaggio è utile sia quando l’obbiettivo è l’AI stessa sia nel caso di un attacco a un sistema il cui accesso è mediato tramite l’AI.
Scoprire il modello predittivo (il suo metodo di addestramento, i dati sui quali ha imparato e continua a imparare) usato da un sistema per difendersi, può essere decisivo per violare il sistema stesso.
Il National Institute of Standards and Technology (NIST) [3] ha rilasciato un rapporto intitolato “Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations (NIST.AI.100-2)“ che fornisce una dettagliata analisi delle quattro principali categorie di attacco all’AI:
- Evasion attacks: perseguono l’obiettivo di modificare un input al fine di influenzare la risposta dell’AI che protegge il sistema.
- Poisoning attacks: si manifestano durante la fase di apprendimento automatico dell’AI mediante l’inserimento di dati corrotti che in seguito ne influenzeranno le decisioni.
- Privacy attacks: cercano di estrarre informazioni sensibili relative all’AI o ai dati utilizzati per il suo addestramento. Per esempio, un attaccante potrebbe formulare una serie di domande legittime a un chatbot e successivamente utilizzare le risposte ottenute per condurre un processo di reverse engineering del modello, al fine di identificare i punti vulnerabili o dedurne le fonti.
- Abuse attacks: si caratterizzano per l’inserimento di informazioni errate in una sorgente (tipicamente una pagina web o un documento online). Sono attacchi che mirano a fornire all’AI dati erronei, provenienti da una fonte legittima ma compromessa, allo scopo di indirizzarne le decisioni.
C’è un aumento generale dei rischi cyber in tutto il mondo, innescato dall’arrivo dell’AI generativa. Nelle mani dei criminali informatici, questa tecnologia amplifica la portata degli attacchi di Social Engineering, ne velocizza e ne facilita la preparazione e ne aumenta l’efficacia. La generazione di testi in risposta (per esempio per un chatbot) spesso convince un utente a cliccare su un link che porta a un malware, o a divulgare informazioni riservate. Si tratta di macchine intelligenti, in grado di superare il test di Turing e farsi passare per umani.
“Mai come oggi, assistiamo a casi di phishing e di compromissione delle email aziendali ingannevoli anche per chi ha l’occhio più attento”, ha dichiarato Brian Roche, CEO di Veracode [4], a Wired.
Conclusione
Con l’incremento graduale di autonomia e complessità da parte dei sistemi di AI, il panorama delle minacce si evolve, richiedendo una costante attenzione e l’elaborazione di un piano di intervento per prevenire possibili catastrofi.
Se si usa un’AI come soluzione di cybersecurity, occorre essere consapevoli che i modelli AI hanno delle debolezze specifiche e in alcuni casi inaspettate, che possono essere sfruttate da un attaccante.
L’AI CyberSecurity è quindi una soluzione interessante ma parziale e sicuramente non è la panacea per contrastare ogni tipo di attacco hacker. Al contempo, l’utilizzo, da parte degli attaccanti, di CyberAttack powered by AI, rende efficaci gli attacchi come mai si era visto prima.
Pertanto, tra i tanti ambiti in cui l’AI può essere impiegata con profitto e con rischi contenuti, è forse il caso di escludere la cybersecurity. Di certo, non è ancora il momento - e chissà se mai lo sarà - di affidarsi interamente all’AI per proteggersi. È però possibile sfruttarne la tecnologia e farne un prezioso alleato del cyberdefender.
Se si usa un’AI come soluzione di cybersecurity, occorre essere consapevoli che i modelli AI hanno delle debolezze specifiche e in alcuni casi inaspettate, che possono essere sfruttate da un attaccante.
L’AI CyberSecurity è quindi una soluzione interessante ma parziale e sicuramente non è la panacea per contrastare ogni tipo di attacco hacker. Al contempo, l’utilizzo, da parte degli attaccanti, di CyberAttack powered by AI, rende efficaci gli attacchi come mai si era visto prima.
Pertanto, tra i tanti ambiti in cui l’AI può essere impiegata con profitto e con rischi contenuti, è forse il caso di escludere la cybersecurity. Di certo, non è ancora il momento - e chissà se mai lo sarà - di affidarsi interamente all’AI per proteggersi. È però possibile sfruttarne la tecnologia e farne un prezioso alleato del cyberdefender.
Attività laboratoriale sulla Web Security
Per mettere alla prova le proprie capacità di cyberdefender, ci viene in soccorso il Cybersecurity National Lab [5] del CINI (Consorzio Interuniversitario Nazionale per l’Informatica) che organizza percorsi di addestramento e formazione sulla cybersecurity aperti a tutti e competizioni del tipo “Capture the Flag” (CtF) per gli studenti delle scuole superiori e delle università, sotto il nome di “The Big Game”.
Le competizioni CtF mettono alla prova i partecipanti su sfide di ethical hacking dove la bandiera (flag) è rappresentata da un codice, costituito da una sequenza di caratteri alfanumerici, difficili da prevedere e da trovare.
Vediamone un semplice esempio.
La challenge “Sito vuoto”, nella categoria Web Security (challenge reperibile su https://training.olicyber.it/), rappresenta un esempio di informazioni nascoste in una sorgente (alla base dei Poisoning e Abuse attacks).
Un sito, creato per semplicità con solo uno sfondo e due brevi frasi, nasconde in realtà delle informazioni.
La challenge è proposta, in maniera essenziale, nel seguente modo:
Vediamo come risolverla.
Innanzitutto, seguiamo con un qualsiasi browser il link proposto e apriamo la pagina del sito:

Nulla segnala la presenza di anomalie nella pagina che ci appare sullo schermo.
Andiamo allora a visionare il codice sorgente. La maniera più semplice per farlo è scegliere “Strumenti per sviluppatori” dal menu del browser e dalla scheda Sources ispezionare tre file in particolare.
Nel file (index) troviamo la prima parte della flag alla riga 5:

Nel file style.css troviamo la seconda parte della flag nella prima riga:

Nel file script.js troviamo la terza e ultima parte della flag:

La flag cercata è dunque: flag{you_ can_t_see_me_ in_the_browser}
Le competizioni CtF mettono alla prova i partecipanti su sfide di ethical hacking dove la bandiera (flag) è rappresentata da un codice, costituito da una sequenza di caratteri alfanumerici, difficili da prevedere e da trovare.
Vediamone un semplice esempio.
La challenge “Sito vuoto”, nella categoria Web Security (challenge reperibile su https://training.olicyber.it/), rappresenta un esempio di informazioni nascoste in una sorgente (alla base dei Poisoning e Abuse attacks).
Un sito, creato per semplicità con solo uno sfondo e due brevi frasi, nasconde in realtà delle informazioni.
La challenge è proposta, in maniera essenziale, nel seguente modo:
Questo sito è vuoto, dove sarà mai la flag?
Sito: http://vuoto.challs.olicyber.it
Vediamo come risolverla.
Innanzitutto, seguiamo con un qualsiasi browser il link proposto e apriamo la pagina del sito:

Nulla segnala la presenza di anomalie nella pagina che ci appare sullo schermo.
Andiamo allora a visionare il codice sorgente. La maniera più semplice per farlo è scegliere “Strumenti per sviluppatori” dal menu del browser e dalla scheda Sources ispezionare tre file in particolare.
Nel file (index) troviamo la prima parte della flag alla riga 5:

Nel file style.css troviamo la seconda parte della flag nella prima riga:

Nel file script.js troviamo la terza e ultima parte della flag:

La flag cercata è dunque: flag{you_ can_t_see_me_ in_the_browser}
Essa rappresenta una stringa sparsa, come abbiamo visto, in tre diversi punti del codice sorgente. Stringa che non va mai in esecuzione, essendo a commento del codice, e quindi non appare nella visualizzazione del sito; tuttavia, i caratteri (quindi i byte) che la compongono sono individuabili.
Note
[1] La direttiva NIS2 è la legislazione dell'UE in materia di cybersecurity. Essa prevede misure giuridiche per rafforzare il livello generale di cyber sicurezza nell'UE. La direttiva è reperibile sul sito dell’UE al link: https://eur-lex.europa.eu/eli/dir/2022/2555
[2] Exprivia è un gruppo internazionale specializzato in Information and Communication Technology. Il report è reperibile al link: https://www.exprivia.it/it-tile-exprivia-threat-intelligence-report-3q-2024/
[3] National Institute of Standards and Technology – U.S. DEPARTMENT OF COMMERCE: https://www.nist.gov/
Il report NIST.AI.100-2 è reperibile al link:
https://csrc.nist.gov/pubs/ai/100/2/e2023/final Date Published: January 2024
[4] Veracode è un’azienda leader mondiale in Application Security per l’era dell’AI:
https://www.veracode.com/
[5] Cybersecurity National Lab del CINI e The Big Game:
https://cybersecnatlab.it/
[2] Exprivia è un gruppo internazionale specializzato in Information and Communication Technology. Il report è reperibile al link: https://www.exprivia.it/it-tile-exprivia-threat-intelligence-report-3q-2024/
[3] National Institute of Standards and Technology – U.S. DEPARTMENT OF COMMERCE: https://www.nist.gov/
Il report NIST.AI.100-2 è reperibile al link:
https://csrc.nist.gov/pubs/ai/100/2/e2023/final Date Published: January 2024
[4] Veracode è un’azienda leader mondiale in Application Security per l’era dell’AI:
https://www.veracode.com/
[5] Cybersecurity National Lab del CINI e The Big Game:
https://cybersecnatlab.it/