Cybersecurity fondamento dei sistemi di Intelligenza Artificiale

I sistemi di intelligenza artificiale (IA) hanno rivoluzionato il modo in cui interagiamo con la tecnologia, ma la loro complessità e unicità presenta sfide significative nel campo della cybersecurity. I sistemi di IA non operano in isolamento, al contrario, sono integrati in sistemi tecnologici e informatici più ampi, composti da varie componenti. Questa connettività può portare a nuovi tipi attacchi, rendendo fondamentale l’implementazione di misure di sicurezza. I sistemi di intelligenza artificiale sono, infatti, soggetti a nuove vulnerabilità di sicurezza che devono essere prese in considerazione insieme alle minacce tradizionali. La sicurezza deve essere un requisito fondamentale, non solo nella fase di sviluppo, ma per tutto il ciclo di vita del sistema. La sfida è chiara, ma la soluzione è altrettanto evidente: la sicurezza deve essere al centro di ogni implementazione di IA. L’adozione di misure di sicurezza robuste è fondamentale per proteggere i sistemi intelligenti e garantirci un futuro digitale affidabile.

Il National Cyber Security Centre del Regno Unito ha promosso una serie di iniziative di ricerca e di collaborazione volte a stilare delle linee guida per uno sviluppo e deployment sicuro dei sistemi di Intelligenza Artificiale. Il documento è stato sottoscritto da molti paesi. Tra cui l’Italia.

Attualmente, vengono indicate cinque diverse categorie di attacchi che hanno come obiettivo specifico i sistemi di IA:

  • Poisoning attacks: un aggressore cerca di manipolare i dati, l’algoritmo o il modello per “avvelenare” il sistema di IA e impedirgli di funzionare correttamente. Gli avversari possono tentare di avvelenare i set di dati utilizzati da un modello ML modificando i dati sottostanti o le loro etichette. In questo modo l’avversario può incorporare vulnerabilità nei modelli di ML addestrati sui dati che potrebbero non essere facilmente rilevabili. La vulnerabilità incorporata viene attivata in un secondo momento da campioni di dati con un Insert Backdoor Trigger.
  • Evasion attacks: un aggressore cerca di ingannare un sistema di IA per farlo funzionare in modo errato o del tutto assente. L’obiettivo principale di un attacco di questo tipo è quello di creare piccole perturbazioni o modifiche impercettibili all’input di un modello di machine learning in modo che il modello produca risultati errati. Queste perturbazioni potrebbero essere impercettibili all’occhio umano, ma sono sufficienti per ingannare il modello di IA.
  • Backdoor attacks: costruendo una backdoor in un modello di IA, un soggetto esterno può aggiungere un ulteriore percorso per determinare la decisione finale del modello
  • Reverse engineering: un aggressore cerca di “decodificare” il modello per scoprirne il funzionamento o per recuperare il set di dati utilizzato per addestrarlo
  • Inference attacks: mirano a ricostruire se uno specifico insieme di informazioni è stato utilizzato come dati di addestramento per un modello

CASE STUDY POISONING McAfee Advanced Threat Research ha notato un aumento delle segnalazioni di un certo tipo di ransomware. Le indagini sul caso hanno rivelato che molti campioni di quella particolare famiglia di ransomware sono stati inviati in breve tempo attraverso una popolare piattaforma di condivisione di virus. Ulteriori indagini hanno rivelato che, in base alla somiglianza delle stringhe, i campioni erano tutti equivalenti, mentre in base alla somiglianza del codice erano simili tra il 98 e il 74%. È interessante notare che il tempo di compilazione era lo stesso per tutti i campioni. Dopo ulteriori ricerche, i ricercatori hanno scoperto che qualcuno ha usato “metame”, uno strumento di manipolazione del codice metamorfico, per manipolare il file originale verso varianti mutanti. Le varianti non sarebbero sempre eseguibili, ma sono comunque classificate come la stessa famiglia di ransomware. (fonte MITRE)

Gli aggressori possono perseguire diversi obiettivi, tra cui frodi finanziarie, elusione dei sistemi di sicurezza, manipolazione delle decisioni automatizzate, competizione e attacchi di denial-of-service.

Le linee guida proposte si articolano su 4 pillars fondamentali: Secure design – Secure development – Secure deployment – Secure operation and maintenance

Secure Design

  • Questo pilastro si riferisce alla fase iniziale del ciclo di vita del prodotto o del sistema AI. La progettazione sicura implica la considerazione attenta e preventiva della sicurezza durante lo sviluppo dell’architettura del sistema.
  • Gli aspetti di progettazione sicura includono l’identificazione e la mitigazione dei potenziali rischi di sicurezza fin dalle prime fasi del processo di sviluppo.
  • Ciò potrebbe coinvolgere la scelta di algoritmi sicuri, la definizione di confini chiari per il sistema, e l’implementazione di controlli di accesso robusti.

Secure Development

  • Durante la fase di sviluppo, è cruciale seguire pratiche che riducano le vulnerabilità e i rischi di sicurezza. Ciò include l’adozione di metodologie di sviluppo sicuro e l’utilizzo di strumenti che possono rilevare e mitigare potenziali minacce.
  • La sicurezza dovrebbe essere incorporata nel codice fin dalle fasi iniziali, e i team di sviluppo dovrebbero essere formati su best practice e tecniche di programmazione sicura.

Secure Deployment

  • Questo pilastro riguarda la fase di implementazione del sistema AI. Durante il rilascio, è essenziale garantire che il sistema sia configurato e distribuito in modo sicuro.
  • Ciò potrebbe includere la configurazione di settaggi di sicurezza, la gestione delle chiavi di crittografia, e la verifica che tutte le componenti del sistema siano protette da accessi non autorizzati durante il processo di distribuzione.

Secure Operation and Maintenance

  • Dopo il rilascio, il sistema richiede operazioni e manutenzione continue. Questo pilastro si concentra sull’assicurare che il sistema rimanga sicuro nel tempo.
  • Questo potrebbe coinvolgere la gestione delle patch di sicurezza, la supervisione continua delle attività anomale, e l’aggiornamento dei protocolli di sicurezza in risposta a nuove minacce o vulnerabilità scoperte.

L’IA apre nuovi orizzonti ma la cybersecurity è il baluardo che protegge la nostra incursione nel mondo digitale avanzato. Solo attraverso una visione olistica della sicurezza e l’adozione di misure proattive possiamo affrontare con successo le sfide in questo entusiasmante viaggio verso il futuro.

Scarica il documento: https://www.ncsc.gov.uk/files/Guidelines-for-secure-AI-system-development.pdf

“Guidelines for secure AI system development” è stato pubblicato dal UK National Cyber Security Centre (NCSC), US Cybersecurity and Infrastructure Security Agency (CISA), e:

  • >  National Security Agency (NSA)
  • >  Federal Bureau of Investigation (FBI)
  • >  Australian Signals Directorate’s Australian Cyber Security Centre (ACSC)
  • >  Canadian Centre for Cyber Security (CCCS)
  • >  New Zealand National Cyber Security Centre (NCSC-NZ)
  • >  Chile’s Government CSIRT
  • >  National Cyber and Information Security Agency of the Czech Republic (NUKIB)
  • >  Information System Authority of Estonia (RIA)
  • >  National Cyber Security Centre of Estonia (NCSC-EE)
  • >  French Cybersecurity Agency (ANSSI)
  • >  Germany’s Federal Office for Information Security (BSI)
  • >  Israeli National Cyber Directorate (INCD)
  • >  Italian National Cybersecurity Agency (ACN)
  • >  Japan’s National center of Incident readiness and Strategy for Cybersecurity (NISC)
  • >  Japan’s Secretariat of Science, Technology and Innovation Policy, Cabinet Office
  • >  Nigeria’s National Information Technology Development Agency (NITDA)
  • >  Norwegian National Cyber Security Centre (NCSC-NO)
  • >  Poland Ministry of Digital Affairs
  • >  Poland’s NASK National Research Institute (NASK)
  • >  Republic of Korea National Intelligence Service (NIS)
  • >  Cyber Security Agency of Singapore (CSA)

@neurobytes