Cybersecurity of Artificial Intelligence in the AI Act (EU)

La cybersecurity nell’ambito dell’Intelligenza Artificiale (IA) rappresenta un settore in rapida evoluzione, che unisce e sintetizza conoscenze provenienti da diverse prospettive.

Durante l’interazione tra questi campi, è possibile identificare diverse sfaccettature, tra cui l’applicazione dell’IA per migliorare e potenziare la cibersicurezza, l’abuso di sistemi di IA a fini dannosi e la cibersicurezza stessa dei sistemi di IA. Dal punto di vista della cibersicurezza, l’IA può essere trattata come una forma di software, quindi uno degli obiettivi del settore è di basarsi su pratiche consolidate, ove possibile. Tuttavia, per quanto riguarda la cibersicurezza dell’IA, emergono sfide tecnologiche specifiche legate a quest’ultima, e molte pratiche di sicurezza testate e standard specifici per affrontarle devono ancora essere pienamente introdotti (Papernot et al., 2016). Queste sfide sono principalmente connesse ai nuovi paradigmi computazionali e al ciclo di vita del prodotto introdotti dai sistemi di apprendimento automatico, oltre al crescente numero di vulnerabilità specifiche dell’IA identificate.

Le sfide per la cibersicurezza dell’IA possono essere raggruppate approssimativamente in due categorie:

  1. Sfide organizzative relative ai processi:
  • Armonizzazione delle terminologie, delle tassonomie delle minacce e delle definizioni tra i vari settori e standard.
  • Gestione della sicurezza del ciclo di vita dell’IA e dei problemi di sicurezza specifici della catena di approvvigionamento dell’IA.
  • Adattamento dei controlli di sicurezza esistenti per il software dell’IA.
  1. Sfide di ricerca e sviluppo relative alle tecniche:
  • Valutazione degli attacchi ai modelli di apprendimento automatico.
  • Sviluppo di misure di sicurezza specifiche per l’IA e di modelli di rafforzamento (hardening) per le metodologie di IA più avanzate.
  • Definizione di metriche e misure per la cibersicurezza dell’IA e per la robustezza avversaria dei modelli di IA.
  • Valutazione dei compromessi con altri requisiti, ad esempio tra accuratezza e cibersicurezza.
  • Sviluppo di un’esperienza pratica nella modellazione delle minacce all’IA.

La cibersicurezza si sta focalizzando principalmente su approcci basati sul rischio e, come accade per qualsiasi nuova tecnologia, l’IA deve essere valutata considerando il giusto compromesso tra opportunità e sfide.

Riferimento bibliografico: Junklewitz, H., Hamon, R., André, A., Evas, T., Soler Garrido, J. and Sanchez Martin, J.I., Cybersecurity of Artificial Intelligence in the AI Act, Publications Office of the European Union, Luxembourg, 2023, doi:10.2760/271009, JRC134461.

👉🏻 https://publications.jrc.ec.europa.eu/repository/bitstream/JRC134461/JRC134461_01.pdf