Lo scorso 11 settembre 2023, la Commissione Europea ha pubblicato sul sito ufficiale il documento Cybersecurity of Artificial Intelligence in the AI Act, Guiding principles to address the cybersecurity requirement for high-risk AI systems in cui sono contenuti i requisiti necessari di cybersecurity per i sistemi di intelligenza artificiale (AI) ad alto rischio.

 

La proposta della Commissione Europea per l’AI Act rappresenta una tappa significativa nella regolamentazione dell’intelligenza artificiale al fine di affrontare i rischi connessi alla salute, la sicurezza dei sistemi AI e i diritti fondamentali associati a tali tecnologie.

 

Per quanto riguarda la cybersecurity, disciplinata dall’articolo 15 dell’AI Act, i sistemi AI ad alto rischio devono essere progettati per resistere ai tentativi di alterarne l’uso, il comportamento e le prestazioni e di comprometterne le proprietà di sicurezza.

In particolare:

  • un sistema AI può includere uno o più modelli di AI oppure anche interfacce, sensori, banche dati, componenti di comunicazione di rete, unità di calcolo o sistemi di monitoraggio; tuttavia, i requisiti di cybersecurity devono essere applicati al sistema AI nel suo complesso e non direttamente alle sue singole componenti.
  • è richiesta una valutazione del rischio, che consideri l’architettura interna del sistema AI e del suo contesto applicativo. Nello specifico è possibile individuare due livelli di valutazione del rischio: una valutazione del rischio della sicurezza informatica e una valutazione del rischio a livello regolatorio più elevato che coinvolge diversi requisiti, come descritto nell’articolo 9. La valutazione del rischio mira a identificare i rischi specifici, a tradurre i requisiti di sicurezza informatica di livello superiore ed attuare le necessarie misure di implementazione.
  • la protezione dei sistemi di AI richiede un approccio integrato e continuo che utilizzi pratiche comprovate e controlli specifici. Tale processo deve sfruttare le attuali procedure di sicurezza informatica, utilizzando una combinazione di controlli esistenti per i sistemi software e misure specifiche dei modelli AI.
  • l’attuale panorama prevede un’ampia varietà di tecnologie con diversi gradi di complessità, che vanno dai tradizionali modelli di machine learning alle più recenti architetture di deep learning. Tuttavia, non tutte le tecnologie potrebbero essere pronte per l’uso nei sistemi di AI ad alto rischio, a meno che i loro limiti in termini di sicurezza informatica non siano adeguatamente affrontati.

 

I sistemi di Intelligenza Artificiale stanno intraprendendo una rapida trasformazione, aumentandone il livello tecnologico e l’efficacia dei Dispositivi Medici. Tuttavia, l’AI cela diverse insidie e minacce che devono essere adeguatamente affrontate, come la sicurezza dei dati sensibili. Proprio per questi motivi l’AI Act assume particolare rilevanza, diventando un elemento cruciale per garantire la sicurezza nei sistemiad alto rischio.

 

>>> Tramite i servizi di Consulenza Strategico-Regolatoria, supporto alla Certificazione CE – comprendente i servizi di validazione del software e controllo della cybersecurity  – e, se necessario, Mandatario Europeo, Thema può aiutarti nell’implementazione dei requisiti richiesti dal Regolamento Dispositivi Medici MDR (UE) 2017/745.

 

Fonte:

Cybersecurity of Artificial Intelligence in the AI Act, Guiding principles to address the cybersecurity requirement for high-risk AI systems