Dal GDPR al nuovo regolamento UE sull’intelligenza artificiale

  • Home
  • MAGAZINE
  • Dal GDPR al nuovo regolamento UE sull’intelligenza artificiale

La Commissione Europea ha pubblicato la bozza ufficiale del “Regolamento sull’approccio europeo per l’intelligenza artificiale” (“Regulation on a european approach for artificial intelligence”). Il testo dovrà essere vagliato da Parlamento e Consiglio europei per essere attuato, ma nel frattempo sottolinea l’importanza di un’accurata gestione del rischio correlato all’utilizzo delle tecnologie AI.

Area Brokers Industria mira al più alto livello di tecnologia associata al mondo assicurativo. Per questo ha investito in Athena, software che compara i migliori prodotti assicurativi presenti sul mercato in totale trasparenza e sicurezza.

LO SVILUPPO DELLE TECNOLOGIE AI

Le tecnologie AI hanno registrato una forte accelerazione nell’ultimo periodo: per questo motivo l’UE ha voluto avviare un piano coordinato per una corretta gestione e verifica dei sistemi utilizzati. L’avanzamento tecnologico, infatti, ha portato benefici economici e sociali sia nel panorama industriale che nelle attività sociali. Nella bozza si legge:

“Migliorando la previsione, ottimizzando le operazioni e l’allocazione delle risorse e personalizzando la fornitura di servizi, l’uso dell’intelligenza artificiale può fornire vantaggi competitivi chiave alle aziende e supportare il raggiungimento di risultati socialmente e ambientalmente vantaggiosi, ad esempio nel settore sanitario, agricolo, educativo, della gestione delle infrastrutture, dell’energia, dei trasporti e della logistica, dei servizi pubblici, della sicurezza e della mitigazione e adattamento ai cambiamenti climatici”.

Tuttavia, i sistemi di intelligenza artificiale vanno sviluppati e utilizzati nella maniera corretta e nel rispetto della sicurezza e salute degli individui. Ecco perché si rendono necessari standard minimi di qualità e sicurezza dei sistemi. Il nuovo quadro normativo promuove lo sviluppo dell’AI e affronta i potenziali rischi per la sicurezza e i diritti fondamentali dei cittadini. Ha molti tratti in comune con il Regolamento Generale per la protezione dei dati personali, ma prevede sanzioni ancora più alte: fino a 6% del fatturato globale, contro il 4% del GDPR.

I TEMI IN COMUNE CON IL GDPR

Il Regolamento sull’AI presenta diversi punti di contatto con il GDPR: tratta estesamente della sicurezza dei dati biometrici applicati, per esempio, nella videosorveglianza e nel riconoscimento facciale. Esaminiamo i principi comuni ai due regolamenti UE e i conseguenti obblighi per le aziende.

Conformity assessment e valutazione del rischio

Come previsto dal GDPR, il produttore della tecnologia AI ha l’obbligo di svolgere un conformity assessment, ovvero di mettere in atto un processo che dimostri, prima di commercializzare il prodotto, che sia rispettato il Regolamento. I principali strumenti di assessment sono costituiti dal Registro delle attività di trattamento e da idonee valutazioni del rischio che dovrà essere determinato, contrariamente a quanto avviene nel GDPR, sulla base di criteri precisi, definiti negli artt. 6 e seguenti del nuovo testo normativo.

Ai sensi dell’art. 9 del Regolamento sull’AI, dovrà inoltre essere implementato un sistema di gestione del rischio periodicamente monitorato e implementato.

Obblighi di trasparenza

Ci saranno precisi obblighi di trasparenza sul funzionamento del sistema AI nei confronti degli utenti e nei confronti di chi acquista e utilizza tali sistemi all’interno dei propri servizi. Servirà fornire tutta la documentazione tecnica che dimostri la compliance ai requisiti del regolamento e farne comprendere il funzionamento. Ne deriva l’obbligo di fornire istruzioni per l’uso in un formato digitale appropriato o in altro modo che includano informazioni concise, complete, corrette e chiare pertinenti, accessibili e comprensibili per gli utenti.

Sicurezza e affidabilità dei sistemi

Occorre garantire l’accuratezza, la robustezza, la resilienza e la sicurezza dei sistemi di AI, allo stesso modo in cui deve essere preservata la riservatezza, l’esattezza e la sicurezza dei dati personali nel GDPR. Su questo aspetto si può trovare un parallelismo tra il Regolamento sull’AI e l’art. 32 GDPR, che chiede al titolare e al responsabile del trattamento di mettere in atto misure tecniche e organizzative per garantire un livello di sicurezza adeguato, tenendo conto dei rischi che derivano in particolare dalla distruzione, dalla perdita, dalla modifica, dalla divulgazione non autorizzata o dall’accesso, in modo accidentale o illegale, a dati personali trasmessi, conservati o comunque trattati. Infine, secondo l’art. 62 del regolamento, i fornitori dei sistemi di AI devono notificare alle Autorità competenti nazionali ogni serio incidente o malfunzionamento del sistema di AI che possa costituire una “violazione” ai sensi della legge dell’UE e degli stati membri, similarmente a quanto previsto nel GDPR per l’obbligo di notifica dei data breach. La notifica deve avvenire non appena il fornitore ha stabilito un nesso causale tra il sistema di AI e l’incidente o il malfunzionamento o la ragionevole probabilità di tale collegamento e, in ogni caso, non oltre 15 giorni dopo che i fornitori sono venuti a conoscenza del malfunzionamento.

Per concludere, le nuove regole sull’AI vogliono promuovere lo sviluppo tecnologico garantendo la massima sicurezza alle persone e un quadro normativo preciso e armonico alle imprese che offrono e utilizzano questi servizi.

Area Brokers Industria ha sviluppato Athena, un servizio di intelligenza artificiale in grado di prevedere la reale percentuale di rischio a cui è esposta un’azienda durante la sua attività. In quanto professionisti del risk management lavoriamo perché la tecnologia sia al servizio delle imprese minimizzando ogni possibile minaccia informatica o di qualsiasi altra natura.

    Ho letto e accetto l'informativa sulla privacy. Leggi tutto