X

Contattaci

0%

Intelligenza Artificiale: l’AI ACT dell'Unione Europea

L’Intelligenza Artificiale sta acquisendo un ruolo sempre più centrale nella trasformazione digitale di vasti settori quali industria, sanità, finanza, mobilità sostenibile. La capacità di analisi in tempo reale delle applicazioni AI e di “decidere” le azioni da intraprendere in base ai dati a disposizione pongono una serie di problematiche etiche e la necessità di regolamentarne l’utilizzo.

 L’AI ACT dell’Unione Europea

A livello europeo il 1° agosto entra in vigore l’AI ACT, parte integrante della EU Digital Strategy – EU4Digital, che si basa sul principio secondo cui l’AI deve essere sviluppata e utilizzata in modo da rispettare i diritti e valori fondamentali dell’Unione garantendo il controllo umano, la sicurezza, la privacy, la trasparenza, la non discriminazione e il benessere sociale e ambientale. È necessario specificare che l’applicazione concreta dell’AI ACT avverrà in 2 febbraio 2025, quando sarà attivo il meccanismo delle sanzioni previste per chi immette sul mercato o utilizza sistemi AI considerati vietati, mentre il 2 agosto 2026 entreranno in vigore tutte le altre norme dell’AI ACT.

L’AI ACT stabilisce quattro livelli di rischio secondo cui classificare le applicazioni che, conseguentemente, dovranno essere sottoposte a livelli diversi di monitoraggio; ciò non implica limiti alla ricerca e nemmeno allo sviluppo di applicazioni AI.

I livelli di rischio dell’AI

I livelli di rischio individuati sono:

  • Rischio inaccettabile: sistemi AI che contraddicono i valori e i principi fondamentali dell’Unione, come il rispetto della dignità umana, della democrazia e dello stato di diritto. Tali sistemi sono vietati o, come nel caso della sorveglianza biometrica per motivi di sicurezza, sottoposti a severe restrizioni.
  • Rischio elevato: sistemi AI che possono avere un impatto significativo sui diritti fondamentali o sulla sicurezza dei cittadini. Tali sistemi sono soggetti a rigorosi obblighi e requisiti prima di poter essere commercializzati e utilizzati. Rientrano in questa classificazione i sistemi AI impiegati per la selezione e il reclutamento del personale, così come quelli per l’erogazione di servizi sociali essenziali, ad esempio in ambito sanitario.
  • Rischio limitato: sistemi AI che possono influenzare i diritti o la volontà degli utenti, ma in misura minore rispetto ai sistemi ad alto rischio. Questi sistemi sono soggetti a requisiti di trasparenza, che consentono agli utenti di essere consapevoli del fatto che interagiscono con un sistema di AI e di comprenderne le caratteristiche e le limitazioni. Rientrano in questa categoria i sistemi AI per generare o manipolare contenuti audiovisivi (come i deepfake) o per fornire suggerimenti personalizzati (come le chatbot).
  • Rischio minimo o nullo: sistemi AI che non hanno alcun impatto diretto sui diritti fondamentali o sulla sicurezza delle persone, e che offrono ampi margini di scelta e controllo agli utenti. Rientrano in questa categoria i sistemi di AI utilizzati per scopi ludici (come i videogiochi) o per scopi puramente estetici (come i filtri fotografici).

Sviluppi futuri

L’AI ACT, pur stabilendo regole e definendo un impianto sanzionatorio, non disciplina la responsabilità civile dei danni eventualmente causati dall’AI. A tale proposito, la Commissione Europea sta lavorando ad una Direttiva che dovrà stabilire e garantire regole uniformi riguardo la responsabilità civile derivante dall’utilizzo dell’intelligenza artificiale.

In linea con l’AI ACT della UE, il Governo italiano ha recentemente adottato il Programma Strategico per l’Intelligenza Artificiale 2024-2026, di cui abbiamo parlato qui.

 

Contattaci

Compila il form per richiedere informazioni,
ti contatteremo al più presto.
Contattaci
Skip to content