Condividi

Tempo di lettura: 3 minuti

Il 13 marzo 2024 il Parlamento Europeo ha approvato l’AI Act: la prima legge al mondo per disciplinare l’utilizzo dei sistemi di intelligenza artificiale.

La strategia dell’Unione Europea sull’intelligenza artificiale

Il 13 marzo 2024 il Parlamento Europeo ha approvato l’AI Act, presentato dalla Commissione Europea il 21 aprile 2021. Questo nuovo regolamento europeo è stato approvato con 523 voti favorevoli, 46 contrari e 49 astensioni. Il suo obiettivo è quello di rafforzare la ricerca e la capacità industriale nel campo dell’Intelligenza Artificiale (Artificial Intelligence, AI). Contemporaneamente, intende però anche proteggere la sicurezza e lo Stato di diritto dei cittadini e delle cittadine dei paesi europei. In altre parole, mira a:

  • Facilitare la circolazione di sistemi di AI conformi alle norme dell’UE per creare un mercato unico europeo;
  • Aumentare la fiducia nell’AI, garantendone l’affidabilità e la trasparenza;
  • Prevenire e limitare gli utilizzi dell’AI lesivi della sicurezza, salute, dignità o autonomia delle persone, o contrari ai valori democratici;
  • Promuovere l’innovazione etica nell’AI attraverso finanziamenti per il suo sviluppo e la collaborazione tra Stati membri, istituzioni e parti interessate.

Per non parlare di come l’AI Act garantisca all’Unione Europea un ruolo pionieristico a livello internazionale nella regolamentazione dell’Intelligenza artificiale. In altre parole, l’AI Act europeo è la prima legge al mondo a questo riguardo. Di conseguenza, potrebbe influenzare gli standard globali sull’uso etico e sicuro degli strumenti di intelligenza artificiale. In questo modo si consoliderebbe l’influenza dell’UE nel campo della tecnologia e dell’innovazione.

Per raggiungere questo obiettivo, l’UE deve diventare un centro nevralgico dello sviluppo dell’AI dal laboratorio al mercato, garantendo un utilizzo etico dell’AI. In questo modo potrà assumere un ruolo guida nello sviluppo, nell’adozione e nella regolamentazione dell’AI in settori ad alto impatto.

La strada verso l’AI Act

Ѐ dell’aprile 2021 la definizione della strategia europea sull’Intelligenza Artificiale, che ha portato all’attuale approvazione dell’AI Act. Tra i punti presentati dalla Commissione Europea ci sono:

  • promozione di un approccio europeo all’intelligenza artificiale;
  • definizione di un piano coordinato tra gli Stati membri dell’UE;
  • proposta quadro di una regolamentazione dell’AI con valutazione d’impatto.

Successivamente, nel gennaio 2024 sempre la Commissione Europea ha stipulato diverse misure per sostenere le start-up e le PMI nello sviluppo di sistemi di intelligenza artificiale. In questo modo, la Commissione ha cercato di garantire che queste AI rispettassero i valori e le norme europee.

Una delle più importanti iniziative europee di promozione del suo approccio all’intelligenza artificiale è “GenAI4EU“. Questo progetto ha incoraggiato l’utilizzo dell’AI generativa nei principali ecosistemi industriali dell’Unione, favorendo la collaborazione tra settore pubblico e privato.

Infine, l’AI Act sorge dalle suggestioni dei cittadini e delle cittadine che hanno partecipato alla Conferenza sul Futuro dell’Europa (COFE). In quest’occasione, le proposte esposte riguardavano tra gli altri anche la riduzione delle dipendenze strategiche dell’UE in settori critici, la lotta alla disinformazione e la definizione di un’identità digitale europea sicura.

Le quattro categorie di rischio su cui si basa l’AI Act

Per proteggere i diritti fondamentali dei cittadini e delle cittadine dell’UE, l’AI Act adotta un approccio basato sul rischio. In altre parole, cataloga quattro categorie di pericolo per possibili danni che le AI possono causare alla società, da cui dipendono regole più o meno stringenti:

  1. Rischio minimo o nullo, qualora le AI non abbiano impatti diretti sui diritti fondamentali o la sicurezza delle persone;
  2. Rischio limitato, se le AI possono parzialmente influenzare i diritti e le volontà delle persone, per cui sono obbligati alla trasparenza (es. deepfake, chatbot e immagini generate dall’AI);
  3. Rischio elevato, quando l’impatto che le AI possono avere sui diritti e la sicurezza delle persone è sistemico, per cui sono soggetti a rigorosi obblighi e requisiti prima di accedere al mercato (es. AI per la selezione del personale, l’ammissione all’istruzione, l’erogazione di servizi essenziali o l’erogazione della sicurezza critica nelle infrastrutture);
  4. Rischio inaccettabile, ovvero AI contrarie ai principi fondamentali dell’UE, che vengono di conseguenza vietate.

Le eccezioni previste dall’AI Act per le Forze dell’Ordine

Al fine di garantire la sicurezza e lo stato di diritto all’interno dei paesi dell’UE, l’AI Act vieta l’utilizzo di sistemi di identificazione biometrica. Alcune eccezioni nel ricorso a questo tipo di strumenti di intelligenza artificiale sono tuttavia previste dalla legge. In altre parole, l’identificazione “in tempo reale” potrà essere utilizzata in casi specifici, come per esempio la prevenzione di un attacco terroristico o la ricerca di persone scomparse.

Perché questi strumenti possano essere sfruttati sono però necessarie rigorose garanzie. Per prima cosa, l’autorizzazione giudiziaria dovrà essere collegata a un reato. Inoltre, l’uso di tali misure deve essere limitato nel tempo e nello spazio.

L’entrata in vigore dell’AI Act

L’AI Act entrerà in vigore venti giorni dopo la sua pubblicazione sulla Gazzetta Ufficiale dell’UE. Le sue norme verranno così applicate 24 mesi dopo l’entrata in vigore, a eccezione di:

  • i divieti sulle pratiche vietate (6 mesi dopo);
  • i codici di buone pratiche (9 mesi dopo);
  • le norme sui sistemi di AI per finalità generali come la governance (12 mesi dopo);
  • gli obblighi per i sistemi ad alto rischio (36 medi dopo)

 

 

Foto di Pavel Danilyuk


Condividi