L’Artificial Intelligence Act dell’Unione Europea
6 min read
«Dato il profondo impatto trasformativo che l’IA avrà sulle nostre società ed economie, le norme sull’IA sono molto probabilmente l’atto legislativo più importante in questo mandato. È il primo di questo tipo al mondo, il che significa che l’UE può aprire la strada per rendere l’IA incentrata sull’uomo, affidabile e sicura»
(Dragos Tudorache, europarlamentare, correlatore della proposta di regolamento)
L’intelligenza artificiale (IA) è una tecnologia emergente importante, che ha migliorato molti aspetti della vita quotidiana, ma che ha anche sollevato preoccupazioni sulla sua sicurezza, eticità e utilizzo sostenibile.
L’Unione Europea sta lavorando ad un complesso sistema di norme chiamato “Artificial Intelligence Act” per stabilire regole comuni per il suo utilizzo.
Giovedì 11 maggio, le commissioni del Parlamento europeo LIBE (Libertà civili, Giustizia e Affari interni) e IMCO (Mercato interno e Protezione dei consumatori) hanno approvato il testo della bozza[1] del Proposal for a regulation of the European Parliament and of the Council on harmonised rules on Artificial Intelligence (Artificial Intelligence Act) che sarà adottato nel prossimo giugno in seduta plenaria.
Unione Europea e Intelligenza Artificiale
L’Artificial Intelligence Act (o AI Act) è un regolamento che mira a disciplinare l’utilizzo dell’intelligenza artificiale (IA) in modo che la sua applicazione sia sicura, trasparente, responsabile ed etica.
I principali obiettivi del regolamento sono:
1.Garantire l’utilizzo di sistemi di intelligenza artificiale sicuri e affidabili all’interno dell’UE
Il regolamento intende garantire la sicurezza dei cittadini dell’UE nell’uso dell’IA. Ciò significa che i sistemi di IA devono essere progettati e implementati in modo sicuro, senza rappresentare un rischio per la salute, la privacy e la sicurezza dei cittadini.
Ad esempio, un sistema di IA utilizzato in campo medico deve essere in grado di fornire una diagnosi corretta e di non causare danni ai pazienti, mentre uno utilizzato per selezionare candidature ad una posizione lavorativa non deve discriminare sulla base del sesso, colore della pelle o altre caratteristiche personali.
2.Tutelare i diritti dei cittadini dell’UE
Il regolamento si propone di tutelare i diritti dei cittadini dell’UE. Ciò significa che i sistemi di IA devono essere conformi al diritto vigente nell’Unione, come il General Data Protection Regulation (GDPR), la Dichiarazione universale dei diritti dell’uomo e le convenzioni internazionali sui diritti umani.
Inoltre, il regolamento mira a proteggere la privacy dei cittadini dell’UE. I fornitori di servizi di IA devono rispettare i diritti di accesso, rettifica, cancellazione ed opposizione dei dati personali dell’utente.
3.Prevenire l’utilizzo improprio dell’IA
Il regolamento intende prevenire ogni abuso: ciò significa che i sistemi di IA devono essere utilizzati in modo etico e responsabile. Ad esempio, non possono essere utilizzati per violare i diritti individuali o per scopi illegittimi come la creazione di fake news.
Inoltre, il regolamento vieta attività volte a manipolare e alterare le opinioni quando potrebbero danneggiare la democrazia o il benessere della società.
I contenuti dell’AI Act
L’AI Act classifica i sistemi di IA in base al loro livello di rischio per la sicurezza, la privacy e i diritti fondamentali dei cittadini dell’UE. Ci sono tre categorie principali:
- a basso rischio: sono sistemi di IA che non rappresentano un’immediata minaccia e possono includere le chatbot o i sistemi di text-to-speech.
- a rischio limitato: sono sistemi che possono pregiudicare i diritti o causare danni materiali limitati. Tra questi, i sistemi utilizzati in ambienti industriali o per il controllo del traffico aereo.
- a rischio elevato: rappresentano una potenziale minaccia per la sicurezza, la privacy o i diritti. Comprendono i sistemi in campo medico o quelli per valutare la credibilità delle prove in un processo giudiziario.
Espressamente vietati sono quegli usi intrusivi e discriminatori dei sistemi di IA che consentono:
- l’identificazione biometrica da remoto “in tempo reale”, in spazi accessibili al pubblico, e “successiva”, con la sola eccezione delle forze dell’ordine per il perseguimento di reati gravi e solo previa autorizzazione giudiziaria;
- la categorizzazione biometrica che utilizzi caratteri sensibili (ad es. genere, colore della pelle, etnia, stato di cittadinanza, religione, orientamento politico);
- le attività di polizia predittiva (basati su profilazione, posizione o comportamento criminale passato);
- il riconoscimento delle emozioni in determinati contesti (forze dell’ordine, gestione delle frontiere, luoghi di lavoro, istituzioni educative);
- l’estrazione indiscriminata (web scraping) di dati biometrici da social media o filmati CCTV per creare database di riconoscimento facciale (violando diritti umani e diritto alla privacy).
Il nuovo regolamento prevede alcune misure per regolare l’utilizzo dell’IA nelle tre categorie di rischio sopra indicate:
- la valutazione di impatto del sistema di IA a rischio elevato prima della sua commercializzazione da parte dei fornitori. La valutazione di impatto coprirà gli aspetti relativi alla sicurezza, alla privacy e ai diritti individuali;
- la garanzia di trasparenza, nonché tracciabilità e responsabilità dei fornitori di servizi di IA che dovranno fornire informazioni dettagliate sui loro algoritmi e sui dati utilizzati. Inoltre, gli stessi fornitori saranno responsabili per eventuali danni causati dai sistemi di IA;
- l’adozione di misure tecniche per la sicurezza dei sistemi forniti, quali la crittografia dei dati e la protezione dei server;
- il rispetto dei dati protetti da copyright utilizzati da sistemi generativi, come ChatGPT, che dovranno indicare che il contenuto è stato generato dall’IA, impedire che si generino contenuti illegali e pubblicare riepiloghi dei dati utilizzati.
- la creazione di un organismo europeo, responsabile della definizione delle norme tecniche e delle metodologie di valutazione dei sistemi di IA nell’UE e preposto a ricevere reclami da parte dei cittadini e dare loro risposte.
Ripercussioni dell’IA Act
L’introduzione dell’AI Act nell’UE potrebbe avere diverse ripercussioni sulla società nel suo complesso e sull’industria dell’intelligenza artificiale nello specifico.
Se è certo che il regolamento potrà favorire l’adozione di sistemi di IA sicuri, trasparenti ed etici all’interno dell’UE, migliorando quindi la qualità dei servizi offerti, tuttavia potrebbe anche comportare alcuni costi aggiuntivi per le aziende, soprattutto per quanto riguarda la valutazione di impatto dell’IA e l’adozione delle specifiche misure tecniche di sicurezza.
Inoltre, secondo alcuni osservatori le nuove norme rappresenterebbero una limitazione alle opportunità di sviluppo dell’IA in Europa e potrebbero spingere le aziende high-tech fuori dall’Unione per cercare soluzioni alternative in ordinamenti meno “rigidi”.
Per questo motivo, nel prossimo futuro, sarà di fondamentale importanza monitorare attentamente l’impatto del regolamento sulla società e sull’industria dell’IA e, se necessario, adottare le necessarie misure di correzione in base alle esigenze emergenti di utenti, operatori e autorità.
Durante la sessione plenaria del Parlamento del prossimo giugno, questo progetto sarà approvato e il testo passerà dunque alla fase negoziale con il Consiglio.
In ultima analisi, l’obiettivo finale del nuovo regolamento europeo è di promuovere un uso equilibrato ed etico dell’IA come strumento in grado di migliorare la qualità della vita e promuovere lo sviluppo dell’UE e questo sarà possibile solo con il contributo di tutti.
- Cfr. European Parliament, Committee on the Internal Market and Consumer Protection & Committee on Civil Liberties, Justice and Home Affairs, DRAFT Compromise Amendments on the Draft Report Proposal for a regulation of the European Parliament and of the Council on harmonised rules on Artificial Intelligence (Artificial Intelligence Act) and amending certain Union Legislative Acts, COM(2021)0206 – C9 0146/2021 – 2021/0106(COD), 09.05.2023. ↑