Via libera del Parlamento Ue al regolamento sull’intelligenza artificiale
Il Parlamento Ue in riunione plenaria a Strasburgo ha approvato la posizione negoziale sulla legge europea per dotare di norme l’intelligenza artificiale. Si tratta della prima legge al mondo che interviene. E introduce alcuni divieti, come il divieto al riconoscimento facciale in spazi accessibili al pubblico come l’identificazione biometrica remota in spazi pubblici. Non solo, perché si vietano anche i sistemi di polizia predittiva, il riconoscimento delle emozioni e vanno considerati ad alto rischio i sistemi di Ia utilizzati per influenzare gli elettori nelle elezioni. I sistemi di Ia generativa come ChatGPT dovranno dichiarare come sia stato generato il contenuto.
Nasce ora un confronto a tre
Nasce ora il negoziato tra le tre istituzioni Ue: Parlamento, Consiglio (Stati membri) e Commissione Ue. L’Ia solleva molte questioni dal punto di vista sociale, etico ed economico. Problemi e sensibilità di cui si parla tanto così come dei rischi che pure vengono paventati.
Dal Parlamento europeo arriva pure il segnale di voler sfruttare il potenziale creativo e produttivo dell’Ia, ma si intendono anche contrastare i pericoli per la democrazia e la libertà.
Il testo è passato con 499 voti a favore, 28 contrari e 93 astenuti. Le norme mirano a garantire che l’Ia sviluppata e utilizzata in Europa, sia conforme con i diritti e i valori dell’Ue. Le norme come impostate dalla Commissione Ue nella proposta del 2021 seguono un approccio basato sul rischio e stabiliscono obblighi per fornitori e operatori dei sistemi di Ia a seconda del livello di rischio che la stessa intelligenza artificiale può generare. Vietati quindi i sistemi di Ia dove si presenta un livello di rischio inaccettabile per la sicurezza delle persone e per questo sono stati posti dei divieti di uso dell’Ia perché ritenuti «intrusivi e discriminatori».
Identificazione biometrica
Una su tutte: l’Ia non potrà essere usata per l’identificazione biometrica remota «in tempo reale» e «a posteriori» in spazi accessibili al pubblico. Non potranno essere impiegati i sistemi di categorizzazione biometrica basati su caratteristiche sensibili (ad esempio genere, razza, etnia, cittadinanza, religione, orientamento politico). Anche i sistemi di polizia predittiva (basati su profilazione, ubicazione o comportamenti criminali passati) non potranno essere impiegati. Così come anche i sistemi di riconoscimento delle emozioni utilizzati dalle forze dell’ordine nella gestione delle frontiere, nel luogo di lavoro e negli istituti d’istruzione né per l’estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).
Nella lista ad alto rischio sono stati aggiunti anche i sistemi di intelligenza artificiale utilizzati per influenzare gli elettori così come l’esito delle elezioni e i sistemi di raccomandazione utilizzati.