Attualità
Dal Parlamento europeo primi paletti sull’Intelligenza Artificiale
Con 499 voti a favore, 28 contrari e 93 astensioni il Parlamento europeo ha adottato la sua posizione negoziale sulla legge sull’Intelligenza Artificiale (AI). Il testo definitivo verrà approntato dopo i colloqui con i governi dell’Unione europea. «Le norme mirano a garantire che l’IA sviluppata e utilizzata in Europa sia conforme con i diritti e i valori dell’Ue», si spiega nella nota ufficiale. Con un approccio basato sul rischio, le norme evidenziano pratiche di intelligenza artificiale da vietare, altre ad alto rischio e obblighi per i sistemi. Sono comunque previste esenzioni per le attività di ricerca e le componenti dell’AI fornite con licenze open-source.
Obblighi
Si prevede per esempio che i fornitori di modelli di base valutino e mitighino i possibili rischi connaturati all’Intelligenza Artificiale (alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto) e che registrino i loro modelli nella banca dati dell’UE prima della loro immissione sul mercato europeo. «I sistemi di AI generativa che si basano su tali modelli, quali ChatGPT, dovrebbero rispettare i requisiti di trasparenza (dichiarando che il contenuto è stato generato dall’AI), aiutando anche a distinguere le cosiddette immagini deep-fake e da quelle reali, e fornire salvaguardie per evitare la generazione di contenuti illegali. Dovrebbero inoltre essere pubblicate le sintesi dettagliate dei dati protetti dal diritto d’autore utilizzati per l’addestramento».
–Il parere dei lavoratori sull’AI generativa–
Pratiche di Intelligenza Artificiale da vietare
Si propone il divieto per sistemi di AI che presentano un livello di rischio inaccettabile per la sicurezza delle persone, come quelli utilizzati per il punteggio sociale (classificare le persone in base al loro comportamento sociale o alle loro caratteristiche personali). Tra i divieti figura l’uso di sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico e “a posteriori” in spazi accessibili al pubblico (se non in casi eccezionali), i sistemi di categorizzazione biometrica basati su caratteristiche sensibili, i sistemi di polizia predittiva o l’estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).
L’AI ad alto rischio
I deputati ritengono ad alto rischio sistemi «che comportano danni significativi per la salute, la sicurezza, i diritti fondamentali delle persone o l’ambiente». A questo si aggiungono sistemi di intelligenza artificiale utilizzati per influenzare gli elettori e l’esito delle elezioni e i sistemi di raccomandazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti).