Non è tutto buono quello che è tecnologicamente possibile.
L’Unione Europea varerà un regolamento che crea classi di rischio per le applicazioni.

La Commissione europea ha presentato il 21 aprile scorso una proposta di regolamento per rinnovare e armonizzare le regole europee sull’intelligenza artificiale. L’obiettivo è di garantire che i cittadini europei possano fidarsi di ciò che l’intelligenza artificiale offre, perché sono poste regole che affrontano i rischi, fissando i più elevati standard a livello mondiale. Perciò non saranno possibili utilizzi della tecnologia che risultino lesivi per i diritti fondamentali e la sicurezza dei cittadini Ue.
Si tratta del primo quadro giuridico sull’IA mai realizzato, a cui è unito un piano coordinato con gli Stati membri, cosicché non solo alle persone ma anche alle imprese saranno garantiti la sicurezza e i diritti fondamentali, e ciò favorirà gli investimenti e l’innovazione nel settore in tutta l’Unione.
La Commissione ha infine presentato la proposta di regolamento delle macchine, finora regolate da una direttiva del 2006, per aumentare le regole di sicurezza .
L’approccio europeo all’intelligenza artificiale affidabile
Quando il Regolamento sarà approvato dal Parlamento e dal Consiglio, le nuove regole saranno applicate direttamente e nello stesso modo in tutti gli Stati membri. Esse sono basate sul rischio.
Rischio inaccettabile: sono vietati i sistemi o le applicazioni di intelligenza artificiale che manipolano il comportamento umano per aggirare il libero arbitrio degli utenti (ad esempio, giocattoli che utilizzano l’assistenza vocale per incoraggiare i comportamenti pericolosi dei minori) e i sistemi che consentono ai governi di attribuire un “punteggio sociale”.
Rischio alto: saranno soggetti a obblighi rigorosi prima che possano essere immessi sul mercato. Sono considerati ad alto rischio i sistemi in cui la tecnologia di IA è utilizzata in infrastrutture critiche (ad esempio i trasporti), poiché potrebbe mettere a rischio la vita e la salute dei cittadini; nell’istruzione o formazione professionale, poiché può determinare l’accesso all’istruzione e il percorso professionale di una persona (ad esempio, attribuzione del punteggio degli esami); in componenti di sicurezza dei prodotti (ad esempio un’applicazione utilizzata nella chirurgia assistita da robot); nell’ambito dell’occupazione, della gestione dei lavoratori e dell’accesso al lavoro autonomo (ad esempio, software di selezione nelle assunzioni); in servizi pubblici e privati essenziali (ad esempio, il punteggio del credito che può negare ai cittadini la possibilità di ottenere un prestito); in attività di contrasto che possono interferire con i diritti fondamentali delle persone (ad esempio, valutazione dell’affidabilità delle prove); nella gestione della migrazione, dell’asilo e del controllo delle frontiere (ad esempio, verifica dell’autenticità dei documenti di viaggio); nell’amministrazione della giustizia e nei processi democratici (ad esempio, applicazione della legge a una serie concreta di fatti).
In particolare, tutti i sistemi di identificazione biometrica remota (facciale) sono considerati ad alto rischio e soggetti a requisiti rigorosi. Il loro utilizzo in tempo reale ai fini di attività contrasto in spazi accessibili al pubblico è in linea di principio vietato. Sono previste poche eccezioni rigorosamente definite e regolamentate (ad esempio, ove strettamente necessario per cercare un minore scomparso, prevenire una minaccia terroristica specifica e imminente o individuare, localizzare, identificare o perseguire autori o sospettati di un reato grave). Tale uso è soggetto all’autorizzazione di un organo giudiziario o di un altro organo indipendente e a limiti per quanto riguarda il tempo, la portata geografica e le banche dati ricercate.
Rischio limitato: hanno obblighi di trasparenza, cioè devono rivelare agli utenti che stanno interagendo con una macchina, in modo da poter decidere con cognizione di causa se continuare ad usarli oppure no.
Rischio minimo: ad esempio videogiochi o filtri spam.
4 maggio 2021
Per saperne di più
La pagina sul sito della Commissione europea