Obiettivo della legge sull’intelligenza artificiale, è proteggere i diritti fondamentali, la democrazia, lo Stato di Diritto e la sostenibilità ambientale dai sistemi di intelligenza artificiale ad alto rischio, promuovendo nel contempo l’innovazione e assicurando all’Europa un ruolo guida nel settore. Il regolamento stabilisce obblighi per chi utilizza questa tecnologia sulla base dei possibili rischi e del livello d’impatto.L’AI Act, il regolamento europeo sull’intelligenza artificiale, è diventato legge a tutti gli effetti ed è scattata la tabella di marcia per l’applicazione di quella che Commissione, Consiglio e Parlamento europeo hanno presentato come la prima legge al mondo che si occupa in modo complessivo di intelligenza artificiale.Il testo è stato strutturato con l’obiettivo di inserire le diverse applicazioni di intelligenza artificiale in quattro gruppi distinti, a seconda del livello di rischio che ciascuna può rappresentare per i cittadini europei. I livelli di rischio sono:1) Rischio inaccettabile: questi sono i sistemi che violano i valori europei e che dunque saranno vietati all’interno dei confini dell’Unione. 2) Rischio alto: i sistemi che hanno o potranno avere un impatto controverso sulla sicurezza e sui diritti delle persone. Non ne viene dunque proibita la diffusione ma si chiede che le società responsabili rispondano a una precisa serie di requisiti.3) Rischio limitato: le applicazioni che non comportano pericoli considerevoli e che dovranno assicurare solo un set limitato di requisiti (in primis la trasparenza, dunque rivelare in modo evidente l’utilizzo dell’intelligenza artificiale).4) Rischio minimo: in questo caso non è previsto nessun obbligo legale.Tra le applicazioni di uso vietato dell’intelligenza artificiale nel livello di rischio inaccettabile ci sono i sistemi di ‘social scoring’, che giudicano le persone in base ai propri comportamenti.Il regolamento, riporta il Corriere, bandisce gli strumenti di polizia predittiva, che sfruttano i dati per capire in anticipo la pericolosità di un individuo. Sono vietati tutti quei sistemi che targettizzano gli utenti per sfruttare alcune caratteristiche considerate vulnerabili (l’età, una disabilità o una specifica situazione sociale o economica). Proibiti anche i sistemi di riconoscimento delle emozioni, in particolare nei luoghi di lavoro e nelle scuole. Si tratta di tecnologie che analizzano il tono della voce, i gesti, le espressioni facciali di una persona per capire il suo umore e agire di conseguenza.Questi sistemi potrebbero essere utilizzati per creare un ambiente domestico che fa- vorisca il miglioramento dell’umore, o per evitare episodi di violenza domestica. Gli utilizzi vietati possono essere la selezione di un dipendente in base ai dati raccolti dall’intelligenza artificiale oppure il giudizio su un alunno in base anche ai comportamenti registrati e digeriti da un algoritmo.La sorveglianza di massaCome