Intelligenza artificiale, Rete Diritti Umani: troppo potere al Governo

La prima legge italiana sull’intelligenza artificiale doveva rappresentare il pilastro di una nuova era normativa ma si rivela un’occasione persa. Di più. È una legge “priva di sostanza, con pericolosi vuoti normativi in materia di tutela dei diritti umani” e “pone le basi legali per i futuri decreti securitari del Governo”.

Questa la critica alla legge sull’intelligenza artificiale, approvata il 17 settembre, da parte della Rete per i Diritti Umani Digitali, una coalizione di organizzazioni della società civile formata da The Good Lobby, Amnesty International Italia, Hermes Center, Period Think Tank, Privacy Network e Strali.

“La legge italiana sull’intelligenza artificiale appena approvata consegna il controllo dell’IA direttamente al Governo – denuncia la Rete – Le autorità incaricate di regolare l’intelligenza artificiale sono affiliate al Governo. Non sono stati previsti meccanismi di difesa dagli errori dei sistemi di IA. Cosa aspettarsi dal futuro? Tentativi sempre più pressanti di implementare la sorveglianza biometrica e possibili abusi delle tecnologie IA per controllare la vita pubblica dei cittadini”.

La Rete per i diritti umani digitali denuncia tre fronti critici nella legge sull’intelligenza artificiale: la governance è affidata ad autorità governative; non c’è il “diritto alla spiegazione”; non viene disciplinato il riconoscimento biometrico nei luoghi aperti al pubblico.

Nessuna autorità indipendente per l’IA

Al contrario di quanto previsto dal Regolamento europeo per l’IA non verrà istituita un’Autorità indipendente per l’intelligenza artificiale. La governance in Italia sarà affidata ad agenzie governative: Agenzia per l’Italia digitale (Agid) e Agenzia per la Cybersicurezza Nazionale (ACN).

«Ci siamo opposti con tutte le nostre forze a qualsiasi affiliazione politica della governance per l’intelligenza artificiale – dichiara Laura Ferrari, responsabile relazioni istituzionali della Rete per i Diritti Umani Digitali – Con due agenzie governative al posto dell’autorità indipendente non possiamo che aspettarci indebite influenze sui finanziamenti e sugli indirizzi politici in materia di IA. Si sacrifica in tal modo la prospettiva di un’IA in grado di generare fiducia nella cittadinanza, avvalorando al contrario la sensazione di poter essere sottoposti a sorveglianza di massa e a sfruttamento dei propri dati».

Dove è il diritto alla spiegazione?

La legge italiana sull’intelligenza artificiale non prevede nessuno strumento di ricorso per garantire il diritto alla spiegazione. È stata infatti respinta la proposta (di Partito Democratico, Alleanza Verdi e Sinistra e Movimento5stelle) che avrebbe assegnato al Garante per la protezione dei dati personali il compito di tutelare il “diritto alla spiegazione” di chi ritiene di aver subito una violazione dei propri diritti umani (come il diritto alla salute, alla non discriminazione, alla libertà di opinione ed espressione) a causa di un sistema di intelligenza artificiale. L’AI Act prevede invece che ci sia un meccanismo di ricorso alternativo al giudice che permetta ai cittadini di avere chiarimenti su come è stata presa una decisione automatizzata. Questo strumento non c’è nella legge italiana sull’intelligenza artificiale.

Il nodo dell’identificazione biometrica

La terza critica rivolta dalla rete riguarda l’assenza di regolamentazione dell’uso dell’IA per l’identificazione biometrica. Non c’è nessuna garanzia sull’uso dell’intelligenza artificiale per il riconoscimento facciale e questo è un “pericoloso vuoto normativo, che potrebbe inaugurare una stagione di sorveglianza biometrica senza regole”.

La Rete avrebbe voluto il divieto di riconoscimento biometrico negli spazi aperti al pubblico. La scelta è stata quella di non disciplinare il tema. E la possibile conseguenza è che sarà tutto nelle mani del Governo. “Si lascia quindi mano libera all’esecutivo – denunciano le organizzazioni per i diritti umani – di proseguire con il suo ambizioso progetto di sorveglianza biometrica negli stadi italiani, che potrebbe estendersi anche ad altri luoghi della vita pubblica, come piazze, stazioni, supermercati, cinema e ospedali”.

Le votazioni hanno poi bocciato l’introduzione di obblighi di trasparenza come report periodici sull’uso dei sistemi biometrici e sulla percentuale di errore dei sistemi di riconoscimento in dotazione alle forze di polizia. La legge sull’intelligenza artificiale, conclude Laura Ferrari, «conferisce un potere eccessivo al governo, senza adeguati contrappesi democratici: temiamo importanti risvolti securitari, che ci aspettiamo già nei prossimi mesi, a partire proprio dalla sorveglianza biometrica».

Autore del post: Help Consumatori Fonte: https://www.helpconsumatori.it/ Continua la lettura su:


Il Ministero delle Pari Opportunità finanzia il tuo corso digitale

Dipartimento Pari Opportunità

Chiedi tutte le informazioni a [email protected]

Partecipa ai corsi gratuiti

Articoli Correlati

Psycho-hacking: il lato oscuro dell’ingegneria sociale

Lo psycho-hacking è una forma avanzata e più subdola di ingegneria sociale, che sfrutta deliberatamente e strategicamente le vulnerabilità psicologiche proprie dell’essere umano per raggiungere specifici target di attacco. Conoscerne i rischi e gli obiettivi per difendersi
L’articolo Psycho-hacking: il lato oscuro dell’ingegneria sociale proviene da Agenda Digitale.

Targeting comportamentale: così le aziende “pilotano” le nostre scelte online

La raccolta dati e il targeting comportamentale sono strumenti essenziali per le imprese, ma sollevano importanti questioni di privacy e conformità normativa. Esploriamo le metodologie di raccolta dati, le tecniche di targeting comportamentale, le implicazioni giuridiche e le sfide etiche, evidenziando la necessità di un equilibrio tra innovazione e tutela dei diritti
L’articolo Targeting comportamentale: così le aziende “pilotano” le nostre scelte online proviene da Agenda Digitale.