Black box: la sfida irrisolta della trasparenza algoritmica
La relazione tra il principio di trasparenza così come definito dal GDPR e l’opacità degli algoritmi nei sistemi di intelligenza artificiale generativa, sembra costituire un’equazione di difficile risoluzione.
Se è vero che la trasparenza – individuata come terzo elemento insieme alla liceità e la correttezza – completa i requisiti indispensabili di qualunque trattamento di dati personali, l’esigenza di acquisire innanzi tutto consapevolezza sull’oggetto IA nelle sue multiformi declinazioni, con particolare riguardo alla cosiddetta “black box” presuppone, una approfondita conoscenza del “fenomeno” complesso dei sistemi di IA.
La black box nei sistemi di IA
Nella nomenclatura attuale, per “black box” si intende il massimo livello di opacità che contraddistingue alcuni sistemi di IA, tale da rendere imperscrutabili, anche agli occhi degli stessi programmatori e sviluppatori, il loro meccanismo di funzionamento e il percorso seguito nella elaborazione degli input (dati) per arrivare ai risultati. In sostanza, si configura una black box quando non è possibile comprendere “l’iter logico” seguito dalla macchina per raggiungere l’obiettivo assegnato.
Inferenza automatizzata di dati personali
Al riguardo merita attenzione la cosiddetta inferenza automatizzata di dati personali, ovvero quel processo attraverso il quale il software di IA genera dei risultati applicando la sua conoscenza dei dati di addestramento a dati precedentemente sconosciuti, ovvero è il processo mediante il quale un modello addestrato prende decisioni basate su nuovi dati.
Dopo una fase di apprendimento, in cui il modello viene addestrato con grandi quantità di dati, l’inferenza rappresenta il momento in cui il modello applica ciò che ha imparato a situazioni reali, spesso in tempo immediato. Pertanto, come si può evincere da quanto illustrato, si versa in una fase critica del processo decisionale del software, posto che le conoscenze acquisite durante la formazione vengono applicate a dati reali per produrre risultati concreti. Il predetto processo è estremamente complesso: alcuni modelli di AI potrebbero usare metodi basati su regole semplici, mentre altri, come le reti neurali profonde, potrebbero impiegare algoritmi molto più complessi e l’inferenza dei dati di addestramento potrebbe essere cruciale, soprattutto in applicazioni che richiedono risposte subitanee.
Implicazioni giuridiche e sfide legali
Conseguentemente arrivare ad avere conoscenza del fenomeno dei sistemi di IA costituisce un imprescindibile primo passo per poter affrontare le innumerevoli sfide giuridiche, poste dal nostro ordinamento; sfide che non è escluso possano condurre a una rivisitazione di tradizionali categorie giuridiche in materia di discrezionalità delle decisioni, quando le stesse sono automatizzate, ma anche, in merito alla responsabilità per danni ed al rapporto di causalità.
GDPR e decisioni automatizzate
Da osservare che il tema che si sta affacciando prepotentemente all’orizzonte grazie all’utilizzo sempre più diffuso di software di Intelligenza Artificiale nei diversi settori della vita pubblica e privata, era già stato profeticamente disciplinato, seppur sinteticamente dal GDPR, prima ancora che il recentissimo Regolamento sulla intelligenza Artificiale disciplinasse le classificazioni di rischio di utilizzo della IA. Difatti il prevedere, salvo alcuni caveat, che l’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona, è stata una cautela fondamentale per la tutela dei diritti e delle libertà delle persone fisiche.
Processo decisionale automatizzato e profilazione
Va chiarito che il processo decisionale automatizzato ha una portata diversa da quella della profilazione, a cui può sovrapporsi parzialmente o da cui può derivare. Il processo decisionale esclusivamente automatizzato consiste nella capacità di prendere decisioni impiegando mezzi tecnologici senza coinvolgimento umano.
Le decisioni automatizzate possono essere basate su qualsiasi tipo di dati, ad esempio: i) dati forniti direttamente dall’interessato (come le risposte a un questionario); ii) dati osservati riguardo a una persona (come i dati relativi all’ubicazione raccolti tramite un’applicazione); iii) dati derivati o desunti, come un profilo della persona che è già stato creato (ad esempio un punteggio sull’affidabilità creditizia).
L’importanza dell’art. 22 del GDPR
Pertanto, possiamo consolidare l’assunto che un terreno d’elezione per l’applicazione dell’art. 22 GDPR, è proprio quello dell’inferenza automatizzata di dati personali. Difatti qualora tramite inferenza il programma di IA porti a decisioni idonee a produrre effetti giuridici o incidere significativamente sulla sfera giuridica dell’interessato, potrebbero venirsi a creare seri pregiudizi per le persone.
Creazione automatica di dati personali
L’estrazione di modelli dell’individuo realizzati in maniera automatica rappresenta in effetti un vero e proprio atto creativo di nuovi dati personali di valenza “poietica”. Ci si colloca pertanto all’estremo opposto rispetto al principio della autodeterminazione informativa. Di qui l’equazione trasparenza versus dati inferiti ed a maggior ragione Deap Learning sembrerebbe essere irrisolvibile.
Implicazioni legali e possibili soluzioni
Il che ad esempio, anche sotto il profilo giuridico, pare già contenere la soluzione, nel senso della incompatibilità dell’utilizzo di predetti modelli, in alcuni importanti settori della vita pubblica come, ad esempio, nel caso specifico dell’attività amministrativa, laddove un sistema di IA che si presenti come una “scatola nera” venga utilizzato nell’ambito del procedimento a supporto di una determinazione finale.
La soluzione efficace alla questione è ancora lontana, poiché all’orizzonte sembra profilarsi una soluzione variabile e dipendente dal tipo di sistema algoritmico concretamente utilizzato, con particolare riguardo tra l’altro, nell’attività amministrativa. Il che conduce ad indagare il fenomeno dell’I.A nella sua dimensione reale, prima che giuridica.
Esplicabilità e imputabilità nelle decisioni
Pertanto, ciò che più rileva nel paradigma digitale della trasparenza è la tassonomia tra i seguenti due requisiti di legittimità:
- esplicabilità dell’algoritmo
- imputabilità della decisione ad una persona fisica.
In mancanza di spiegabilità, anche il principio di responsabilità ultima della decisione resta svuotato, poiché il meccanismo di funzionamento del sistema algoritmico deve essere comprensibile, in primo luogo, per chi prende la decisione nonché per il soggetto interessato che la subisce e che dove tra l’altro poterla contestare. In quanto senza la spiegazione del meccanismo di funzionamento non è possibile comprendere dove si annida il risultato discriminatorio, se nel sistema algoritmico o se nel set di dati utilizzati, e non è possibile, pertanto, né prevenire il rischio discriminatorio né correre ai ripari in caso violazione del divieto di discriminazioni
Autore del post: Agenda Digitale Fonte: https://www.agendadigitale.eu/ Continua la lettura su: https://www.agendadigitale.eu/sicurezza/privacy/black-box-digitali-la-sfida-irrisolta-della-trasparenza-algoritmica/
Il Ministero delle Pari Opportunità finanzia il tuo corso digitale Chiedi tutte le informazioni a genitoridigitali@koinokalo.it |