Democrazia deepfake

Di seguito la prima parte di un reportage sulle democrazie europee alla prova dei deepfake generati dall’intelligenza artificiale.

Sebastian Burduja, ministro dell’Energia rumeno che esorta a investire in una piattaforma di investimenti inesistente. Immagini esplicite della Premier Giorgia Meloni che circolano su siti pornografici statunitensi. L’attivista ed europarlamentare Ilaria Salis in un video che simula la sua detenzione in una gabbia per cani randagi. Si tratta di video deep fake generati tramite intelligenza artificiale, che hanno il potenziale di mettere a rischio l’intero processo democratico manipolando la realtà e diffondendo disinformazione. E i governi europei corrono ai ripari, con l’approvazione dell’Ai Act e iniziative nazionali, come nel caso del Belgio che ha convocato un tavolo di discussione cittadino per offrire consigli al Governo.

LE RECENTI elezioni europee hanno appena visto l’entrata in campo dell’intelligenza artificiale con conseguenze da valutare. Il Centro per il contrasto dell’odio digitale ha provato che gli strumenti di clonazione vocale tramite Ia potrebbero produrre dichiarazioni convincenti di personaggi politici, come l’audio falso con la voce di Macron che avverte di minacce di bombe ai seggi.
Mentre i giganti tecnologici, come Microsoft, sminuiscono il rischio, l’Unione europea ha appena approvato l’Ai Act, in vigore da marzo 2025, che attribuisce ai deep fake un potenziale di «rischio limitato» per le libertà fondamentali. «Per quanto riguarda i deepfake, ciò che ritenevamo essenziale è che ci sia un’etichettache contrassegni contenutidi Ia», ha spiegato Dragos Tudorache, relatore per l’Ia al Parlamento europeo. In tal senso, il professor Cristian Vaccari dell’Università di Edimburgo aggiunge: «Una ragione per la classificazione limitata del rischio è che nelle democrazie occidentali ci si preoccupa di non limitare il discorso politico e la libertà di parola».

TUTTAVIA, diversi studi suggeriscono che anche quando i video o i clip audio vengono etichettati come generati dall’intelligenza artificiale, molte persone continuano a condividerli e a crederci, potenzialmente a causa dei messaggi emotivi che trasmettono.
«L’ambiente psicologico e sociale viene totalmente sottovalutato», spiega Ferdinand Gehringer, esperto della Fondazione Konrad Adenauer, «anche quando le persone sanno che le informazioni sono manipolate, le condividono perché sono divertenti o attirano l’attenzione. Ciò crea effetti psicologici e sociali cumulativi, poiché i deep fake non intendono indirizzare gli elettori verso un particolare candidato o partito, ma piuttosto distrarre, distorcere, diffamare e disturbare, convincendo a non votare affatto o a non farlo per un candidato o un partito specifici».

IL GARANTE italiano per la privacy ha sottolineato la necessità di un organo di controllo indipendente e imparziale a livello nazionale per vigilare sull’attuazione della legge sull’Ai Act che, spiega Guido Scorza, avvocato e membro dell’Autorità, «non può essere responsabilità del governo stesso o di un ente governativo. È importante lavorare immediatamente affinché le grandi aziende tecnologiche adottino spontaneamente i principi più importanti contenuti nell’AiAct, senza attendere la sua entrata in vigore».
La disinformazione generata attraverso l’intelligenza artificiale può assumere varie forme, amplificando stereotipi preesistenti nella società. «In Italia i video deepfake sono l’ultima frontiera della violenza di genere», spiega Lilia Giugni, ricercatrice alla University City College di Londra. «Sono diventati parte di un problema sistemico nel nostro paese e in Europa, dove osserviamo come questo tipo di episodi siano diretti contro donne con visioni politiche molto differenti».

Nel marzo 2024, la premier Meloni è stata vittima di un video deep fake sessuale con milioni di visualizzazioni nei siti pornografici americani ed ha intentato una causa che potrebbe costituire un precedente legale, chiedendo 100.000 dollari di risarcimento contro i presunti creatori, un padre e figlio sardi. La premier è apparsa anche in altri video Ia, come quello che la ritrae nei panni della cantante Shakira, con quasi un milione e mezzo di visualizzazioni su Tik Tok.

PRIMA delle elezioni europee, Meloni e la segretaria Pd Elly Schlein sono state protagoniste di video deep fake che promuovevano truffe finanziarie. A seguito della candidatura dell’attivista antifascista Ilaria Salis con Alleanza Verdi Sinistra, la violenza online che la riguarda è sfociata in un video su X, probabilmente generato con Ia, che mostra la donna al guinzaglio condotta in un furgone da un accalappiacani.

«IL DEEP FAKE riguardante Ilaria Salis è emblematico per l’intersezionalità della sua candidatura tra attivismo, politica e lotta di genere», spiega Silvia Brena, fondatrice di Vox Diritti, associazione che mappa l’odio online da quasi un decennio. «Nella nostra ricerca le donne sono vittime di un messaggio d’odio su due: la misoginia è trasversale anche se gran parte del discorso d’odio globale proviene dall’estrema destra».
Sull’uso politico dei deep fake, la ricercatrice Giugni aggiunge: «Osserviamo leader di destra come Salvini che hanno costruito la loro avventura politica su un certo tipo di retorica macho antifemminista e non hanno avuto scrupoli nell’usare attacchi digitali contro nemici politici e qualsiasi donna visibile. Giorgia Meloni e altre leader di destra si trovano in una situazione complessa perché sono cresciute in partiti in cui la violenza digitale contro le donne viene utilizzata anche ad alti livelli».

GLI STEREOTIPI perpetrati emergono già dalla programmazione dell’Ia, come evidenzia un report dell’Unesco: le donne vengono descritte come impiegate in ruoli domestici molto più spesso degli uomini, associati invece alla carriera.
«La misoginia è usata come arma nei deep fake e nei contenuti generati dall’intelligenza artificiale. Le donne e le giovani sono incredibilmente scoraggiate in Italia e in altri paesi quando si tratta di prendere in considerazione la carriera politica a causa della preoccupazione legata alla loro immagine sui social», spiega Lucina Di Meco, co-fondatrice di ShePersisted, un’iniziativa dedicata ad affrontare la disinformazione di genere contro le donne in politica.

CIONONOSTANTE, i deep fake non hanno ancora rivelato il loro potenziale nel dibattito politico italiano come spiega Lorenzo De Sio, direttore del Centro Italiano Studi Elettorali: «Abbiamo osservato una campagna elettorale europea senza episodi particolari sui social. Alcuni commentatori hanno segnalato un effetto importante delle politiche restrittive attuate dal gruppo Meta che ha messo a tacere i contenuti politici per coloro che non avevano espresso esplicitamente il consenso a vederli».
Raquel Serrano, ricercatrice di DisinfoEu, aggiunge: «Non siamo ancora arrivati al punto di rottura in termini quantitativi per quanto riguarda l’uso delle tecnologie di intelligenza artificiale nella creazione di bufale, compresi i deep fake». Non al punto di rottura, ma il problema in Europa sta prendendo sempre più piede.

(Questo articolo ha ricevuto il sostegno del Display Europe Grant promosso dalla European Cultural Foundation)

Continua la lettura su: https://ilmanifesto.it/democrazia-deepfake Autore del post: Il Manifesto Fonte:

Il Ministero delle Pari Opportunità finanzia il tuo corso digitale

Dipartimento Pari Opportunità

Chiedi tutte le informazioni a genitoridigitali@koinokalo.it

Partecipa ai corsi gratuiti

Articoli Correlati

AI Act e Gdpr: come si integrano le norme sulla protezione dei dati

L’AI Act regolamenta in maniera organica lo sviluppo, l’immissione sul mercato e l’uso dei sistemi di intelligenza artificiale. La disciplina della protezione dei dati personali resta però primariamente affidata al GDPR. In questo quadro normativo, la compliance in materia di data protection nel contesto dell’intelligenza artificiale presenta molteplici e sfidanti questioni interpretative
L’articolo AI Act e Gdpr: come si integrano le norme sulla protezione dei dati proviene da Agenda Digitale.

AI e protezione dei dati, gli scenari di rischio da valutare nella DPIA: una guida

Le valutazioni di impatto sulla protezione dei dati (DPIA) sono cruciali nel contesto dell’Intelligenza Artificiale (AI). È essenziale un approccio strutturato per identificare e mitigare i rischi, in linea con l’AI Act e il GDPR. Trasparenza, accountability e coinvolgimento degli stakeholder sono fondamentali per garantire la protezione dei diritti degli individui
L’articolo AI e protezione dei dati, gli scenari di rischio da valutare nella DPIA: una guida proviene da Agenda Digitale.

[mwai_chatbot id="chatbot-h9et3q"]