Deepfake elettorali su Facebook: la frode politica è modello di business

Negli ultimi mesi, una serie di annunci politici apparsi su Facebook ha riacceso con forza il dibattito sulla permeabilità delle piattaforme digitali alla disinformazione strutturata e alle pratiche fraudolente, disvelando la fragilità del sistema di controllo che regola la pubblicità politica online.

La pubblicità politica e la fragilità del controllo

A riguardo, proprio sulla piattaforma di Meta sono da poco circolati, dietro pagamento, video manipolati – i cosiddetti deepfake – che ritraevano figure istituzionali di primo piano come l’addetta stampa della Casa Bianca Karoline Leavitt e i senatori statunitensi Elizabeth Warren e Bernie Sanders nell’atto di promettere inesistenti sussidi governativi o agevolazioni economiche, inducendo così migliaia di utenti a interagire con link truffaldini e a fornire inconsapevolmente i propri dati personali. Secondo l’analisi condotta dal Tech Transparency Project, organizzazione indipendente che monitora la trasparenza delle grandi piattaforme tecnologiche, sessantatré inserzionisti sono riusciti a mantenersi stabilmente tra i maggiori acquirenti di spazi nella categoria della comunicazione politica e sociale, diffondendo circa centocinquantamila annunci per un valore complessivo di oltre quarantanove milioni di dollari. Per tali ragioni, l’indagine, più che rivelare una semplice falla nel sistema di moderazione, ha messo in luce la natura sistemica di un fenomeno che si nutre dell’incentivo economico stesso su cui l’ecosistema pubblicitario di Facebook si fonda: la tolleranza funzionale verso contenuti ingannevoli che, pur in contrasto con le regole formali della piattaforma, generano flussi di profitto immediati e difficilmente rinunciabili.

Il ciclo economico e tecnico della manipolazione

Ed è proprio su tali premesse che diventa quindi difficile sottrarsi alla sensazione che ciò che stiamo osservando nella pubblicità politica su Facebook non sia una sequenza di “incidenti di moderazione”, bensì l’emersione di una struttura d’incentivi perfettamente razionale di un mercato pubblicitario a resa immediata, dove l’attrito per entrare è minimo, la verifica identitaria è perlopiù automatizzata, i volumi e la personalizzazione sono governati da sistemi di raccomandazione e asta e i costi marginali di produzione del falso nell’era delle sintesi audio-video tendono a zero.

La meccanica di questa rendita è spietatamente semplice: da un lato, infatti, l’abbondanza di modelli generativi consente di confezionare impersonificazioni plausibili (voci e volti di senatori, della stessa addetta stampa della Casa Bianca, incollati su affermazioni di sussidi e sconti mai deliberati) e di mutarne rapidamente la veste quando un contenuto viene rimosso; dall’altro, il ciclo di revisione e delivery è dominato da automazioni ottimizzate per minimizzare falsi positivi, mentre la “punizione” economica per i violatori è raramente proporzionata alla velocità con cui gli annunci catturano clic e dati nelle prime ore di erogazione.

L’esito non può che essere, quindi, l’asimmetria: aggressori agili e adattivi, difese lente e contabili e che il set di impersonificazioni includa figure bipartisan, da Elizabeth Warren a Bernie Sanders fino alla portavoce Karoline Leavitt, dice meno della politicità dell’operazione e più della sua essenza predatoria verso platee vulnerabili, in special modo anziani e utenti a bassa alfabetizzazione digitale, cui vengono proposte finzioni di “assegni soccorso” governativi su landing page opache.

Le regole e i loro limiti nell’applicazione reale

A fronte di ciò, la piattaforma richiama il proprio corpus regolatorio: divieti di pratiche ingannevoli, frodi e impersonificazioni, obblighi di disclosure qualora si usino media modificati in annunci politici o di issue advocacy, ma la distanza tra la norma interna e la sua forza nel mondo è tutta nella capacità d’esecuzione: ciò che sulla carta è proibito diventa, nella pratica, un gioco del gatto col topo giocato a velocità di rete, in cui la deterrenza è debole e la rilevazione adattiva sconta gli stessi vincoli che affliggono ogni classificatore in contesti avversariali.

L’obbligo di trasparenza non è di per sé una garanzia di verità se la filiera dell’ad-tech continua a premiare i percorsi che massimizzano l’attenzione a prescindere dalla veridicità del messaggio e se il segnale di enforcement rimane sporadico e reversibile.

L’economia dell’attenzione e la responsabilità contrattuale

Il problema, dunque, non è solo di policy, ma di economia politica dell’attenzione. I dati infatti raccontano che nel 2024 Meta ha incassato circa 160,6 miliardi di dollari dalla sola pubblicità, si tratta senza dubbio di un ordine di grandezza che spiega perché ogni punto di attrito nel processo di approvazione o ogni filtro che riduce la reach sia percepito come “tassa di allineamento“, una rinuncia a margini in un contesto competitivo.

La piattaforma ribatte con investimenti in nuove difese tecniche e con la tesi, giuridicamente non peregrina, di non essere garante generale contro i torti dei terzi, ma quando la stessa impalcatura contrattuale promette di “prendere azioni appropriate” contro annunci fraudolenti, i tribunali iniziano a distinguere tra immunità da responsabilità editoriale e responsabilità per obbligazioni autoassunte.

Non stupisce, allora, che un giudice federale della California abbia lasciato in piedi le pretese per violazione contrattuale e buona fede, pur respingendo il profilo di negligenza, proprio perché l’impegno testuale crea un affidamento che non può essere vanificato in nome della sola automazione.

La risposta regolatoria internazionale

Intanto, fuori dagli Stati Uniti, la pressione regolatoria si fa più concreta.

Singapore, forte del nuovo Online Criminal Harms Act, ha ordinato a Meta di implementare misure rafforzate contro le impersonificazioni, fissando una scadenza e minacciando sanzioni fino a un milione di dollari, con pene giornaliere in caso di protratta inadempienza: un modello di enforcement esemplare nella sua chiarezza procedurale che prende atto della natura sistemica – e non episodica – delle frodi pubblicitarie.

Nell’Unione europea, il Digital Services Act impone alle Very Large Online Platforms l’obbligo di valutare e mitigare rischi sistemici, inclusi quelli connessi all’integrità dei processi elettorali e alla presentazione degli annunci, al contempo, il nuovo regolamento sulla trasparenza e il targeting della pubblicità politica delinea un quadro di tracciabilità e liceità del trattamento dati che rende meno accettabile l’opacità dell’ad-supply chain. Qui la responsabilità non è solo di rimuovere dopo, ma di prevenire prima, in un regime di due diligence verificabile e auditabile.

Verso una responsabilità preventiva delle piattaforme

Questa traiettoria ci costringe a un chiarimento concettuale: la pubblicità politica veicolata in ambienti ad-driven non è mero “parere” bensì un artefatto computazionale che combina profilazione, ottimizzazione in tempo reale e feedback loop comportamentali e quando questo artefatto è alimentato da contenuti sintetici che travalicano la satira per sfociare in frode, l’ordinamento deve chiedere alla piattaforma non solo di “togliere” ma di “sapere”, cioè di dispiegare procedure robuste di conoscenza del cliente (KYBC), di meccanismi di garanzia e cauzione per i settori a più alto rischio, di separazione obbligatoria dei flussi pubblicitari provenienti da soggetti già sanzionati, e di un dovere di conservazione e consultazione trasversale degli annunci (non soltanto di quelli a contenuto politico) in un archivio accessibile che consenta di individuare e studiare la recidiva. È qui che la distinzione tra editore e semplice intermediario perde gran parte della sua forza esplicativa: chi gestisce la vendita, la selezione e l’ordinamento degli annunci partecipa a un processo economico e algoritmico che produce effetti giuridici rilevanti e tali effetti devono essere governati attraverso strumenti di responsabilità preventiva, non mediante interventi tardivi e riparatori.

Tutela del consumatore e dimensione penale

Un secondo chiarimento riguarda la tutela del consumatore-cittadino.

Gli ecosistemi di disinformazione commerciale travestita da messaggio politico sfruttano tre fragilità:

  • l’ambiguità di fonti apparentemente istituzionali,
  • l’urgenza emotiva di “benefici” a scadenza
  • e la micro-segmentazione che impedisce alla comunità di controllare l’inganno.

Qui gli strumenti classici dell’authority consumeristica (obblighi informativi, clausole vessatorie, pratiche commerciali scorrette) devono ibridarsi con rimedi tipici dei servizi finanziari, come il diritto di ripensamento e i meccanismi di chargeback automatizzato su abbonamenti “nascosti”, giacché molti di questi schemi, lungi dall’essere volgarmente propagandistici, sono trappole di monetizzazione ricorsiva.

Allo stesso tempo, sul versante penale-amministrativo, la proliferazione di norme statali statunitensi che inibiscono deepfake ingannevoli in prossimità delle elezioni indica una consapevolezza crescente di un pregiudizio non solo informativo ma patrimoniale, la cui riparazione non può essere interamente delegata a cause individuali di modesta entità e alta complessità probatoria.

Verità, pubblicità e libertà d’impresa

Ne discende una tesi di fondo: la questione non è se “le piattaforme debbano scegliere la verità”, ma se accettiamo che una infrastruttura cruciale per la deliberazione pubblica operi con una metrica di successo indifferente alla veridicità dei messaggi a pagamento che veicola.

Se la risposta è negativa – e lo è per chi considera l’integrità informativa un bene pubblico – allora il punto di equilibrio tra libertà d’impresa e doveri di diligenza deve spostarsi verso modelli di “veracity-by-design”, ciò significa, tra l’altro, audit indipendenti sugli errori di classificazione degli annunci ad alto impatto civico, raccolta e condivisione di dati granulari per la ricerca in condizioni che garantiscano la privacy ma non occultino i pattern di abuso, regimi di clawback obbligatorio dei ricavi generati da campagne rimosse per inganno e barriere d’ingresso crescenti per inserzionisti che operano in aree ad alto tasso di frode o con orchestrazioni transnazionali. È quindi in gioco non la possibilità di “pubblicità politica” in quanto tale, ma la sua compatibilità con una sfera pubblica già stressata da overload informativo e da diseguaglianze di competenze digitali: per molti elettori, il confine tra annuncio e notizia è già poroso, aggiungervi il realismo ingannevole di un deepfake elettorale equivale (forse inevitabilmente) a comprimere l’autonomia critica del cittadino, piegandola alla volontà di chi orchestra la manipolazione.

Dal contratto alla responsabilità costruttiva

Una riflessione finale, giuridica prima ancora che etica, riguarda il ruolo del contratto come strumento di civilizzazione dell’algoritmo.

Se, come sembra, la giurisprudenza comincia infine a riconoscere nelle policy e nei termini d’uso delle piattaforme digitali non meri enunciati di immagine, ma veri e propri impegni giuridicamente verificabili, allora la via della responsabilità civile può coesistere con le immunità originariamente concepite per l’hosting neutro, senza per questo sconfinare nel terreno pericoloso della censura, non si tratta di esigere infallibilità, bensì di rendere onerosa l’indifferenza operativa dinanzi a rischi prevedibili e reiterati, di trasformare la trascuratezza sistemica in un costo e non in un vantaggio competitivo. Il diritto, soprattutto quello europeo e comparato, dispone già degli strumenti concettuali per affrontare tale sfida: obblighi di diligenza proporzionati alla scala, meccanismi di vigilanza progressiva, presidi di trasparenza che consentono il controllo diffuso e la ricerca scientifica sugli abusi.

In un’economia digitale in cui la pubblicità rappresenta il motore principale, “non sapere” non può più essere una strategia, né “non poter” può costituire una giustificazione, quando il margine economico della tolleranza eccede di gran lunga il danno sociale che produce e se davvero vogliamo che la rete resti un’infrastruttura di democrazia e non si trasformi nel laboratorio dell’inganno, occorre passare da una logica di moderazione reattiva a un paradigma di responsabilità costruttiva, dove la verità non sia un effetto collaterale fortuito, ma un principio architettonico del digitale e allora, forse, la domanda che dovremmo porci non è se le piattaforme possano controllare tutto, ma se possiamo ancora permetterci che non controllino nulla.

Autore del post: Agenda Digitale Fonte: https://www.agendadigitale.eu/ Continua la lettura su: https://www.agendadigitale.eu/cultura-digitale/deepfake-elettorali-su-facebook-la-frode-politica-e-modello-di-business/


Il Ministero delle Pari Opportunità finanzia il tuo corso digitale

Dipartimento Pari Opportunità

Chiedi tutte le informazioni a [email protected]

Partecipa ai corsi gratuiti

Articoli Correlati

Targeting comportamentale: così le aziende “pilotano” le nostre scelte online

La raccolta dati e il targeting comportamentale sono strumenti essenziali per le imprese, ma sollevano importanti questioni di privacy e conformità normativa. Esploriamo le metodologie di raccolta dati, le tecniche di targeting comportamentale, le implicazioni giuridiche e le sfide etiche, evidenziando la necessità di un equilibrio tra innovazione e tutela dei diritti
L’articolo Targeting comportamentale: così le aziende “pilotano” le nostre scelte online proviene da Agenda Digitale.

ChatGPT guida completa per aziende e professionisti

Molto popolare in Italia, ChatGpt continua a crescere. A maggio 2024 OpenAI ha rilasciato GPT-4o e a settembre 01. Ecco cos’è il tool di intelligenza artificiale (AI) generativa e apprendimento automatico più famoso al mondo, quali sono i vantaggi e le criticità. E come può essere utile per aziende e professionisti a cui è dedicata la versione ChatGPT Enterprise
L’articolo ChatGPT guida completa: cos’è, come si usa e cosa può fare per aziende e professionisti proviene da Agenda Digitale.