Deepfake: come funzionano e come proteggersi dalle truffe

I deepfake rappresentano oggi una delle minacce più insidiose nell’ambito della sicurezza digitale. Grazie all’intelligenza artificiale generativa, chiunque può creare contenuti falsificati capaci di ingannare persone e sistemi di controllo.
L’evoluzione tecnologica che ha reso possibili i deepfake
L’Intelligenza Artificiale esiste ed è stata teorizzata già nei lontani anni Cinquanta.
Quello che da allora è cambiato, soprattutto in questi ultimi anni, è stata l’esplosione delle potenze di calcolo con processori sempre più potenti e data center sempre più grandi.
Ciò ha fatto sì che quello che era stato immaginato per l’AI è diventato possibile e oltretutto a costi accessibili per chiunque.
Cos’è un deepfake e perché è pericoloso
Questo abbassamento delle barriere d’accesso ha favorito un vertiginoso aumento dei casi di frode che sfruttano immagini, voce e profili social pubblici delle vittime per simulare identità in modo credibile.
Ma cos’è un deepfake?
Il termine “deepfake” nasce dalla fusione di “deep learning” (apprendimento profondo) e “fake” (falso). Per comprendere il significato di deepfake, è sufficiente pensare a un contenuto digitale – un video, una foto o un audio – che viene alterato tramite tecniche avanzate di intelligenza artificiale, così da sembrare autentico pur essendo completamente artificiale.
Letteralmente, si riferisce a contenuti digitali falsificati grazie all’uso avanzato di algoritmi di intelligenza artificiale, realizzati con l’uso di potenti strumenti di elaborazione, che oggi esistono e sono disponibili per tutti.
Questa definizione di deepfake ci aiuta a comprendere perché il fenomeno sia così pericoloso: la manipolazione non si limita a un semplice fotoritocco, ma è molto di più: crea scene in cui le persone possono apparire mentre pronunciano frasi mai dette o compiono azioni mai fatte. Un esempio di deepfake molto diffuso è quello dei video in cui personaggi famosi vengono fatti parlare con parole inventate, ma con una voce uguale alla loro, con risultati talmente realistici da confondere anche lo spettatore più attento, una vera e propria frode informatica.
Perché i deepfake facilitano le truffe
Software e app per deepfake sono facili da ottenere e usare, anche per chi non ha competenza tecnica. Basta una breve registrazione della voce o del volto di una persona, spesso presa dai social media, per generare cloni digitali credibili capaci di ingannare conoscenti, dipendenti o istituzioni.
L’AI è ora capace di ricostruire non solo la fisionomia ma anche l’accento, le espressioni facciali e il tono, riducendo gli indizi che potrebbero smascherare la truffa.
I motivi dell’aumento delle truffe deepfake
La disponibilità di una grande quantità di dati online (foto, video, audio) consente ai malintenzionati di “addestrare” facilmente gli algoritmi per imitare la vittima. La pervasività del web, nel quale tutti noi inseriamo contenuti, talvolta anche senza fare troppa attenzione, rende tutto questo processo fin troppo facile. Questo ci deve far meditare: troppe volte siamo noi stessi a fornire informazioni utili a chi ci vuole attaccare e lo facciamo soprattutto nell’uso dei social media. Ma non solo informazioni, anche immagini e filmati e ciò è esattamente quello che serve al malintenzionato. I deepfake permettono attacchi mirati, quali ad esempio frodi finanziarie in azienda, richieste di denaro a parenti, accesso non autorizzato a sistemi informatici, diffusione di fake news e ricatti. Chi è preso di mira da questi deep fake fatica a distinguere i contenuti reali da quelli manipolati, anche a causa dell’altissimo realismo ottenuto dall’AI generativa.
Truffe deepfake, un fenomeno in crescita esponenziale
Le frodi tramite deepfake sono aumentate del 3.000% dal 2022 al 2024, secondo l’Identity Fraud Report 2025 di Entrust, confermato anche da altri numerosi report. Tra le truffe più comuni vi sono:
- Video o messaggi vocali che imitano dirigenti aziendali per chiedere bonifici.
- Clonazione di parenti o amici per ottenere denaro.
- Promozione di investimenti truffaldini con volti di celebrità.
- Falsificazione di identità nelle video-verifiche o nei sistemi biometrici.
In sintesi, la facilità di accesso agli strumenti tecnologici, la quantità di dati disponibili e la potenza dell’intelligenza artificiale rendono oggi molto semplice creare deepfake ogni giorno più credibili, trasformandoli in uno degli strumenti più efficaci per le truffe digitali.
Qual è l’impatto delle truffe deepfake sulle aziende
Le truffe tramite deepfake hanno un impatto crescente e gravissimo sulle aziende, sia a livello economico che reputazionale, oltre a mettere in crisi molti sistemi di sicurezza interni. Sempre più imprese subiscono attacchi sofisticati che sfruttano video e audio manipolati per autorizzare fraudolentemente bonifici, ottenere accessi riservati o compromettere dati sensibili.
Vediamo quali sono i principali impatti sulle aziende:
Perdite finanziarie dirette
esempio tipico e frequente sono le truffe del CEO (“CEO fraud“) rese molto più convincenti dall’AI utilizzata in forma vocale o addirittura per creare video fake. Diverse aziende sono rimaste vittime di CEO fraud con bonifici ingenti ordinati tramite audio o video falsificati di dirigenti. Il caso più noto è la truffa ad Arup, una multinazionale di Hong Kong, con una perdita di oltre 25 milioni di dollari, ma sono sempre più frequenti episodi simili in tutto il mondo.
Compromissione della sicurezza
i deepfake consentono di eludere sistemi di autenticazione, quella basata su password, ma talvolta anche quella biometrica. Di conseguenza permettono di accedere a documenti riservati e bypassare le tradizionali procedure di controllo, mettendo a rischio l’integrità dei dati aziendali. Questo genera un impatto anche sulla privacy con il rischio di sanzioni GDPR per l’organizzazione che ne viene colpita.
Interruzioni operative e danni alla reputazione
gli attacchi possono portare a blocchi dei sistemi, perdita di fiducia tra dipendenti e clienti, oltre a danni all’immagine ed alla reputazione aziendale che possono influire sul business dell’organizzazione stessa.
Ricordiamo che qualsiasi attacco informatico che comporti un’interruzione operativa e quindi del business può causare, oltre ad una perdita di fatturato, anche la perdita di clienti verso i quali l’azienda ha creato disservizi nelle forniture e nei servizi.
Esempi e statistiche recenti sulle truffe aziendali
Secondo vari report, Il vettore d’attacco più comune è rappresentato dalle chiamate vocali contraffatte, che hanno coinvolto il 44% delle imprese. Le truffe basate su deepfake video, seppur meno diffuse (36%), non sono da sottovalutare, visto che il 5% delle aziende colpite ha subìto danni gravi, con perdite soprattutto economiche, ma non solo. Infatti in molti di questi casi, il target sono manager o addetti alle finanze, impersonificati per autorizzare movimenti di denaro o fornire informazioni riservate. Anche i sistemi di selezione del personale, quindi i dipartimenti Human Resources (HR) delle aziende, sono stati truffati da candidati che si presentavano con identità sintetiche, o tramite colloqui video in cui non era presente la persona reale. In questo caso il deep fake viene utilizzato soprattutto per veicolare un malware, per esempio attraverso l’invio di falsi curriculum che in realtà erano files malevoli contenenti virus.
Truffe con i deepfake nei settori finanziario ed assicurativo
I settori finanziario ed assicurativo, proprio perché gestiscono denaro, sono particolarmente presi di mira da diverse tipologie di attacchi e truffe, rese più facili e temibili grazie ai deep fake. Evidenziamo queste tipologie di truffe:
Frodi su polizze e risarcimenti: immagini deepfake vengono utilizzate per falsificare danni a veicoli, case o oggetti in modo da ottenere indebitamente rimborsi dalle assicurazioni, alterando le prove fotografiche o video presentate digitalmente.
Ghost broker e polizze false: siti e chatbot deepfake che, grazie all’intelligenza artificiale generativa, simulano agenzie assicurative o broker ed offrono polizze attraenti che non esistono, incassando premi dagli utenti senza erogare alcuna copertura reale. I tentativi di frode prendono di mira soprattutto il settore della RC Auto, trattandosi di un mercato estremamente ampio e frazionato tra molti operatori, molti dei quali operanti on line. Ma in realtà queste frodi riguardano potenzialmente tutti i settori del business finanziario ed assicurativo.
Frodi su pensioni e rendite
Deepfake di persone decedute vengono usati per continuare a richiedere pensioni, indennità o riscossioni assicurative, eludendo i controlli via video o tramite sistemi biometrici.
Promozione di investimenti fittizi
si utilizzano video deepfake che mostrano testimonial famosi, spesso realizzati rubando l’identità di celebrità per sponsorizzare prodotti finanziari, cripto o trading falsi. Molto significativo il caso recentemente accaduto ad opera di una rete criminale con base in Georgia che avrebbe truffato migliaia di risparmiatori in Europa e in Canada, sfruttando l’immagine di personaggi famosi per realizzare video deepfake pubblicati su Facebook e Google: a riportarlo è il Guardian, secondo cui il gruppo avrebbe promosso in modo fraudolento criptovalute e altri schemi d’investimento tramite l’utilizzo di video deepfake e false news in cui venivano rappresentati in modo ingannevole l’esperto Martin Lewis, il conduttore radiofonico Zoe Ball e lo scrittore Ben Fogle.
Il caso della maxi-frode in Georgia
Un gruppo di circa 85 operatori di call center che si faceva chiamare “skameri” (truffatori in georgiano) operava da tre palazzi di Tbilisi. Con queste tecniche i truffatori sarebbero riusciti a convincere migliaia di pensionati, dipendenti e titolari di piccole imprese a trasferire milioni di dollari dai loro conti di risparmio, ottenendo così circa 35 milioni di dollari: poco meno di 33 milioni di euro. I più colpiti dalla maxi-frode sarebbero stati i cittadini del Regno Unito, con circa un terzo delle somme. I truffatori sono riusciti a convincere migliaia di pensionati, dipendenti e titolari di piccole imprese a trasferire milioni di dollari dai loro conti di risparmio.
L’utilizzo malevolo dell’immagine di personaggi famosi per realizzare deepfake non è una novità. Negli scorsi anni diversi volti noti sono stati sfruttati loro malgrado con intenti fraudolenti: tra questi i casi dell’attore Tom Hanks, della cantante Taylor Swift, e tanti altri ancora. Anche Bankitalia aveva fatto sapere che “continuano a essere diffusi in rete video, realizzati con tecniche di deepfake, che in maniera artificiosa riproducono l’immagine e la voce del Governatore della Banca d’Italia Fabio Panetta al fine di veicolare e rendere credibili messaggi non veritieri con intenti fraudolenti”.
Perché le truffe deepfake sono efficaci
Gli audio e video deepfake sono credibili e spesso convincono anche operatori esperti o sistemi automatizzati, soprattutto nei processi 100% digitali senza presenza fisica. Inoltre, la velocità di esecuzione delle operazioni online rende difficili le verifiche immediate, mentre i sistemi antifrode basati su IA sono ancora in fase di sviluppo e adozione.
Le truffe deepfake rappresentano quindi oggi una delle minacce più serie per il settore finanziario e assicurativo, richiedendo investimenti massicci in nuovi sistemi di controllo e formazione continua per contrastarne la diffusione.
Come si contrastano queste truffe
Per contrastare queste truffe sono utili sistemi antifrode basati su IA, che sono in grado di incrociare dati, rilevando in tempo reale anomalie come – ad esempio – richieste multiple da soggetti diversi ma con dati uguali o simili, documenti falsi generati da IA o sinistri orchestrati in modo seriale.
L’IA può essere quindi utilizzata anche per contrastare le truffe realizzate con AI, perché consente di automatizzare la verifica incrociata tra banche dati pubbliche e private, riducendo drasticamente i tempi di identificazione e il rischio di errore umano. Il machine learning e l’IA generativa possono essere utilizzati per analizzare grandi volumi di dati eterogenei (sinistri, social, open data) e individuare pattern comportamentali anomali che possono segnalare tentativi di frode.
Altri casi di CEO fraud con deepfake
Molto noto è il già citato caso della CEO Fraud nella multinazionale Arup, realizzata nel 2024 con l’uso di deep fake audio e soprattutto video. Questo è certamente il caso più clamoroso, anche per la dimensione del danno, quasi 26 milioni di dollari. Ma in realtà l’uso dei deep fake per portare a termine truffe finanziarie è apparso anche in anni precedenti, seppure in forme meno sofisticate. Questi casi non sono comunque da sottovalutare, perché il minor livello di complessità li rende più facili da realizzare da parte dei criminali e comunque risultano spesso ugualmente efficaci.
Un caso di CEO fraud con attacco deepfake audio
Un attacco di tipo deepfake ha colpito nel 2019 una società energetica tedesca, con una frode pari a 243.000 dollari. Un truffatore ha utilizzato tecnologia vocale di intelligenza artificiale per impersonare il CEO della casa madre tedesca e convincere il CEO della filiale britannica a trasferire fondi verso un conto bancario fraudolento. Le truffe telefoniche non sono una novità: sono una forma di phishing che prende il nome di vishing (che è la crasi di Voice e Phishing), ma in questo caso l’attacco è stato potenziato con l’uso dell’AI e dei deep fake.
Infatti, il CEO della consociata con sede nel Regno Unito, credendo di essere al telefono con il suo capo, l’amministratore delegato della società madre tedesca, ha trasferito € 220.000 (circa $ 243.000) sul conto bancario di un malintenzionato che si era spacciato per un fornitore ungherese dell’azienda. La voce apparteneva in realtà ad un truffatore che utilizzava la tecnologia vocale IA per falsificare quella del vero amministratore delegato.
Secondo la ricostruzione dell’attacco, il CEO preso di mira ha riconosciuto persino il tipico accento tedesco nella voce del suo capo e quindi – ritenendo la telefona assolutamente credibile – ha eseguito gli ordini ricevuti. Il truffatore, che non è stato identificato, ha chiamato la compagnia nel Regno Unito tre volte: la prima per chiedere il bonifico, la seconda per fingere un rimborso, la terza per ottenere nuovi fondi.
Solo durante la terza chiamata la vittima si è insospettita, notando che il presunto rimborso non era andato a buon fine e che la chiamata era stata fatta da un numero di telefono austriaco e non ungherese. L’attacco è considerato uno dei primi casi noti di frode deepfake di rilievo in Europa, con vittime dirette tra le aziende tedesche e britanniche.
Il caso in Ferrari nel 2024
Nel 2024, anche un manager Ferrari è stato vittima di un tentativo di truffa tramite deepfake vocale: il deepfake aveva riprodotto in modo convincente la voce dell’AD di Ferrari, Benedetto Vigna. Solo grazie alla sua prontezza e ad una domanda personale mirata il manager è riuscito a non cadere nell’inganno.
La truffa del phishing vocale è cominciata con una serie di telefonate al manager preso di mira da un numero ignoto ma in apparenza provenienti dall’amministratore delegato del Cavallino rampante.
Nella telefonata realizzata con il Deepfake il manager si è sentito dire: “Preparati stiamo per fare una grossa acquisizione e devi firmare alcuni documenti. Massima discrezione”. La voce incriminata, con un leggero accento del Mezzogiorno, era del tutto simile a quella del CEO Vigna, originario di Pietrapertosa (Potenza), e nel corso della telefonata si faceva riferimento sia ad una rilevante acquisizione in Cina (“ehi, hai sentito della grande acquisizione che stiamo pianificando? Potrei aver bisogno del tuo aiuto”) sia all’urgenza di concludere alcune operazioni sul mercato valutario (“tenetevi pronti a firmare l’accordo di riservatezza che il nostro legale vi invierà il prima possibile: la Consob e la borsa di Milano sono già state informate. Tenetevi pronti e, per cortesia, discrezione massima”). La trappola non è “scattata” solo grazie alla prontezza di spirito del manager che, nonostante l’accuratezza dell’imitazione, si è insospettito e ha posto una “domanda di sicurezza” al presunto Vigna, domandandogli quale libro – giorni addietro – gli aveva suggerito di leggere. Vistosi smascherato, il truffatore ha riattaccato subito.
Quali sono le tecniche utilizzate
Gli attacchi combinano spesso audio deepfake e social engineering: i truffatori creano senso di urgenza e, talvolta, rafforzano l’inganno attraverso email o messaggi paralleli.
Nel caso della Ferrari il criminale fa leva sull’urgenza, sull’importanza dell’operazione e sulla sua riservatezza, evidentemente per convincere il manager a non parlarne con altri per fare verifiche.
Implicazioni e consigli per difendersi
Questi episodi evidenziano l’evoluzione delle truffe cyber grazie ai deepfake, in particolare ai deepfake vocali, che riescono a superare molte difese tradizionali grazie alla capacità di simulare perfettamente voce ed accento.
Anche in questo caso deve essere il “fattore umano” a contrastare queste frodi, con l’adozione di procedure di controllo nei processi di trasferimento fondi aziendali, con verifica delle richieste, con l’adozione di sistemi di autenticazione multipla e soprattutto con la formazione.
Come riconoscere i deepfake: segnali da non ignorare
Non esiste un metodo infallibile per individuare un deepfake al primo sguardo, ma ci sono diversi segnali che possono aiutare a capire se quello che si sta guardando è reale o frutto di manipolazione digitale. Alla base di ogni difesa ci deve essere il “fattore umano“: in altre parole l’uso dell’intelligenza artificiale non ci deve far mai dimenticare che abbiamo anche un’intelligenza umana, che può contrastare e sconfiggere l’intelligenza artificiale! I deepfake stanno diventando una seria minaccia per la privacy, la sicurezza, il patrimonio e la reputazione delle persone. Con la loro diffusione ed il loro utilizzo, che sono in continua crescita, è fondamentale sviluppare una maggiore consapevolezza per imparare a riconoscere l’inganno.
A quali segnali bisogna prestare attenzione?
Gli aspetti da valutare sono diversi, ma da ciascuno di essi possiamo trarre indizi utili, se prestiamo la dovuta attenzione e, soprattutto, non ci facciamo prendere dalla fretta (la nostra fretta e superficialità sono i migliori alleati di chi ci vuole ingannare e dei cyber criminali in generale, non dimentichiamolo mai!). Vediamo ora quali sono i punti a cui dovremmo prestare attenzione, perché quasi sempre un deep fake, anche se ben realizzato, ha qualche incongruenza che ci può aiutare a capire se quello che stiamo guardando è reale o piuttosto è frutto di una manipolazione digitale. Quindi potremo riuscire a smascherarlo ed a non cascarci.
Aspetti visivi e possibili incongruenze
Uno dei primi aspetti su cui concentrarsi è il viso: i deepfake, pur essendo sempre più sofisticati, spesso mostrano delle incongruenze nelle espressioni facciali o nei movimenti. Ad esempio, una persona potrebbe sbattere le palpebre troppo lentamente o, al contrario, troppo spesso e in modo innaturale. Le sopracciglia, un altro elemento difficile da riprodurre fedelmente, potrebbero non integrarsi bene con il resto del viso, e quindi apparire disconnesse o artificiose. La pelle, inoltre, potrebbe apparire eccessivamente liscia, senza imperfezioni, oppure con troppe rughe rispetto alla realtà. Attenzione anche alla sincronizzazione delle labbra: le parole potrebbero non essere perfettamente sincronizzate con il movimento delle labbra. Le espressioni facciali: potrebbero non sembrare fluide o potrebbero non corrispondere alle emozioni espresse nel discorso. I movimenti oculari: gli occhi potrebbero non lampeggiare in modo naturale o potrebbero muoversi in modo strano.
Anomalie nell’audio e nella voce
L’audio è un altro elemento da tenere in considerazione: ad esempio, se la voce di una persona sembra troppo acuta o grave rispetto alla sua apparenza fisica, potrebbe trattarsi di deepfake. Anche la sincronia tra il movimento delle labbra e le parole pronunciate può rivelare una manipolazione, specialmente se c’è un leggero ritardo o una mancata corrispondenza.
Una caratteristica tipica dei deepfake è la manipolazione dell’audio, ma anche in questo aspetto possono presentarsi delle discrepanze, quali, per esempio:
- intonazione e accenti: l’accento potrebbe non sembrare naturale o potrebbe variare nel corso del video;
- qualità del suono: l’audio potrebbe suonare robotico o metallico, con variazioni innaturali nel tono;
- silenzio innaturale: pause o silenzi che possono sembrare fuori luogo o innaturali.
Illuminazione e riflessi
Uno dei punti deboli dei deepfake è la gestione della luce: l’illuminazione spesso non viene riprodotta in modo naturale e i riflessi sugli oggetti – come occhiali o superfici lucide – possono apparire errati o mancanti. Nel delicato gioco tra illuminazione ed ombre, le ombre potrebbero non corrispondere all’illuminazione del resto della scena. Se i riflessi non corrispondono alla posizione delle fonti luminose o se l’ombra sembrasse “fuori luogo”, potrebbe trattarsi di un deepfake. Esaminare anche l’immagine di sfondo, che potrebbe non essere coerente con la posizione o potrebbe sembrare distorta. L’occhio umano è molto sensibile ai riflessi di luce, quindi anomalie di questo tipo possono essere un forte indizio di manipolazione digitale. Un punto che in genere i deep fake fanno fatica a trattare in modo perfetto sono i dettagli del volto: parti del viso “periferiche” come le orecchie o i capelli potrebbero sembrare sfocate o mal definite.
Elementi testuali
Oltre ai video e all’audio, anche i deepfake testuali possono essere ingannevoli; in questo caso, è importante prestare attenzione alla forma del messaggio ed alle parole che sentiamo. Errori di ortografia o frasi mal costruite possono indicare che il testo è stato generato da un’intelligenza artificiale: talvolta questi deep fake sono realizzati in modo poco accurato, perché chi li realizza ritiene che una qualità anche non elevata sia sufficiente ad ingannare le potenziali vittime.
In conclusione: non dobbiamo mai abbassare l’attenzione e soprattutto queste minacce oggi ci obbligano a non dare nulla per scontato.
Autore del post: Giorgio Sbaraglia Fonte: https://www.agendadigitale.eu/feed/ Continua la lettura su: https://www.agendadigitale.eu/sicurezza/deepfake-come-funzionano-e-come-proteggersi-dalle-truffe/Il Ministero delle Pari Opportunità finanzia il tuo corso digitale
Chiedi tutte le informazioni a [email protected] |

