Deepfake: come riconoscere i falsi video fatti con l’AI

deepfake video AI

Le Deepfake ed i video generati con l’intelligenza artificiale stanno diventando sempre più complessi da distinguere da quelli autentici. È ormai evidente a tutti, e spesso mancano anche le etichette che dovrebbero identificarli come contenuti AI.

Su TikTok, Instagram e Facebook circolano come clip divertenti, scene cariche di emozione, falsi incidenti o presunti appelli umanitari. Non sono più un fenomeno marginale: diversi centri di ricerca stimano che una parte significativa del traffico social — forse intorno al 20 per cento — sia composta da contenuti sintetici, soprattutto nei formati brevi e virali.

Riconoscerli non è impossibile, ma richiede un nuovo approccio. I segnali utili non sono più gli evidenti difetti delle prime generazioni di deepfake, bensì incoerenze visive, logiche e di contesto. Le indicazioni che seguono derivano da analisi recenti di esperti, dal MIT, da documenti tecnici pubblicati da aziende come Google e dalle linee guida europee sulla disinformazione digitale.

Questo fenomeno non si limita a spostare la nostra attenzione da contenuti autentici a intrattenimento artificiale — già potenzialmente dannoso in sé — ma può favorire truffe, manipolazioni e disinformazione, minando alla base la nostra capacità di fidarci di ciò che vediamo online.

Come riconoscere i video AI da mani, volti e corpi

Le mani restano un punto critico, anche se meno evidente rispetto a un anno fa. Le dita oggi sono quasi sempre cinque, ma possono piegarsi in modo innaturale, fondersi tra loro o cambiare forma durante il movimento. Lo stesso vale per orecchie, denti e profili del volto, soprattutto nei video con rapidi cambi di espressione.

I corpi, invece, possono “perdere” peso fisico: persone che afferrano oggetti senza applicare forza, animali che saltano senza una spinta coerente, contatti che non producono reazioni proporzionate. Sono imperfezioni difficili da notare a colpo d’occhio, ma ricorrenti.

Indizio di AIDove guardarePerché contaTest veloce
Inquadratura “troppo perfetta”inizio video, punto di ripresamanca un operatore reale“Chi avrebbe avuto la camera pronta?”
Mani deformi in movimentogesti, dita, presei modelli faticano con articolazionirallenta a 0,5x
Bocca e denti instabiliparlato, sorrisilip-sync e dettagli minutiguarda senza audio
Ombre incoerentipiedi, pareti, nasosimulazione luce complessametti pausa e confronta
Riflessi assenti/sbagliativetro, specchi, metalloerrore tipico di renderingcerca un riflesso “doppio”
Fisica irrealecontatti, cadute, saltipeso/inerzia non tornanoosserva mani-oggetti
Sfondo che “balla”scritte, pattern, bordicompressione + generazionezoom sullo sfondo
Camera che galleggiapan, zoom, trackingnon c’è intenzione umanachiediti “perché si muove?”
Audio troppo pulitovoce, ambientesintesi/denoise eccessiviascolta in cuffia
Mancanza di contestocaption, profilo, fontetipico di truffe/viral fakecerca conferme altrove

Luci e ombre nei video AI: quando il realismo non regge

Molti modelli AI gestiscono bene una singola fonte di luce, ma faticano con scenari complessi. Ombre che non seguono il movimento del soggetto, riflessi assenti su superfici lucide, illuminazione del volto che non cambia quando la testa ruota sono segnali frequenti.

Secondo analisi pubblicate dal MIT su dataset di video sintetici, l’incoerenza luminosa è uno degli indizi più stabili, perché richiede una simulazione fisica che i modelli generativi non padroneggiano del tutto.

Movimenti di camera: l’indizio di una ripresa senza operatore

Nei video autentici qualcuno decide dove puntare la camera e perché. Nei video generati dall’AI questa intenzione manca. Il risultato sono carrellate fluide ma prive di motivazione, zoom improvvisi, inquadrature “perfette” in situazioni che, nella realtà, sarebbero caotiche o imprevedibili.

Un esempio tipico sono le scene di incidenti domestici o salvataggi: la telecamera è già posizionata nel punto ideale, non trema, non viene mai abbandonata per intervenire. È una scelta narrativa plausibile per un algoritmo, meno per una persona reale.

Insomma, chiediamoci: ma questa cosa qui com’è stata filmata, da chi, come e perché? Se non c’è risposta, probabilmente è finta.

E’ anche una questione di buon senso. Davvero qualcuno si è messo a filmare un bambino salvato da animali invece di intervenire?

Contesti tecnici sbagliati: quando i dettagli tradiscono i video AI

I video AI spesso sbagliano ciò che richiede competenza specifica. Attrezzature mediche incomplete o montate in modo irrealistico, cantieri senza dispositivi di sicurezza, sport estremi praticati con equipaggiamento inutile o pericoloso.

Non serve essere specialisti: basta chiedersi se ciò che si vede sarebbe accettabile in quel contesto. In molti casi, la risposta è no.

Esempi di video finti AI sui social

Gli animali domestici sono protagonisti ideali per i video generati dall’AI. Funzionano perché suscitano empatia immediata e abbassano il livello di attenzione critica.

I segnali da osservare sono comportamenti poco realistici, tempi di reazione innaturali, interazioni fisiche che ignorano peso e spazio. Lo stesso schema vale per i video fortemente emotivi, come appelli per donazioni o storie di malattia: immagini credibili, ma dettagli contestuali vaghi o incoerenti.

I “conigli sul trampolino” ripresi da una finta videocamera di sorveglianza (TikTok, estate 2025)

È diventato virale come se fosse un filmato notturno da “ring cam”: conigli che saltano su un trampolino in giardino. Diversi fact-check e articoli hanno poi indicato che il video era interamente generato e hanno segnalato glitch di continuità (un coniglio che sparisce/fonde, forme che cambiano) e dettagli “da overlay” incoerenti.

La “bodycam” con anziana che dà da mangiare a un orso sul portico (TikTok, ottobre 2025)

Un altro caso enorme per visualizzazioni: sembra un filmato da bodycam di un agente che rimprovera una donna anziana mentre un grosso orso le annusa i piedi. People ha ricostruito che si tratta di un video ai creato con Sora e ha indicato alcune incongruenze (elementi dell’ambiente che “non tornano”, oggetti sospesi, utensile con comportamento fisico innaturale).

I “quasi cloni” dello stesso incontro con l’orso (repliche seriali, 2025)

Dopo il successo del video del portico, sono comparsi online video molto simili, con variazioni minime (altra anziana, altro orso, stessa dinamica). Questo è un pattern tipico dell’“ai slop”: un format che funziona viene replicato in serie per macinare engagement, e nel feed sembra confermare che “succede davvero”. People lo segnala esplicitamente come indizio: quando vedi più clip quasi identiche, spesso non è cronaca, è produzione sintetica.

Zelensky che “invita alla resa” (2022)

Poi ci sono anche esempi di disinformazione e truffa. Un deepfake mostrava Volodymyr Zelensky mentre chiedeva ai militari ucraini di deporre le armi. È circolato online durante le prime settimane di guerra ed è stato smentito rapidamente, ma resta un caso scuola di uso “bellico” dei video sintetici.

Finta “NVIDIA Live”: deepfake di Jensen Huang per truffa crypto (2025)

Altre iniziative sono di truffa. Su YouTube è comparsa una finta diretta presentata come evento Nvidia: in video c’era un Jensen Huang generato con ai che spingeva una “iniziativa” crypto con qr code. Secondo le ricostruzioni, il falso ha attirato un pubblico enorme ed è stato perfino promosso sopra lo stream reale.

Inserzioni su Meta con finto Rishi Sunak e rimando a “BBC” fasulla (2024)

Più di cento video-ads deepfake con il primo ministro britannico sono stati pagati e distribuiti su Facebook. Il meccanismo tipico: endorsement “autorevole”, poi click verso una pagina che imita BBC News e porta a un investimento-truffa.

Il “Tom Cruise” di TikTok (2021)

Una serie di clip ultra realistiche ha ingannato molti utenti nello scorrimento, proprio perché sembravano riprese informali da smartphone. Qui l’inganno non era una raccolta fondi o un investimento, ma la dimostrazione di quanto la tecnica potesse diventare credibile in formato social.

Etichette e watermark: cosa promettono le piattaforme e cosa manca

Le piattaforme dichiarano di voler etichet­tare con watermark i contenuti generati dall’AI e l’AI Act impone questa riconoscibilità. TikTok e Meta hanno policy in questo senso. Il limite è che l’etichettatura dipende spesso dai creator e non da controlli sistematici.

I watermark tecnici, visibili o invisibili, sono ancora parziali. Google e altre aziende stanno sperimentando firme digitali integrate nei pixel, ma funzionano solo all’interno dei rispettivi ecosistemi. Non esiste, oggi, un sistema universale di verifica accessibile agli utenti comuni.

Come riconoscere i video AI con il criterio più affidabile: il contesto

Le istituzioni europee che si occupano di contrasto alla disinformazione insistono su un punto: la tecnologia da sola non basta. Il filtro più efficace resta il giudizio umano. Chiedersi chi ha prodotto il video, con quale obiettivo e in quale contesto è spesso più utile che cercare il singolo difetto grafico.

Seguire creator riconoscibili, con una storia verificabile, riduce l’esposizione ai contenuti artificiali. Affidarsi solo al flusso automatico dei social, invece, aumenta il rischio di imbattersi in video progettati per sembrare reali senza esserlo.

Cosa aspettarsi nei prossimi mesi dai video AI

I modelli video miglioreranno ancora. Gli errori visivi diminuiranno, non scompariranno. La distinzione tra reale e sintetico diventerà sempre meno una questione tecnica e sempre più una competenza culturale.

Per chi guarda, la domanda utile non è “sembra vero?”, ma “ha senso che qualcuno abbia davvero ripreso questa scena?”. In molti casi, la risposta arriva prima dell’algoritmo.

Bibliografia essenziale

Parlamento europeo – EPRS (2025). Children and deepfakes (briefing con stime e rischi; include dati su crescita dei deepfake).

Lim, M.; Chang, A.; Intagliata, C. (17 dicembre 2025). Simple tricks to spot AI-generated videos in your social media feed. NPR / All Things Considered.

TikTok (s.d.). About AI-generated content (Centro assistenza TikTok: obblighi di etichettatura dei contenuti ai).

TikTok Newsroom (19 settembre 2023). New labels for disclosing AI-generated content.

Meta – About (5 aprile 2024; aggiorn. 1 luglio 2024). Our approach to labeling AI-generated content and manipulated media (“Made with AI”, disclosure e rilevamento).

Google DeepMind (s.d.). SynthID (watermark invisibile per contenuti generati da ai: principi e funzionamento).

C2PA – Coalition for Content Provenance and Authenticity (versione 2.3). C2PA Specifications (standard tecnico per provenienza/autenticità dei contenuti).

NIST – National Institute of Standards and Technology (s.d.). Open Media Forensics Challenge (OpenMFC) (valutazione e benchmark su rilevazione di manipolazioni in immagini e video).

Unione europea – Commissione europea (11 novembre 2025). Media literacy | Shaping Europe’s digital future (alfabetizzazione mediatica e resilienza alla disinformazione).

Unione europea – Commissione europea (2024). AI Act – Regulatory framework on AI (Regolamento (UE) 2024/1689) (quadro normativo e obblighi di trasparenza per specifici usi dell’ai).

Autore del post: Alessandro Longo Fonte: https://www.agendadigitale.eu/feed/ Continua la lettura su: https://www.agendadigitale.eu/cultura-digitale/come-riconoscere-i-falsi-video-fatti-con-intelligenza-artificiale/

Il Ministero delle Pari Opportunità finanzia il tuo corso digitale

Dipartimento Pari Opportunità

Chiedi tutte le informazioni a [email protected]

Partecipa ai corsi gratuiti

Articoli Correlati

Psycho-hacking: il lato oscuro dell’ingegneria sociale

Lo psycho-hacking è una forma avanzata e più subdola di ingegneria sociale, che sfrutta deliberatamente e strategicamente le vulnerabilità psicologiche proprie dell’essere umano per raggiungere specifici target di attacco. Conoscerne i rischi e gli obiettivi per difendersi
L’articolo Psycho-hacking: il lato oscuro dell’ingegneria sociale proviene da Agenda Digitale.

Deepfake: come funzionano e come proteggersi dalle truffe

I deepfake sfruttano l’intelligenza artificiale per creare contenuti falsi ma realistici. Le truffe sono aumentate del 3.000% dal 2022. Aziende e settore finanziario subiscono perdite milionarie. Riconoscere i segnali e adottare procedure di controllo è fondamentale per difendersi L’articolo Deepfake: come funzionano e come proteggersi dalle truffe proviene da Agenda Digitale.