Che cos’è il vibe-hacking e perché l’intelligenza artificiale può renderlo più diffuso

Uno degli effetti collaterali dell’intelligenza artificiale è quello di mettere in mano a gruppi di hacker gli strumenti necessari per creare minacce sofisticate. È il rovescio della medaglia e, anche se sembra paradossale, l’impegno congiunto delle aziende che creano modelli di IA può lenire l’effetto di simili evenienze.
Anthropic, l’azienda che sviluppa Claude AI, nel rapporto Threat Intelligence del mese di agosto ha reso noto di avere intercettato e, successivamente bloccato, diverse incursioni criminali ingegnerizzate mediante il proprio modello di IA generativa. Tecniche di vibe-hacking usate soprattutto per mettere nel mirino aziende americane e altre tecniche a supporto delle attività fraudolente di lavoratori nordcoreani utili per ottenere o conservare posti di lavoro presso grandi aziende statunitensi.
Il vibe-hacking
Il vibe-hacking è una forma di ingegneria sociale avanzata che manipola le emozioni delle persone per influenzarne le decisioni e i comportamenti. Le applicazioni pratiche sono molte, ma principalmente contemplano la diffusione di contenuti mirati, soprattutto testi e video, per alterare l’umore di chi li consuma e ridurne le capacità critiche.
Il vibe-hacking viene usato anche per il targeting comportamentale affinché, esaminando le abitudini digitali delle vittime, queste siano raggiunte da messaggi o contenuti particolareggiati proprio nei momenti di maggiore vulnerabilità.
Sulle reti sociali, inoltre, dei bot influenzano gli algoritmi per fare in modo che contenuti, ad alto valore ideologico o disinformativo, risultino più visibili nei feed degli utenti. Le tecniche di vibe-hacking implementate grazie a Claude AI hanno permesso a un gruppo di hacker di esfiltrare dati da 17 diverse organizzazioni americane, cercando poi di estorcere pagamenti fino a 500mila dollari per evitarne la pubblicazione online.
Il caso nordcoreano
Nello stesso rapporto, Anthropic svela che il modello di IA è stato usato da oltre 500 lavoratori nordcoreani per manipolare le rispettive conoscenze tecniche e linguistiche in modo da ottenere, o conservare, impieghi presso diverse aziende americane. Anthropic non fornisce numeri precisi ma fa sapere che alcune di queste imprese fanno parte delle 500 maggiori aziende americane per fatturato.
Nello specifico, i nordcoreani hanno usato Claude AI per vestire i panni di programmatori esperti e di millantare conoscenze linguistiche che non possedevano, superando così colloqui di lavoro a distanza. Il denaro incamerato veniva poi dirottato verso il regime e le posizioni professionali acquisite servivano anche per raccogliere informazioni e alimentare lo spionaggio industriale.
I precedenti
I cyber criminali sono ormai soliti fare uso dell’intelligenza artificiale per aumentare sia il numero sia la qualità delle minacce. I casi sono numerosi e non hanno risparmiato neppure l’Italia: a luglio del 2024, grazie a tecniche di deepfake, dei criminal hacker hanno impersonato la voce dell’ad della Ferrari, Benedetto Vigna, per estorcere denaro all’azienda.
Tornando agli usi più recenti, lo scorso mese di giugno OpenAI (che sviluppa ChatGpt) ha bloccato diversi account legati alla frode dei lavoratori nordcoreani. Non è dato sapere se i cybercriminali hanno fatto ricorso a Claude AI solo successivamente, oppure hanno sempre agito usando più Large Language Model contemporaneamente. Questo, però, non sposta l’entità del problema. Prima che i LLM si diffondessero su vasta scala, simili attività fraudolente sarebbero state impensabili.
La cura è uno sforzo congiunto
I LLM, i “motori” che alimentano le IA generative come Claude AI, ChatGpt, Perplexity e le altre, sono strumenti che contribuiscono ai successi del cyber crimine, così come potenziano le capacità di chi ne fa un uso più etico e accorto.
Il 27 agosto Anthropic ha annunciato la nascita del National Security and Public Sector Advisory Council, organo di cui fanno parte anche ex senatori e l’ex vicedirettore della CIA David Cohen, che si prefigge lo scopo di effettuare ricerche approfondite e rafforzare le difese contro gli usi scorretti delle IA, riconoscendo peraltro la necessità di contrastare l’uso delle stesse da parte del cyber crimine. Oltre a promuovere standard rigorosi in materia di cybersecurity, il National Security and Public Sector Advisory Council fornisce anche consulenza per l’integrazione delle IA nelle operazioni governative.
Le soluzioni di cybersecurity sposano sempre di più l’uso delle IA anche a scopo predittivo, per scovare le potenziali minacce prima che vadano a segno. Sul fronte opposto, i cyber criminali vi fanno ricorso per anticipare e superare le capacità difensive delle potenziali vittime. Per rispondere alle offensive del cyber crimine potenziate dalle IA, occorrono sistemi di difesa a loro volta potenziati dalle IA, e soprattutto occorre una stretta collaborazione tra sviluppatori e produttori di soluzioni e servizi IA e le autorità.
In questa direzione si muovono anche le direttive nazionali e sovranazionali. In Europa la Network and Information Security Directive 2 (NIS2) e negli Usa un corpus di leggi, ordini esecutivi e framework, obbligano le imprese a rendere noti gli incidenti di cybersecurity e a collaborare con le autorità competenti. Uno degli obiettivi è quello di instaurare una rete di cooperazioni internazionali per contrastare il cyber crimine.
Autore del post: La Repubblica Tecnologia Fonte: https://www.repubblica.it/rss/tecnologia/rss2.0.xml Continua la lettura su: https://www.repubblica.it/tecnologia/2025/08/28/news/che_cose_e_il_vibe-hacking_e_perche_l_intelligenza_artificiale_puo_renderlo_piu_diffuso-424812797/?rss
Il Ministero delle Pari Opportunità finanzia il tuo corso digitale
Chiedi tutte le informazioni a [email protected] |

