ChatGPT crea virus che sfuggono ai controlli

Due ingegneri informatici, David Zollikofer dell’ETH di Zurigo e Benjamin Zimmerman dell’Università Statale dell’Ohio, hanno deciso di “giocare” un po’ con ChatGPT per dimostrare come i modelli linguistici di grandi dimensioni (Large Language Models o, più semplicemente, LLM) possano essere sfruttati dai malware per diffondersi e sfuggire alla rilevazione. I due studiosi, infatti, coadiuvati dal software di intelligenza artificiale, sono facilmente riusciti a creare un virus che, una volta introdotto nel computer di una potenziale vittima, per mezzo di a una e-mail ingannevole, è in grado di utilizzare il noto chatbot di OpenAI per riscrivere autonomamente il proprio codice e inoltrare il file modificato ad altri indirizzi e-mail contenuti nella rubrica del malcapitato.

Come ChatGPT riscrive il codice

Come avviene tutto ciò è presto detto: il programma mantiene di volta in volta la stessa struttura semantica, ma riscrive il proprio codice cambiandone una parte variabile e alcuni elementi di logica nel testo, un espediente trovato dall’IA per evitare i controlli antivirus. In una seconda fase, ChatGPT esamina le email ricevute di recente dal malcapitato e genera risposte contestuali che includono il malware come allegato apparentemente innocuo, aumentandone così le possibilità di diffusione. Questa tecnica è stata chiamata malware metamorfico e consente al virus di passare inosservato anche dopo che la sua versione originale è stata identificata.

Non tutto però è filato liscio – e meno male, verrebbe da aggiungere – nel truffaldino test dei due informatici. Alcune delle modifiche prodotte possono infatti far smettere di funzionare il virus rendendolo innocuo. Ciò nonostante, Zollikofer e Zimmerman ritengono che variando alcuni parametri, il malware possa riuscire a replicarsi lo stesso con successo.

Come funziona l’approccio contestuale

Sorvolando sul possibile problema, la seconda fase del test ha previsto che l’intelligenza artificiale venisse testata sul diffuso programma Outlook (e dunque non su Gmail e su altri servizi di posta elettronica online) al fine di leggere le e-mail più recenti e di creare risposte che apparissero come pertinenti e autentiche. Per esempio, trovando un invito a una festa di compleanno, l’IA rispondeva accettandolo e allegando il virus, descrivendolo come una playlist di musica per la festa. Questo approccio contestuale aumenta le probabilità che l’utente apra l’allegato, pensando che sia un file ricevuto da un conoscente. Tale metodo, d’altronde, sfrutta la capacità di ChatGPT di generare testi che sembrano scritti da un essere umano, rendendo il tranello ancora più insidioso.

L’AI per contrastare gli attacchi informatici

Il lavoro dei due informatici è stato commentato dal loro collega Alan Woodward, professore presso l’Università del Surrey (Regno Unito), il quale ha espresso preoccupazione per l’uso potenziale dei LLM in attività dannose, evidenziando come questa stessa tecnologia possa essere migliorata e indirizzata a fini inversi, ossia per prevenire attacchi informatici del genere.

Ed è stato lo stesso Zollikofer a concordare sul fatto che l’IA possa essere utilizzata per contrastare gli abusi in maniera sempre più efficace, sottolineando che lo scopo dello studio è proprio quello di analizzare in che modo una minaccia possa essere generata.

In questo modo, infatti, è stato possibile studiare le tecniche impiegate dal chatbot per diffondersi, facilitando allo stesso tempo la ricerca delle contromisure, così che i modelli linguistici di grandi dimensioni possano essere presto usati ai fini della sicurezza.

Continua la lettura su: https://www.focus.it/tecnologia/innovazione/chatgpt-puo-creare-virus-che-sfuggono-ai-normali-controlli Autore del post: Focus Tecnologia Fonte:

Il Ministero delle Pari Opportunità finanzia il tuo corso digitale

Dipartimento Pari Opportunità

Chiedi tutte le informazioni a genitoridigitali@koinokalo.it

Partecipa ai corsi gratuiti

Articoli Correlati

AI Act e Gdpr: come si integrano le norme sulla protezione dei dati

L’AI Act regolamenta in maniera organica lo sviluppo, l’immissione sul mercato e l’uso dei sistemi di intelligenza artificiale. La disciplina della protezione dei dati personali resta però primariamente affidata al GDPR. In questo quadro normativo, la compliance in materia di data protection nel contesto dell’intelligenza artificiale presenta molteplici e sfidanti questioni interpretative
L’articolo AI Act e Gdpr: come si integrano le norme sulla protezione dei dati proviene da Agenda Digitale.

L’illusione della sicurezza: i pericoli nascosti dell’AI nella cybersecurity

Negli ultimi anni, l’AI ha rivoluzionato molti settori, inclusa la cybersecurity. Tuttavia, affidarsi a sistemi di AI per la sicurezza informatica comporta rischi significativi. Esploriamo lo stato dell’arte delle applicazioni dell’AI nella cybersecurity, evidenziando i potenziali pericoli e i limiti di questi sistemi avanzati
L’articolo L’illusione della sicurezza: i pericoli nascosti dell’AI nella cybersecurity proviene da Agenda Digitale.

[mwai_chatbot id="chatbot-h9et3q"]