La gente sta già cercando di far scrivere malware a ChatGPT

gettyimages-1245391800.jpg

Il chatbot AI di ChatGPT ha creato parecchia eccitazione nel poco tempo in cui è stato disponibile e ora sembra che alcuni lo abbiano arruolato nel tentativo di generare codice maligno.

ChatGPT è uno strumento di elaborazione del linguaggio naturale basato sull'IA che interagisce con gli utenti in modo conversazionale e simile all'essere umano. Tra le altre cose, può essere utilizzato per aiutare con compiti come la composizione di e-mail, saggi e codice.

Inoltre: Cos'è ChatGPT e perché è importante? Ciò che devi sapere

Lo strumento di chatbot è stato rilasciato dal laboratorio di ricerca sull'intelligenza artificiale OpenAI a novembre e ha generato un grande interesse e discussioni su come l'IA si sta sviluppando e su come potrebbe essere utilizzata in futuro.

Ma come qualsiasi altro strumento, se usato nelle mani sbagliate potrebbe essere utilizzato per scopi malvagi; e i ricercatori di sicurezza informatica di Check Point dicono che gli utenti delle comunità di hacking sotterranee stanno già sperimentando come ChatGPT potrebbe essere utilizzato per facilitare attacchi informatici e supportare operazioni maliziose.

"Gli attori minacciosi con una conoscenza tecnica molto bassa - fino a zero conoscenza tecnica - potrebbero essere in grado di creare strumenti maligni. Ciò potrebbe anche rendere le operazioni quotidiane dei criminali informatici sofisticati molto più efficienti e facili - come la creazione di diverse parti della catena di infezione", ha dichiarato Sergey Shykevich, responsabile del gruppo di intelligence sulla minaccia presso Check Point, a ZDNET.

I termini di servizio di OpenAI vietano esplicitamente la generazione di malware, che definisce come "contenuto che tenta di generare ransomware, keylogger, virus o altri software volti a infliggere un certo grado di danno". Vieta inoltre tentativi di creare spam, così come utilizzi mirati alla cybercriminalità.

Tuttavia, l'analisi dell'attività in diversi grandi forum di hacking sotterranei suggerisce che i criminali informatici stanno già usando ChatGPT per sviluppare strumenti maligni - e in alcuni casi, sta già consentendo ai criminali informatici di basso livello senza competenze di sviluppo o codifica di creare malware.

Inoltre: Il futuro spaventoso di internet: Come la tecnologia di domani rappresenterà minacce alla sicurezza informatica ancora più grandi

In un thread del forum che appare verso la fine di dicembre, l'autore ha descritto come stava usando ChatGPT per ricreare ceppi di malware e le tecniche descritte nelle pubblicazioni e nei resoconti di ricerca sui malware comuni.

In questo modo, sono stati in grado di creare un malware "information stealer" basato su Python che cerca file comuni, tra cui documenti Microsoft Office, PDF e immagini, li copia e li carica su un server FTP (File Transfer Protocol).

Lo stesso utente ha dimostrato come ha utilizzato ChatGPT per creare malware basati su Java, i quali possono essere sfruttati tramite PowerShell per scaricare e far eseguire covertamente altri malware sui sistemi infetti.

Gli esperti ricordano che l'utente del forum che ha creato questi thread sembra essere "orientato alla tecnologia" e ha condiviso i post per mostrare ai criminali informatici meno competenti come utilizzare gli strumenti di Intelligenza Artificiale a fini malintenzionati, fornendo esempi reali di come possano essere utilizzati.

Un utente ha pubblicato uno script Python, affermando che fosse il primo script che abbia mai creato. Dopo aver discusso con un altro membro del forum, hanno dichiarato che ChatGPT li ha aiutati a crearlo.

L'analisi dello script suggerisce che sia progettato per crittografare e decrittografare file, qualcosa che con un po' di lavoro, potrebbe trasformarsi in ransomware, portando potenzialmente alla prospettiva che i criminali informatici di basso livello sviluppino e distribuiscano le proprie campagne estorsive.

"Tutti i codici sopracitati possono certamente essere usati in modo benigno. Tuttavia, questo script può essere facilmente modificato per criptare completamente la macchina di qualcuno senza alcuna interazione dell'utente. Ad esempio, potrebbe potenzialmente trasformare il codice in ransomware se vengono risolti i problemi di script e sintassi," ha detto Check Point.

"Saranno necessari alcuni miglioramenti nel codice e nella sintassi, ma concettualmente, quando operativa, questa tecnologia potrebbe compiere azioni simili a quelle del ransomware", ha dichiarato Shykevich.

Inoltre: Cybersecurity: Queste sono le nuove cose di cui preoccuparsi nel 2023

Ma non è solo lo sviluppo di malware che i criminali informatici stanno sperimentando con ChatGPT; nella vigilia di Capodanno, un membro del forum clandestino ha pubblicato un thread dimostrando come avesse utilizzato lo strumento per creare script in grado di gestire un mercato dark web automatizzato per comprare e vendere dettagli di account rubati, informazioni sulla carta di credito, malware e altro ancora.

Il criminale informatico ha persino mostrato un codice generato utilizzando un'API di terze parti per ottenere prezzi aggiornati delle criptovalute Monero, Bitcoin ed Ethereum come parte di un sistema di pagamento per un mercato sul dark web.

È difficile capire se l'attività informatica malevola generata con l'aiuto di ChatGPT funziona attivamente nella natura, perché, come spiega Sykevich, "dal punto di vista tecnico è estremamente difficile sapere se un malware specifico è stato scritto utilizzando ChatGPT o meno".

Ma con l'interesse per ChatGPT e altri strumenti AI in crescita, attireranno l'attenzione dei cyber criminali e dei truffatori che cercano di sfruttare la tecnologia per condurre campagne maliziose a basso costo e con il minimo sforzo necessario. ZDNET ha contattato OpenAI per un commento, ma al momento della pubblicazione non ha ancora ricevuto una risposta.

Articoli correlati

Visualizza di più >>