Aggiornamenti recenti Novembre 22nd, 2024 9:00 AM
Gen 25, 2023 Dario Orlandi Concept, Minacce, News, Ransomware, RSS, Scenario 0
Eran Shimony e Omer Tsarfati, ricercatori dei CyberArk Labs, hanno analizzato le caratteristiche di ChatGPT dal punto di vista della sicurezza informatica, mostrando come sia relativamente semplice utilizzarlo per creare malware piuttosto avanzato.
ChatGPT è diventato un fenomeno di massa ed è ormai noto in tutto il mondo, con implementazioni che vanno dall’automazione fino alla composizione di musica classica. Le sue caratteristiche comprendono la capacità di scrivere codice in modo veloce e intuitivo, incredibilmente vantaggioso per chiunque lavori nel settore software.
Anche le sue capacità di scrivere malware sofisticato sono però piuttosto avanzate, ed è opportuno che l’opinione pubblica e gli addetti ai lavori siano ben consci dei rischi potenziali.
ChatGPT non ha accesso a Internet e, pertanto, non può fornire risposte o codice aggiornato, ma può essere usato per creare ad esempio malware polimorfo, le cui avanzate capacità possono permettere all’attaccante di eludere le soluzioni di sicurezza e rendere difficile la mitigazione.
Il modello di apprendimento dei chatbot utilizza filtri di contenuto per limitare l’accesso a determinati tipi di contenuti e proteggere gli utenti da materiale potenzialmente pericoloso.
Chiedere a ChatGPT di iniettare uno shellcode in Explorer.Exe ha attivato il filtro e ha fatto sì che ChatGPT non eseguisse la richiesta.
Utilizzando più vincoli ed eludendo i blocchi è stato comunque possibile ottenere un codice funzionale. Utilizzando l’API, ChatGPT non sembra utilizzare il suo filtro dei contenuti, rendendo il compito più semplice rispetto alla versione web che tende frenare con richieste più complesse.
ChatGPT possiede la capacità di modificare continuamente il codice generato, creando così varianti uniche. Questo rende più difficile per i prodotti di sicurezza rilevare e contrastare i malware.
Inoltre, l’aggiunta di vincoli come la modifica dell’uso di una specifica chiamata API, rende ancora più complessa la vita dei prodotti di sicurezza. ChatGPT è in grado di creare facilmente un programma polimorfico altamente evasivo e difficile da rilevare.
Inoltre, è capace di fornire il codice necessario per creare ransomware tradizionali, compresi i moduli di iniezione di codice e di crittografia dei file. L’importanza dell’utilizzo di ChatGPT risiede nel fatto che questo avviene in un ambiente sicuro e controllato, evitando così possibili danni.
I creatori di malware sviluppano questi strumenti in un ambiente chiuso e li sottopongono a test rigorosi per garantirne le prestazioni. Il successo di questi strumenti dipende dalla loro capacità di eludere il rilevamento da parte del software di sicurezza.
Quando il malware è presente sul computer di destinazione, essendo composto da codice chiaramente dannoso, è suscettibile al rilevamento da parte di software di sicurezza.
Il metodo proposto dai due ricercatori prevede l’utilizzo dell’API di ChatGPT all’interno del malware stesso on-site. Il malware è progettato come un eseguibile che include due componenti chiave: comunicazione con il comando e controllo (C&C) e convalida ed esecuzione del codice ChatGPT.
Il malware include un interprete Python che interroga periodicamente ChatGPT alla ricerca di nuovi moduli che eseguono azioni pericolose.
Ciò consente al malware di ricevere i payload in arrivo sotto forma di testo anziché di file binari e di essere altamente elusivo nei confronti dei prodotti di rilevamento basato sulle firme.
Il malware comunicherà quindi con ChatGPT sul computer di destinazione, ma come si può essere certi che il codice ottenuto sia funzionale? Gli sviluppatori del malware devono assicurarsi che il codice ottenuto sia valido e venga eseguito come previsto.
La fase finale del processo è l’esecuzione del codice ricevuto da ChatGPT. Utilizzando funzioni native, questo malware può eseguire il codice ricevuto su diverse piattaforme. Inoltre, come misura di cautela, il malware potrebbe scegliere di eliminare il codice ricevuto, rendendo più difficile l’analisi forense.
L’uso dell’API di ChatGPT all’interno del malware può presentare sfide significative per i professionisti della sicurezza; è importante rimanere informati e vigili perché non si tratta di uno scenario ipotetico, ma di una preoccupazione molto reale.
Nov 21, 2024 0
Nov 04, 2024 0
Ott 22, 2024 0
Ott 22, 2024 0
Nov 22, 2024 0
Nov 21, 2024 0
Nov 20, 2024 0
Nov 19, 2024 0
Nov 22, 2024 0
Secondo una ricerca di F5 Labs, gli attacchi DDoS sono...Nov 21, 2024 0
Google ha annunciato di aver trovato 26 nuove...Nov 14, 2024 0
L’FBI ha lanciato un allarme: stando a un avviso...Nov 13, 2024 0
I ricercatori di Securonix hanno scoperto CRON#TRAP, una...Nov 12, 2024 0
Le minacce APT sono in aumento e in molti casi stanno...Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Mag 08, 2024 0
L’ultimo non è stato un buon anno per Microsoft:...Nov 22, 2024 0
Secondo una ricerca di F5 Labs, gli attacchi DDoS sono...Nov 21, 2024 0
Playlist e podcast sono l’esca ideale per attirare ignari...Nov 21, 2024 0
Google ha annunciato di aver trovato 26 nuove...Nov 20, 2024 0
Una campagna di spionaggio a opera di hacker cinesi ha...Nov 19, 2024 0
I ricercatori di Sekoia hanno individuato una nuova...