Aggiornamenti recenti Aprile 1st, 2025 2:38 PM
Giu 07, 2023 Marina Londei Approfondimenti, Attacchi, Hacking, Malware, RSS, Software, Vulnerabilità 0
L’IA generativa viene già usata dai cybercriminali per sviluppare tool di attacco sempre più efficaci: i modelli possono essere usati per generare email di phishing ancora più convincenti, o creare contenuti basandosi sul tone of voice aziendale per realizzare campagne di scamming online. I chatbot e gli strumenti generativi pongono inoltre numerosi rischi etici e di correttezza delle informazioni se usati in maniera scorretta.
D’altra parte, però, le nuove tecnologie possono essere usate anche dagli esperti di sicurezza e dagli sviluppatori per ridurre la complessità operativa e garantire efficienza ai processi, migliorando l’uso dei modelli. Tenable ha pubblicato un report in cui illustra quattro tool di IA generativa per ridurre la complessità dei processi di reverse engineering, debugging di codice e sicurezza delle web app, oltre ad aumentare la visibilità negli strumenti cloud-based.
Il team di ricercatori di Tenable ha usato gli LLM per sviluppare quattro tool per diverse funzioni. Il primo è G-3PO, uno strumento di reverse engineering per ridurre la complessità di analisi del codice. Il tool automatizza il flusso di reverse engineering analizzando il codice decompilato di una funzione e fornendo una spiegazione su ciò che fa il metodo, insieme ad alcuni suggerimenti sui nomi delle variabili.
Credits: SeventyFour- Depositphotos
Lo strumento è stato sviluppato per arricchire Ghidra, un framework molto utilizzato nella community di sicurezza. Ghidra si occupa di disassemblare un binario in una lista di azioni in assembly, ricostruire il flusso di esecuzione e decompilare la lista in codice sorgente C. A questo punto subentra l’analisi manuale, fase durante la quale il ricercatore inserisce commenti per spiegare le funzioni e migliorare la leggibilità del codice. G-3PO è pensato proprio per automatizzare quest’ultima fase e velocizzare l’intero processo.
Il team di ricerca di Tenable ha sviluppato anche un assistente di IA per il debugger di GNU (GDB). Il tool è pensato come un estensione di GEF e Pwndbg, i due framework più utilizzati di GDB.
L’assistente di Tenable offre un’interfaccia interattiva per esplorare il contesto di debugging e può usare le informazioni ricavate da Ghidra per arricchire la conoscenza. Gli utenti possono interagire col tool specificando domande come “Questa funzione è vulnerabile?”, o approfondire casi specifici nel flusso di esecuzione del codice.
L’assistente è in grado di individuare le vulnerabilità del codice, i casi in cui possono essere sfruttare e offrire soluzioni per risolverle. Durante ogni step di debug gli utenti possono approfondire il funzionamento del codice ponendo domande in linguaggio naturale, riducendo così la complessità e le tempistiche del debugging.
Credits: Pexels
Uno dei temi più sentiti dai team di sicurezza è la protezione delle web app: individuare le vulnerabilità insite nelle singole applicazioni è diventato molto complesso e, anche se esistono tool per la scansione delle applicazioni, non sempre è possibile individuarle tutte.
Tenable ha sviluppato BurpGPT, un’estensione di Burp Suite che permette ai ricercatori di usare GPT per analizzare il traffico HTTP. Il tool sfrutta la feature proxy di Burp Suite per intercettare il traffico e utilizza le API di OpenAI per analizzare il traffico e identificare potenziali rischi.
BurpGPT può essere usato per trovare configurazioni errate, punti di injection e vulnerabilità Cross-Site Scripting, ed è inoltre in grado di fornire possibili soluzioni per il problema. Grazie a BurpGPT i ricercatori hanno ridotto il tempo necessario al testing manuale, automatizzando numerosi test per le applicazioni web.
EscalateGPT è uno strumento pensato per identificare tutte le vulnerabilità di escalation dei privilegi nell’identity and access management (IAM) di Amazon Web Services. Le configurazioni errate nel controllo degli accessi sono una delle preoccupazioni principali per la sicurezza del cloud, e anche una delle vulnerabilità più sfruttate per ottenere accesso ai sistemi.
Il tool raccoglie tutte le policy IAM associate con gruppi e singoli utenti e le propone a GPT per individuare potenziali opportunità di escalation dei privilegi e le migliori azioni per mitigare il rischio. EscalateGPT fornisce un file JSON con le informazioni sul percorso e l’Amazon Resource Name della policy che potrebbe essere sfruttata, insieme alle migliori strategie di risoluzione.
Credits: Pixabay
La evoluzione degli LLM sta preoccupando gli esperti di sicurezza per via del vantaggio che assicura agli attaccanti. Mentre il cybercrimine sta preparando il terreno per nuovi attacchi sfruttando la potenza dell’IA generativa, i team di sicurezza possono anticipare le potenziali minacce e usare i modelli generativi a proprio vantaggio.
Mar 24, 2025 0
Mar 11, 2025 0
Mar 03, 2025 0
Feb 26, 2025 0
Apr 01, 2025 0
Mar 31, 2025 0
Mar 28, 2025 0
Mar 27, 2025 0
Apr 01, 2025 0
Se da una parte i tool di Remote Monitoring and Management...Mar 27, 2025 0
Ogni nuova tecnologia porta con sé nuovi rischi. Nel caso...Mar 21, 2025 0
Il processo di penetration testing è ormai una pratica...Mar 13, 2025 0
Il bilancio delle vittime del ransomware Medusa è...Mar 12, 2025 0
Kaspersky lancia un segnale d’allarme: registrare account...Gen 29, 2025 0
Con l’avvento dell’IA generativa...Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Apr 01, 2025 0
Se da una parte i tool di Remote Monitoring and...Mar 31, 2025 0
I ricercatori di Infoblox hanno scoperto una nuova campagna...Mar 31, 2025 0
Nel corso dell’ultima settimana, il CERT-AGID ha rilevato...Mar 28, 2025 0
Un vecchio dominio di Microsoft Stream è stato compromesso...Mar 28, 2025 0
RedCurl, gruppo hacker russo attivo almeno dal 2018 e...