Aggiornamenti recenti Novembre 21st, 2024 2:11 PM
Apr 02, 2024 Marina Londei Approfondimenti, Attacchi, Hacking, RSS 0
L’intelligenza artificiale sta cambiando il nostro modo di lavorare e fare business, ma gli effetti di questa rivoluzione tecnologica stanno emergendo anche nel mondo del cybercrimine. Ci sono già esempi di attacchi automatizzati sferrati con l’aiuto dell’IA, soprattutto di phishing, e di nuove tecniche più avanzate, ma c’è un’altra tendenza che sta preoccupando i professionisti di sicurezza: col giusto prompt i chatbot di IA possono rendere chiunque un cybercriminale.
I cosiddetti “script kiddies”, ovvero coloro che usano programmi ideati da altri per ottenere notorietà, non sono una novità degli ultimi anni, ma stanno trovando terreno fertile nell’uso dell’intelligenza artificiale per generare malware e sferrare attacchi che prima non sarebbero stati in grado di eseguire. Queste persone hanno poca o nessuna esperienza nello sviluppo di programmi, ma sono incoscienti e per questo pericolosi, perché non sono in grado di comprendere le reali conseguenze delle loro azioni.
In una chiacchierata con Len Noe, technical evangelist di CyberArk e white hat hacker, abbiamo sperimentato la facilità con cui è possibile eliminare le restrizioni di un chatbot sugli output e ottenere tutte le informazioni necessarie a eseguire attacchi.
Noe ha utilizzato un hack conosciuto come DAN-Do Anything Now, il quale consiste in un prompt in grado di effettuare il jailbreak di ChatGPT per superare le limitazioni imposte dalle linee guida e le policy di OpenAI, esplorando quindi anche casi d’uso controversi.
Il prompt indica al chatbot di agire in modalità DAN, ignorando le policy di sicurezza e diventando di fatto un’IA “libera” e capace di fare tutto ciò che è stato proibito al ChatGPT originale. Dopo aver inviato il prompt, è possibile chiedere al chatbot indicazioni precise su come realizzare gli attacchi.
Gli exploit di tiopo DAN vengono costantemente monitorati dalle aziende che forniscono i servizi di chat basati su AI e la stessa OpenAI è molto attiva nel bloccare un DAN exploit appena ne viene a conoscenza, ma gli hacker continuano a trovare nuovi prompt per attivare questa modalità e sembra che non esista un metodo “universale” per evitare l’evasione dai sistemi di controllo. Quindi per sfruttare un exploit DAN bisogna essere ben inseriti nel giro di chi li crea, ma per il momento non c’è mai stato un periodo prolungato senza questo tipo di scappatoia a disposizione.
Negli esempi illustrati da Noe, ChatGPT ha condiviso istruzioni step-by-step su quali tool scaricare, quali comandi eseguire e in quale ordine per avere successo nell’hack. Tra gli attacchi presentati c’è la creazione di una reverse connection verso un dispositivo Android e lo sviluppo di un malware integrato in Discord in grado di ottenere l’host name del dispositivo della vittima.
Nonostante non siano particolarmente avanzati, questi attacchi non sono il tipo che ci si aspetterebbe dagli script kiddies, ma con l’IA la superficie di attacco è aumentata ed è evoluta. “Tutti questi script kiddies e novizi stanno avendo accesso a tool sofisticati che normalmente sarebbero riservati a hacker di elite o a gruppi nation-state sponsored” afferma Noe.
I test di Noe hanno dimostrato che non serve alcuna conoscenza tecnica riguardo gli strumenti da usare, i comandi da eseguire o il sistema che si vuole colpire: basta solo essere consapevoli dell’obiettivo dell’attacco. Se prima gli aspiranti black hat dovevano perlomeno cercare i tool giusti e documentarsi per comprenderne il funzionamento, con l’IA questi passaggi vengono meno: gli utenti seguono gli step indicati dal chatbot e sono in grado di completare l’attacco.
Poter comunicare in linguaggio naturale con l’intelligenza artificiale significa essere in grado di svolgere determinate attività esprimendosi in molti modi diversi e questo complica notevolmente il lavoro dei professionisti di sicurezza, in particolare di chi si occupa di limitare i rischi degli LLM.
L’hack DAN è proprio una dimostrazione del fatto che chiunque sia abile con le parole può manipolare l’IA a proprio vantaggio e diventare un cybercriminale, senza conoscenze tecniche pregresse. Noe sottolinea che basta avere una comprensione base della struttura dell’attacco e le conoscenze di base si possono apprendere facilmente online. “Potrebbero volerci tre o quattro tentativi per scrivere il prompt giusto, ma la risposta è già lì”.
La democratizzazione del cybercrimine è un grosso problema per gli esperti di cybersecurity: gli attacchi realizzati col supporto dell’IA non sono pericolosi in sé, ma creano molto rumore che complica le attività dei SoC. I nuovi attaccanti, avendo scarse conoscenze di programmazione, non riescono a perpetrare ulteriormente gli attacchi ma generano comunque molti falsi positivi che possono distogliere l’attenzione dagli attacchi davvero pericolosi per le aziende.
Noe afferma che, per far fronte a questi attacchi, è fondamentale che i professionisti di sicurezza sviluppino conoscenze approfondite sugli strumenti di IA per comprendere qual è la reale portata delle feature a disposizione degli utenti. In quest’ottica, implementare misure per il controllo degli accessi e dell’identità e seguire il principio del zero trust diventano attività essenziali per proteggere le organizzazioni.
Non dimentichiamo però che l’intelligenza artificiale può diventare un importante alleato della cybersecurity, migliorando le attività di analisi, in particolare di behavioral analytics, che consentono di identificare in tempi brevi tutte le attività sospette, assegnargli la giusta priorità e rispondere in modo efficiente ai nuovi tentativi di attacco.
Nov 21, 2024 0
Nov 04, 2024 0
Ott 22, 2024 0
Ott 22, 2024 0
Nov 20, 2024 0
Nov 19, 2024 0
Nov 18, 2024 0
Nov 15, 2024 0
Nov 21, 2024 0
Google ha annunciato di aver trovato 26 nuove...Nov 14, 2024 0
L’FBI ha lanciato un allarme: stando a un avviso...Nov 13, 2024 0
I ricercatori di Securonix hanno scoperto CRON#TRAP, una...Nov 12, 2024 0
Le minacce APT sono in aumento e in molti casi stanno...Nov 11, 2024 0
Kaspersky ha collaborato a Synergia II, operazione...Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Mag 08, 2024 0
L’ultimo non è stato un buon anno per Microsoft:...Nov 21, 2024 0
Google ha annunciato di aver trovato 26 nuove...Nov 20, 2024 0
Una campagna di spionaggio a opera di hacker cinesi ha...Nov 19, 2024 0
I ricercatori di Sekoia hanno individuato una nuova...Nov 18, 2024 0
István Márton, ricercatore di Wordfence, ha individuato...Nov 15, 2024 0
La sicurezza dei toolkit ML continua a essere minacciata...