Aggiornamenti recenti Aprile 2nd, 2025 10:39 AM
Apr 02, 2024 Marina Londei Approfondimenti, Attacchi, Hacking, RSS 0
L’intelligenza artificiale sta cambiando il nostro modo di lavorare e fare business, ma gli effetti di questa rivoluzione tecnologica stanno emergendo anche nel mondo del cybercrimine. Ci sono già esempi di attacchi automatizzati sferrati con l’aiuto dell’IA, soprattutto di phishing, e di nuove tecniche più avanzate, ma c’è un’altra tendenza che sta preoccupando i professionisti di sicurezza: col giusto prompt i chatbot di IA possono rendere chiunque un cybercriminale.
I cosiddetti “script kiddies”, ovvero coloro che usano programmi ideati da altri per ottenere notorietà, non sono una novità degli ultimi anni, ma stanno trovando terreno fertile nell’uso dell’intelligenza artificiale per generare malware e sferrare attacchi che prima non sarebbero stati in grado di eseguire. Queste persone hanno poca o nessuna esperienza nello sviluppo di programmi, ma sono incoscienti e per questo pericolosi, perché non sono in grado di comprendere le reali conseguenze delle loro azioni.
In una chiacchierata con Len Noe, technical evangelist di CyberArk e white hat hacker, abbiamo sperimentato la facilità con cui è possibile eliminare le restrizioni di un chatbot sugli output e ottenere tutte le informazioni necessarie a eseguire attacchi.
Noe ha utilizzato un hack conosciuto come DAN-Do Anything Now, il quale consiste in un prompt in grado di effettuare il jailbreak di ChatGPT per superare le limitazioni imposte dalle linee guida e le policy di OpenAI, esplorando quindi anche casi d’uso controversi.
Il prompt indica al chatbot di agire in modalità DAN, ignorando le policy di sicurezza e diventando di fatto un’IA “libera” e capace di fare tutto ciò che è stato proibito al ChatGPT originale. Dopo aver inviato il prompt, è possibile chiedere al chatbot indicazioni precise su come realizzare gli attacchi.
Gli exploit di tiopo DAN vengono costantemente monitorati dalle aziende che forniscono i servizi di chat basati su AI e la stessa OpenAI è molto attiva nel bloccare un DAN exploit appena ne viene a conoscenza, ma gli hacker continuano a trovare nuovi prompt per attivare questa modalità e sembra che non esista un metodo “universale” per evitare l’evasione dai sistemi di controllo. Quindi per sfruttare un exploit DAN bisogna essere ben inseriti nel giro di chi li crea, ma per il momento non c’è mai stato un periodo prolungato senza questo tipo di scappatoia a disposizione.
Negli esempi illustrati da Noe, ChatGPT ha condiviso istruzioni step-by-step su quali tool scaricare, quali comandi eseguire e in quale ordine per avere successo nell’hack. Tra gli attacchi presentati c’è la creazione di una reverse connection verso un dispositivo Android e lo sviluppo di un malware integrato in Discord in grado di ottenere l’host name del dispositivo della vittima.
Nonostante non siano particolarmente avanzati, questi attacchi non sono il tipo che ci si aspetterebbe dagli script kiddies, ma con l’IA la superficie di attacco è aumentata ed è evoluta. “Tutti questi script kiddies e novizi stanno avendo accesso a tool sofisticati che normalmente sarebbero riservati a hacker di elite o a gruppi nation-state sponsored” afferma Noe.
I test di Noe hanno dimostrato che non serve alcuna conoscenza tecnica riguardo gli strumenti da usare, i comandi da eseguire o il sistema che si vuole colpire: basta solo essere consapevoli dell’obiettivo dell’attacco. Se prima gli aspiranti black hat dovevano perlomeno cercare i tool giusti e documentarsi per comprenderne il funzionamento, con l’IA questi passaggi vengono meno: gli utenti seguono gli step indicati dal chatbot e sono in grado di completare l’attacco.
Pixabay
Poter comunicare in linguaggio naturale con l’intelligenza artificiale significa essere in grado di svolgere determinate attività esprimendosi in molti modi diversi e questo complica notevolmente il lavoro dei professionisti di sicurezza, in particolare di chi si occupa di limitare i rischi degli LLM.
L’hack DAN è proprio una dimostrazione del fatto che chiunque sia abile con le parole può manipolare l’IA a proprio vantaggio e diventare un cybercriminale, senza conoscenze tecniche pregresse. Noe sottolinea che basta avere una comprensione base della struttura dell’attacco e le conoscenze di base si possono apprendere facilmente online. “Potrebbero volerci tre o quattro tentativi per scrivere il prompt giusto, ma la risposta è già lì”.
La democratizzazione del cybercrimine è un grosso problema per gli esperti di cybersecurity: gli attacchi realizzati col supporto dell’IA non sono pericolosi in sé, ma creano molto rumore che complica le attività dei SoC. I nuovi attaccanti, avendo scarse conoscenze di programmazione, non riescono a perpetrare ulteriormente gli attacchi ma generano comunque molti falsi positivi che possono distogliere l’attenzione dagli attacchi davvero pericolosi per le aziende.
Noe afferma che, per far fronte a questi attacchi, è fondamentale che i professionisti di sicurezza sviluppino conoscenze approfondite sugli strumenti di IA per comprendere qual è la reale portata delle feature a disposizione degli utenti. In quest’ottica, implementare misure per il controllo degli accessi e dell’identità e seguire il principio del zero trust diventano attività essenziali per proteggere le organizzazioni.
Non dimentichiamo però che l’intelligenza artificiale può diventare un importante alleato della cybersecurity, migliorando le attività di analisi, in particolare di behavioral analytics, che consentono di identificare in tempi brevi tutte le attività sospette, assegnargli la giusta priorità e rispondere in modo efficiente ai nuovi tentativi di attacco.
Mar 25, 2025 0
Feb 19, 2025 0
Gen 31, 2025 0
Gen 20, 2025 0
Apr 02, 2025 0
Apr 01, 2025 0
Mar 31, 2025 0
Mar 28, 2025 0
Apr 02, 2025 0
La Corea del Nord sta incrementando le proprie attività...Apr 01, 2025 0
Se da una parte i tool di Remote Monitoring and Management...Mar 27, 2025 0
Ogni nuova tecnologia porta con sé nuovi rischi. Nel caso...Mar 21, 2025 0
Il processo di penetration testing è ormai una pratica...Mar 13, 2025 0
Il bilancio delle vittime del ransomware Medusa è...Gen 29, 2025 0
Con l’avvento dell’IA generativa...Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Apr 02, 2025 0
La Corea del Nord sta incrementando le proprie attività...Apr 01, 2025 0
Se da una parte i tool di Remote Monitoring and...Mar 31, 2025 0
I ricercatori di Infoblox hanno scoperto una nuova campagna...Mar 31, 2025 0
Nel corso dell’ultima settimana, il CERT-AGID ha rilevato...Mar 28, 2025 0
Un vecchio dominio di Microsoft Stream è stato compromesso...