Aggiornamenti recenti Ottobre 24th, 2025 5:37 PM
Lug 31, 2017 Marco Schiaffino In evidenza, Malware, News, RSS, Tecnologia 2
Si fa un gran parlare dell’uso dell’intelligenza artificiale (AI) nell’individuazione dei malware. Mentre le società di sicurezza la stanno implementando nei loro sistemi per migliorare le capacità di rilevamento delle minacce sconosciute, qualcuno ha già cominciato a lanciare l’allarme sulla possibilità che questa tecnologia possa essere usata anche dai cyber-criminali con obiettivi esattamente opposti.
Una delle prime “prove sul campo” è stata presentata al DEF CON 2017 di Las Vegas da Hyrum Anderson di Endgame. L’esperimento sfrutta la piattaforma OpenAI creata da Elon Musk e si pone l’obiettivo di utilizzare l’intelligenza artificiale per creare malware che gli antivirus non sono in grado di rilevare.
La logica, insomma, è quella di combattere il fuoco con il fuoco. Intelligenza artificiale contro intelligenza artificiale.
L’assunto da cui è partita la ricerca è che il machine learning ha dei difetti e, in particolare, può essere ingannato attraverso piccole modifiche. Nella sua presentazione (disponibile qui) Anderson cita l’esempio dei sistemi di riconoscimento delle immagini e della possibilità di ingannarli facendo in modo che la foto di un furgone venga scambiata per uno struzzo.

Per un occhio umano rimane sempre un furgone. L’intelligenza artificiale, però, viene ingannata dal disturbo inserito nell’immagine.
La strategia usata è quella di alterare la struttura del codice dei malware, facendo in modo che abbiano caratteristiche tali da non “insospettire” i sistemi antivirus basati sul Machine Learning.
A questo scopo il team di ricercatori ha avviato una simulazione mettendo a confronto un “agente” in grado di elaborare malware con queste caratteristiche e un motore antivirus. L’obiettivo era quello di arrivare a un sistema che fosse in grado di “imparare” come aggirare il sistema di analisi del software di sicurezza.
I risultati dell’esperimento non sono tanto importanti in valore assoluto, quanto nella prospettiva del miglioramento. Stando ai risultati pubblicati nella ricerca, dopo 15 ore in cui la piattaforma ha macinato circa 100.000 tentativi, il numero di sample individuati dall’antivirus sono passati da 35 su 62 a 25 su 62.
Insomma, l’utilizzo dell’intelligenza artificiale per aggirare il machine learning sarebbe efficace. Anderson ha reso disponibile il software necessario per replicare esperimenti simili su GitHub. C’è da scommettere che molte società di sicurezza ci si butteranno sopra.
Ott 21, 2025 0
Ott 08, 2025 0
Ott 07, 2025 0
Ott 06, 2025 0
Ott 24, 2025 0
Ott 23, 2025 0
Ott 22, 2025 0
Ott 20, 2025 0
Ott 21, 2025 0
Le campagne di estorsione e i ransomware continuano a...
Ott 17, 2025 0
Il Global Threat Intelligence Report di settembre...
Ott 16, 2025 0
ChatGPT Agent può essere usato per esfiltrare dati: lo ha...
Ott 15, 2025 0
Aumentare la complessità delle password, richiedendo...
Ott 01, 2025 0
Secondo l’ultima ricerca di FireMon, azienda di...
Gen 29, 2025 0
Con l’avvento dell’IA generativa...
Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...
Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...
Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...
Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...
Ott 24, 2025 0
Il Pwn2Own di ottobre, tenutosi a Cork, in Irlanda, si...
Ott 23, 2025 0
Una recente analisi di ESET riporta che il gruppo...
Ott 22, 2025 0
Zyxel Networks ha presentato “Zyxel Commercialisti...
Ott 21, 2025 0
Le campagne di estorsione e i ransomware continuano a...
Ott 20, 2025 0
Il Threat Research Team della compagnia di sicurezza...

2 thoughts on “Con l’intelligenza artificiale i malware riescono ad aggirare gli antivirus”