Aggiornamenti recenti Novembre 22nd, 2024 9:00 AM
Nov 10, 2023 Marina Londei Approfondimenti, Attacchi, Minacce, RSS 0
La diffusione dell’intelligenza artificiale ha spostato l’attenzione degli attaccanti su questi sistemi: i cyber criminali stanno studiando nuove tecniche per colpire i modelli e avere un’opportunità in più per interrompere le operazioni di business.
Per fare ciò spesso gli aggressori evitano attacchi diretti ai sistemi di IA per non esporsi e venire individuati dai sistemi di difesa; al contrario, preferiscono agire sulle pipeline dei dati, ovvero nei flussi di azioni che vengono applicate alle informazioni prima di essere utilizzate dai modelli.
Joel Yonts, ricercatore di cyber sicurezza, ha condiviso un estratto del suo libro “Secure Intelligent Machines” dove illustra alcuni metodi per manipolare i dati tramite compromissione delle pipeline di dati.
In generale i cyber criminali preferiscono cambiare il meno possibile e usare i tool e le funzionalità esistenti configurandoli per scopi malevoli (i cosiddetti attacchi “Living-off-the-land”); in modo analogo, introducendo dei piccoli cambiamenti alla pipeline si corre meno il rischio di essere individuati dai tool di sicurezza.
Una delle tecniche più semplici per farlo è eliminare delle istanze dal dataset di addestramento del modello. Ciò vale in particolar modo per i sistemi di apprendimento supervisionato e per i flussi di dati che passano attraverso delle pipeline prima di essere elaborati.
L’attaccante sostanzialmente potrebbe cancellare determinate istanze definendo delle regole di “drop” che rispondono a specifiche condizioni. Un altro modo è compromettere i record dati di interesse in modo che i processi di pulizia cancellino i dati alterati.
Yonts spiega che i modelli di machine learning generalmente non riescono a fare previsioni se il dataset di addestramento contiene valori nulli; per questo motivo, le pipeline eliminano tutti i record che possono compromettere il funzionamento del modello. Ciò che potrebbe fare un aggressore è quindi modificare i record inserendo dati nulli in modo che non arrivino al modello.
Ancora più semplicemente, gli attaccanti possono aggiungere logiche di trasformazione inline, cioè direttamente nei dati. Le alterazioni in questo caso riguardano la modifica delle etichette dei record o la scala numerica di una feature. Per esempio, un aggressore potrebbe modificare i valori monetari di azioni specifiche oppure modificare istanze di dati dei droni affinché utilizzino una scala sbagliata nel riconoscimento delle immagini.
Un altro modo per modificare i dati consiste nell’iniettare automaticamente informazioni malevole prima che il dataset raggiunga l’ambiente di training. Se un attaccante riesce a prendere il controllo del processo, può iniettare dati malevoli indiscriminatamente, senza modificare la pipeline o i dati già caricati.
Gli attaccanti possono sfruttare il controllo che hanno sulla pipeline anche per ottenere dati sensibili; in questo caso è sufficiente modificare la pipeline aggiungendo delle operazioni di scrittura su file o di invio a un server esterno. Nel definire questi script, gli attaccanti possono aggiungere logiche di filtraggio per esfiltrare soltanto i dati di loro interesse.
Infine, se l’obiettivo degli aggressori è semplicemente interrompere l’esecuzione del modello può avvenire una vera e propria “distruzione” della pipeline o del set di dati usato per l’addestramento. Un attacco ransomware insieme alla corruzione dei sistemi di backup, se di successo, blocca le operazioni in corso. L’attività non è strettamente legata al tema dell’intelligenza artificiale, specifica Yonts, ma un attaccante potrebbe anche sfruttare i processi della pipeline per orchestrare la distruzione in massa dei dati.
Nov 21, 2024 0
Nov 04, 2024 0
Ott 22, 2024 0
Ott 21, 2024 0
Nov 22, 2024 0
Nov 20, 2024 0
Nov 19, 2024 0
Nov 18, 2024 0
Nov 22, 2024 0
Secondo una ricerca di F5 Labs, gli attacchi DDoS sono...Nov 21, 2024 0
Google ha annunciato di aver trovato 26 nuove...Nov 14, 2024 0
L’FBI ha lanciato un allarme: stando a un avviso...Nov 13, 2024 0
I ricercatori di Securonix hanno scoperto CRON#TRAP, una...Nov 12, 2024 0
Le minacce APT sono in aumento e in molti casi stanno...Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Mag 08, 2024 0
L’ultimo non è stato un buon anno per Microsoft:...Nov 22, 2024 0
Secondo una ricerca di F5 Labs, gli attacchi DDoS sono...Nov 21, 2024 0
Playlist e podcast sono l’esca ideale per attirare ignari...Nov 21, 2024 0
Google ha annunciato di aver trovato 26 nuove...Nov 20, 2024 0
Una campagna di spionaggio a opera di hacker cinesi ha...Nov 19, 2024 0
I ricercatori di Sekoia hanno individuato una nuova...