Aggiornamenti recenti Novembre 22nd, 2024 9:00 AM
Apr 06, 2023 Marina Londei Approfondimenti, Attacchi, Minacce, RSS, Tecnologia 0
L’IA generativa non è immune dagli attacchi informatici: uno studio congiunto dei ricercatori di IBM, della National Tsing Hua University di Taiwan e della Chinese University di Hong Kong ha dimostrato che è possibile introdurre delle backdoor nei modelli di diffusione.
Queste reti neurali sono alla base di strumenti text-to-image come DALL-E e rappresentano l’architettura sulla quale sono costruiti questi tool. I modelli di diffusione operano aggiungendo del “rumore”, cioè elementi e caratteristiche non presenti nell’immagine iniziale, ai dati di addestramento e poi invertendo il processo per generare immagini fedeli all’originale.
Come riportato da VentureBeat, questo approccio comporta dei rischi di sicurezza che finora non sono stati approfonditi. Nel loro studio i ricercatori descrivono un framework d’attacco chiamato BadDiffusion che consiste nell’inserire una backdoor nel modello per generare un output specifico, diverso da quello atteso dalla vittima.
Un attaccante può modificare gli step del modello per renderlo sensibile a un determinato trigger nei dati di training, e inserire poi questo trigger nel dataset in uso. La particolarità dell’attacco è che funziona solo quando, a fronte della modifica del modello, c’è uno specifico innesco nei dati; ciò significa che in circostanze normali il modello produce l’output atteso dall’utente.
Poiché senza un trigger il modello funziona come dovrebbe gli utenti non sono in grado di individuare la backdoor semplicemente analizzando le immagini generate. Il framework d’attacco è inoltre molto economico da realizzare: è sufficiente ritoccare i modelli di diffusione già disponibili sul web per inserire la backdoor e riproporre il modello compromesso sul web.
I ricercatori hanno analizzato due possibili contromisure contro il BadDiffusion: l’Adversarial Neuron Pruning (ANP) e l’Inference-Time Clipping. Il primo si è rivelato piuttosto instabile e troppo sensibile al numero di parametri del modello; il secondo, pur essendo più semplice del primo, ha portato risultati promettenti, anche se potrebbe rivelarsi inefficace contro backdoor complesse.
Visto l’ampio utilizzo di questi modelli e la scarsità di soluzioni contro le minacce è importante investire sulla ricerca e lo sviluppo di nuove linee di difesa. Il primo passo, come sempre, è comprendere i rischi che i modelli di diffusione comportano; inoltre è opportuno verificare sempre l’autenticità dei modelli scaricati dal web.
Nov 21, 2024 0
Nov 13, 2024 0
Nov 12, 2024 0
Nov 04, 2024 0
Nov 22, 2024 0
Nov 20, 2024 0
Nov 19, 2024 0
Nov 18, 2024 0
Nov 22, 2024 0
Secondo una ricerca di F5 Labs, gli attacchi DDoS sono...Nov 21, 2024 0
Google ha annunciato di aver trovato 26 nuove...Nov 14, 2024 0
L’FBI ha lanciato un allarme: stando a un avviso...Nov 13, 2024 0
I ricercatori di Securonix hanno scoperto CRON#TRAP, una...Nov 12, 2024 0
Le minacce APT sono in aumento e in molti casi stanno...Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Mag 08, 2024 0
L’ultimo non è stato un buon anno per Microsoft:...Nov 22, 2024 0
Secondo una ricerca di F5 Labs, gli attacchi DDoS sono...Nov 21, 2024 0
Playlist e podcast sono l’esca ideale per attirare ignari...Nov 21, 2024 0
Google ha annunciato di aver trovato 26 nuove...Nov 20, 2024 0
Una campagna di spionaggio a opera di hacker cinesi ha...Nov 19, 2024 0
I ricercatori di Sekoia hanno individuato una nuova...