Aggiornamenti recenti Novembre 22nd, 2024 9:00 AM
Dic 05, 2023 Marina Londei Minacce, News, RSS, Vulnerabilità 0
Che i sistemi di intelligenza artificiale fossero vulnerabili a diverse tecniche di attacco lo sapevamo già, ma a quanto pare la situazione è peggiore di quanto immaginavamo. Alcuni ricercatori della North Carolina University hanno approfondito la portata degli “adversarial attacks”, ovvero degli attacchi volti a manipolare i dati in input delle reti neurali per alterare l’output e generare contenuti potenzialmente dannosi, scoprendo che queste vulnerabilità sono molto più comuni di quanto si credeva.
Prendendo come esempio i sistemi di riconoscimento delle immagini nei veicoli a guida autonoma, un attaccante potrebbe attaccare uno sticker su uno Stop impedendo al modello di riconoscere il segnale.
Tianfu Wu, co-autore della ricerca, ha spiegato che nella maggior parte dei casi, anche se si apportano modifiche ai segnali, un’IA addestrata adeguatamente riesce comunque a riconoscere le indicazioni; ma “se il sistema ha una vulnerabilità e un attaccante la conosce, può trarne vantaggio e provocare incidenti” ha affermato Wu. Il problema è che le vulnerabilità sono molto frequenti nei sistemi di IA.
Il gruppo di ricercatori ha testato le vulnerabilità delle reti neurali sviluppando QuadAttacK, un programma che sfrutta la programmazione quadratica per comprendere come un sistema di IA prende le decisioni sulla base dei dati di input e trovare il modo di manipolarli per compromettere il sistema.
Nei test i ricercatori hanno messo alla prova quattro reti neurali tra le più utilizzate al mondo. “Siamo rimasti sorpresi nel constatare che tutte e quattro queste reti erano molto vulnerabili agli adversarial attacks” ha affermato Wu, sottolineando di essere riusciti a far mostrare a questi sistemi ciò che volevano nella maggior parte dei test.
Il paper con la ricerca completa sarà presentato ufficialmente il prossimo 16 dicembre in occasione della 37° conferenza sui Neural Information Processing Systems. QuadAttacK sarà disponibile dallo stesso giorno su GitHub per permettere agli sviluppatori di mettere a punto le proprie reti neurali.
Nov 21, 2024 0
Nov 04, 2024 0
Ott 22, 2024 0
Ott 21, 2024 0
Nov 22, 2024 0
Nov 21, 2024 0
Nov 20, 2024 0
Nov 19, 2024 0
Nov 22, 2024 0
Secondo una ricerca di F5 Labs, gli attacchi DDoS sono...Nov 21, 2024 0
Google ha annunciato di aver trovato 26 nuove...Nov 14, 2024 0
L’FBI ha lanciato un allarme: stando a un avviso...Nov 13, 2024 0
I ricercatori di Securonix hanno scoperto CRON#TRAP, una...Nov 12, 2024 0
Le minacce APT sono in aumento e in molti casi stanno...Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Mag 08, 2024 0
L’ultimo non è stato un buon anno per Microsoft:...Nov 22, 2024 0
Secondo una ricerca di F5 Labs, gli attacchi DDoS sono...Nov 21, 2024 0
Playlist e podcast sono l’esca ideale per attirare ignari...Nov 21, 2024 0
Google ha annunciato di aver trovato 26 nuove...Nov 20, 2024 0
Una campagna di spionaggio a opera di hacker cinesi ha...Nov 19, 2024 0
I ricercatori di Sekoia hanno individuato una nuova...