Aggiornamenti recenti Novembre 21st, 2024 2:11 PM
Mar 22, 2024 Marina Londei Approfondimenti, Attacchi, Minacce, News, RSS 0
Nel 2024 i deepfake saranno una delle applicazioni di intelligenza artificiale più usate dagli attaccanti: a dirlo è il report “Adversarial Intelligence: Red Teaming Malicious Use Cases for AI” redatto da Insikt Group di Recorded Future.
Il mondo del cybercimine sta già sfruttando le potenzialità dell’IA, sperimentando LLM, modelli per la generazione di immagini e modelli text-to-speech, e continuerà a investire su nuovi tool per perfezionare i propri attacchi.
I deepfake possono essere creati con tool open-source e usati per impersonare manager aziendali, migliorando le campagne di social engineering. La possibilità di usare strumenti a costo zero o comunque minimo consente agli attaccanti anche di creare contenuti per campagne di disinformazione, sviluppando facilmente siti web falsi.
Agli attaccanti bastano clip video di meno di un minuto per addestrare i modelli e generare deepfake; inoltre possono contare anche su tool che permettono il live-cloning, ovvero la clonazione di audio e video in tempo reale.
Negli ultimi mesi si sono verificati molti casi di attacchi di social engineering tramite deepfake, come quello che ha coinvolto il dipendente di una grande compagnia di Hong Kong. In questo caso specifico, gli attaccanti sono riusciti a rubare 25 milioni di dollari alla società riproducendo non solo il CFO della compagnia, ma anche altri dipendenti.
La vicenda di Hong Kong è una dimostrazione di come questa tecnica può rivelarsi devastante per un’azienda sia dal punto di vista finanziario che della reputazione, con conseguenze anche a lungo termine.
I ricercatori sottolineano che ci sono comunque delle limitazioni nel processo di creazione dei deepfake: innanzitutto, acquisire delle clip audio di elevata qualità non è così semplice e richiede l’intervento umano; in secondo luogo, per le operazioni di live-cloning gli attaccanti devono riuscire a superare i meccanismi di controllo delle soluzioni commerciali e risolvere i problemi di latenza.
Nonostante ciò, il mondo del cybercrimine si sta evolvendo molto velocemente e presto sarà in grado di superare questi ostacoli. I ricercatori di Insikt Group sottolineano che l’efficacia provata delle campagne mirate di deepfake incoraggerà altri attaccanti a investire sui tool di IA per questi scopi e quindi a migliorare le tecniche in uso.
Nov 21, 2024 0
Nov 04, 2024 0
Ott 22, 2024 0
Ott 22, 2024 0
Nov 20, 2024 0
Nov 19, 2024 0
Nov 18, 2024 0
Nov 15, 2024 0
Nov 21, 2024 0
Google ha annunciato di aver trovato 26 nuove...Nov 14, 2024 0
L’FBI ha lanciato un allarme: stando a un avviso...Nov 13, 2024 0
I ricercatori di Securonix hanno scoperto CRON#TRAP, una...Nov 12, 2024 0
Le minacce APT sono in aumento e in molti casi stanno...Nov 11, 2024 0
Kaspersky ha collaborato a Synergia II, operazione...Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Mag 08, 2024 0
L’ultimo non è stato un buon anno per Microsoft:...Nov 21, 2024 0
Google ha annunciato di aver trovato 26 nuove...Nov 20, 2024 0
Una campagna di spionaggio a opera di hacker cinesi ha...Nov 19, 2024 0
I ricercatori di Sekoia hanno individuato una nuova...Nov 18, 2024 0
István Márton, ricercatore di Wordfence, ha individuato...Nov 15, 2024 0
La sicurezza dei toolkit ML continua a essere minacciata...