Aggiornamenti recenti Novembre 21st, 2024 2:11 PM
Lug 21, 2022 Redazione news Attacchi, News, RSS 0
Nell’ultimo decennio, il Machine Learning (ML) o apprendimento artificiale è diventato sempre più comune, passando dal mondo digitale a quello fisico. Mentre alcune tecnologie sono praticamente sinonimo di ML (come gli assistenti vocali domestici e le auto a guida autonoma), ci sono molti casi d’uso comuni dell’apprendimento automatico che possono sfuggire.
Tra questi gli algoritmi di suggerimento per i servizi di streaming e i social network e il riconoscimento facciale/biometrico. In ambito professionale ci sono poi sistemi di assistenza clienti e chatbot automatizzati, logistica di magazzino, approvazione di prestiti bancari, mutui o assicurazioni, rilevamento di frodi finanziarie, diagnosi medica e molto altro.
Al crescere della sua popolarità sono nati degli specifici attacchi a questo tipo di tecnologia, definiti “adversarial machine learning” (apprendimento automatico antagonistico) che possono assumere diverse forme. La startup HiddenLayer è nata proprio per contrastare questo tipo di rischio.
Come spiegano in un loro articolo, l’Adversarial ML è una frontiera relativamente nuova e all’avanguardia della cybersecurity ed è ancora in fase embrionale. La ricerca di nuovi attacchi che producono comportamenti errati nei modelli è però in aumento.
Il recente MITRE – ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems), realizzato dai creatori di MITRE ATT&CK, documenta diversi casi di studio di attacchi di apprendimento automatico antagonistico ai sistemi di produzione ML, che secondo loro sono in crescita.
HiddenLayer dichiara che la sua tecnologia è in grado di difendere i modelli di apprendimento automatico dagli attacchi senza bisogno di accedere ai dati grezzi o agli algoritmi dei suoi clienti, sulla base dell’analisi delle interazioni tra i modelli.
Analizza via software gli input e gli output degli algoritmi di apprendimento automatico, ossia i dati immessi nel modello e quelli che esso produce in risposta. In questo modo può individuare attività anomale coerenti con le tecniche di attacco dell’adversarial machine learning.
Nov 21, 2024 0
Nov 04, 2024 0
Ott 22, 2024 0
Ott 21, 2024 0
Nov 20, 2024 0
Nov 19, 2024 0
Nov 18, 2024 0
Nov 15, 2024 0
Nov 21, 2024 0
Google ha annunciato di aver trovato 26 nuove...Nov 14, 2024 0
L’FBI ha lanciato un allarme: stando a un avviso...Nov 13, 2024 0
I ricercatori di Securonix hanno scoperto CRON#TRAP, una...Nov 12, 2024 0
Le minacce APT sono in aumento e in molti casi stanno...Nov 11, 2024 0
Kaspersky ha collaborato a Synergia II, operazione...Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Mag 08, 2024 0
L’ultimo non è stato un buon anno per Microsoft:...Nov 21, 2024 0
Google ha annunciato di aver trovato 26 nuove...Nov 20, 2024 0
Una campagna di spionaggio a opera di hacker cinesi ha...Nov 19, 2024 0
I ricercatori di Sekoia hanno individuato una nuova...Nov 18, 2024 0
István Márton, ricercatore di Wordfence, ha individuato...Nov 15, 2024 0
La sicurezza dei toolkit ML continua a essere minacciata...