Aggiornamenti recenti Giugno 29th, 2024 12:32 PM
Giu 20, 2024 Marina Londei Approfondimenti, Attacchi, Minacce, News, RSS 0
La diffusione dell’intelligenza artificiale sta contribuendo fortemente all’innovazione, ma comporta anche rischi di privacy, etica e sicurezza. Khurram Akhtar, co-fondatore di ProgrammersForce, sottolinea che nei prossimi due anni la disinformazione creata dall’IA sarà una delle minacce più pressanti per il pubblico e il privato; in particolare, saranno i deepfake a destare le maggiori preoccupazioni.
Il numero di video che impersonano figure aziendali o celebrità sta crescendo e sia i cittadini che le imprese devono sapersi proteggere da questi attacchi.
I deepfake vengono creati sfruttando tecnologie di IA che, a partire da audio, video o immagini reali, replicano l’aspetto e/o la voce di una vittima per eseguire truffe o attacchi. Nel dettaglio, spiega Akhtar, si utilizzano le reti neurali convoluzionali (convolutional neural networks – CNN) e le reti generative avversarie (generative adversarial networks – GAN): le prime vengono utilizzate per riconoscere pattern sofisticati nelle immagini e replicarli; le seconde invece usano due algoritmi di reti neurali che generano e valutano l’autenticità del risultato; il processo viene eseguito in modo iterativo finché l’immagine generata non è sufficientemente precisa e indistinguibile dalla fonte.
I deepfake possono essere un serio pericolo non solo per le organizzazioni, ma anche per i cittadini e la sicurezza nazionale stessa. Figure pubbliche come politici, celebrità ma anche influencer e giornalisti possono diventare vittime di questa tecnologia e perdere soldi e reputazione.
Akhtar ricorda il caso del dipendente di una compagnia di Hong Kong che ha fatto perdere all’organizzazione 25 milioni di dollari dopo aver partecipato a una videoconferenza con quello che credeva essere il CFO. Le truffe sono solo un esempio degli attacchi che possono essere eseguiti coi deepfake: l’abuso di questa tecnologia può portare al furto d’identità, a cyberattacchi di vario tipo e alla diffusione di disinformazione.
Proprio in merito a quest’ultimo tema, di recente l’intelligence statunitense ha reso noto di aver trovato deepfake creati da governi cinesi e iraniani mirati a influenzare i risultati delle elezioni del 2020. Anche se questi video non sono mai stati diffusi, probabilmente perché non sono stati ritenuti abbastanza convincenti, a quattro anni di distanza, con un miglioramento significativo della tecnologia, il pericolo è più reale che mai.
Akhtar sottolinea che, con l’avanzamento delle tecnologie di machine learning, è fondamentale implementare un livello di sicurezza aggiuntivo per verificare l’identità degli utenti e individuare qualsiasi anomalia.
Le tecniche di riconoscimento facciale possono proteggere gli utenti sfruttando algoritmi e sensori per analizzare i volti nei video e identificare ogni movimento, cercando di comprendere se è reale o se è finto. Tra le tecniche più utilizzate c’è l’analisi del movimento, ovvero l’analisi delle feature facciali come le espressioni del volto, le palpebre che sbattono e lo sguardo, caratteristiche molto difficili da replicare.
Un’altra tecnica efficace è la texture analysis, ovvero l’analisi dei dettagli della pelle come la grana o i pori; oltre a essa, si utilizza anche l’imaging termico, il quale necessita però di una camera a infrarossi per determinare se dall’altra parte del video c’è un essere umano.
Altre tecniche utilizzate sono l’analisi 3D, la quale cattura la geometria tridimensionale di un volto usando i sensori di profondità, e l’analisi comportamentale che analizza pattern di comportamento come quelli del parlato, della frequenza nello sbattimento delle palpebre e dei movimenti della testa.
Gli attacchi deepfake diventeranno sempre più sofisticati e con conseguenze potenzialmente disastrose. Le organizzazioni, oltre a stabilire una cultura aziendale basata sulla sicurezza e a istruire i propri dipendenti sulle possibili truffe, devono investire su soluzioni di protezione all’avanguardia e promuovere la standardizzazione delle tecnologie per combattere i deepfake.
Giu 17, 2024 0
Mag 17, 2024 0
Mar 22, 2024 0
Feb 15, 2024 0
Giu 29, 2024 0
Giu 28, 2024 0
Giu 28, 2024 0
Giu 27, 2024 0
Giu 26, 2024 0
Se c’è un concetto che abbiamo sentito ripetere decine...Giu 25, 2024 0
Google ha annunciato Project Naptime, un framework che...Giu 24, 2024 0
Le industrie regolamentate, cioè appartenenti a settori...Giu 24, 2024 0
Elena Accardi ricopre il ruolo di Country Manager di...Giu 21, 2024 0
L’ultimo Ransomware Trends Report di Veeam evidenzia...Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Mag 08, 2024 0
L’ultimo non è stato un buon anno per Microsoft:...Mag 04, 2018 0
E se vi dicessimo che la saga di Star Wars ...Nov 14, 2016 2
Abbiamo rubato al blog di Kaspersky un vecchio pezzo di...Nov 08, 2016 2
Il numero uno degli scacchi mondiali Magnus Carlsen ha...Giu 29, 2024 0
TeamViewer è un software noto per facilitare...Giu 28, 2024 0
Il 52% dei progetti open-source più “critici”...Giu 28, 2024 0
Una nuova vulnerabilità di MOVEit Transfer sta venendo...Giu 27, 2024 0
Se state usando polyfill.io nel vostro sito web, dovete...Giu 26, 2024 0
Il gruppo dietro il ransomware LockBit ha dichiarato di...