Aggiornamenti recenti Novembre 20th, 2024 10:12 AM
Ott 04, 2024 Marina Londei In evidenza, News, RSS, Vulnerabilità 0
Fino a neanche un mese fa l’applicazione di ChatGPT per macOS poteva essere usata per esfiltrare le informazioni inserite dall’utente o le risposte del chatbot in modo persistente. A rivelarlo è Johann Rehberger, ricercatore di sicurezza che ha scoperto la vulnerabilità nell’aprile 2023.
All’inizio del 2023 OpenAI aveva implementato una feature per mitigare i vettori di esfiltrazione dati tramite una call a un’API chiamata “url_safe”. L’API informa il client di ChatGPT se è possibile mostrare all’utente un URL o un’immagine in modo sicuro, in modo da mitigare gli attacchi di prompt injection.
Poiché però il controllo viene eseguito client side, le applicazioni sono rimaste vulnerabili; non solo: una funzionalità più recente, chiamata “Memory”, ha aumentato la criticità del bug permettendo anche alle istruzioni malevole di essere memorizzate.
La feature “Memory” di fatto consente al chatbot di memorizzare le chat per offrire risposte più rilevanti e in linea con le preferenze già espresse dell’utente. L’exploit realizzato dal ricercatore, chiamato spAIware, sfrutta questa capacità per “iniettare delle memorie” che contengono istruzioni volte a esfiltrare i dati dell’utente.
“Poiché le istruzioni malevole vengono memorizzate nella memoria del chatbot, tutte le nuove conversazioni da quel momento in poi conterranno le istruzioni dell’attaccante e invieranno continuamente tutti i messaggi della chat e le risposte all’attaccante” spiega Rehberger. Il bug di data exfiltration diventa in questo modo ancora più pericoloso perché permane in tutte le chat.
Per iniettare queste istruzioni, i cybercriminali possono ricorrere a una tecnica di esfiltrazione già nota che consiste nel mostrare un’immagine proveniente da un server malevolo e chiedere a ChatGPT di includere i dati utenti come parametro nella richiesta. Tutto comincia quando l’utente chiede al chatbot di analizzare un documento malevolo o naviga su un sito web non affidabile: il documento o il sito web contengono istruzioni per prendere il controllo del chatbot e inserire la “memoria” per l’esfiltrazione dei dati.
Il prompt presente nel sito web controllato dall’attaccante indica al chatbot di inviare al server tutti i messaggi inviati e ricevuti dall’utente, ovviamente a sua insaputa.
OpenAI ha risolto il bug di ChatGPT su macOS con la versione 1.2024.247 e invita gli utenti ad aggiornare l’applicazione il prima possibile. Rehberger chiarisce che l’intervento della compagnia non impedisce a un attaccante di invocare sfruttare la feature “Memory” per iniettare memoria arbitrare, ma mitiga il vettore di esfiltrazione, ovvero impedisce al chatbot di inviare messaggi a un server di terze parti tramite il rendering di immagini.
Per questo motivo, oltre ad aggiornare l’applicazione, il ricercatore consiglia agli utenti di controllare regolarmente le “memorie” salvate dal chatbot ed eliminare quelle sospette.
Nov 18, 2024 0
Nov 08, 2024 0
Ott 30, 2024 0
Ott 29, 2024 0
Nov 20, 2024 0
Nov 19, 2024 0
Nov 15, 2024 0
Nov 15, 2024 0
Nov 14, 2024 0
L’FBI ha lanciato un allarme: stando a un avviso...Nov 13, 2024 0
I ricercatori di Securonix hanno scoperto CRON#TRAP, una...Nov 12, 2024 0
Le minacce APT sono in aumento e in molti casi stanno...Nov 11, 2024 0
Kaspersky ha collaborato a Synergia II, operazione...Nov 07, 2024 0
L’attuale panorama delle minacce si presente sempre...Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Mag 08, 2024 0
L’ultimo non è stato un buon anno per Microsoft:...Nov 20, 2024 0
Una campagna di spionaggio a opera di hacker cinesi ha...Nov 19, 2024 0
I ricercatori di Sekoia hanno individuato una nuova...Nov 18, 2024 0
István Márton, ricercatore di Wordfence, ha individuato...Nov 15, 2024 0
La sicurezza dei toolkit ML continua a essere minacciata...Nov 15, 2024 0
Aaron Costello, Chief of SaaS Security Research di AppOmni,...