Aggiornamenti recenti Dicembre 23rd, 2024 4:09 PM
Mar 31, 2023 Marina Londei Approfondimenti, Gestione dati, Opinioni, Privacy, RSS, Tecnologia 0
Dopo il suo ingresso nel mondo del lavoro, non possiamo più considerare ChatGPT come un gioco. In molte aziende i dipendenti hanno cominciato a usarlo quotidianamente, arrivando ad aumentare la produttività fino a 10 volte. Molte compagnie, però, temono i problemi di privacy e sicurezza, e hanno deciso di vietarne l’utilizzo.
Un preoccupazione assolutamente lecita visto che, secondo un recente report di Cyberhaven, quasi il 7% dei dipendenti di tutto il mondo ha condiviso dati confidenziali dell’azienda col chatbot e continua a farlo. La percentuale può sembrare bassa, ma non deve ingannare: il numero continuerà a salire a passo spedito, considerando che a inizio marzo era al 4.2% e a fine febbraio al 3.1%.
Il problema, è chiaro, sta nel fatto che questi dati vengono usati da ChatGPT per come set di training per migliorare le proprie capacità. Funzioni di codice proprietario, cartelle mediche dei pazienti o documenti aziendali strategici vengono condivisi ogni giorno con lo strumento che utilizza le stesse informazioni per rispondere alle domande di altri utenti.
I cybercriminali possono trarre un enorme vantaggio da questa situazione: gli attacchi di training data extraction consistono proprio nell’effettuare richieste specifiche al chatbot per ottenere dati sensibili e proprietà intellettuali.
In media, secondo l’indagine di Cyberhaven, i dati sensibili che i dipendenti condividono col chatbot sono l’11% del totale. Se si considera che l’uso dello strumento sta crescendo in maniera esponenziale, stiamo parlando di un volume enorme di informazione.
I tool di sicurezza tradizionali non riescono a monitorare quali e quanti dati vengono condivisi col chatbot. I dipendenti non caricano file, ma semplicemente copia-incollano il contenuto di cui hanno bisogno; i prodotti di sicurezza, invece, sono pensati per analizzare i file contrassegnati come confidenziali, ma una volta che il contenuto viene estrapolato non riescono più a tenerne traccia.
Inoltre, poiché i dati confidenziali non contengono pattern riconoscibili quali numeri di carte di credito o simili, gli strumenti di sicurezza non riuscirebbero a distinguere la natura delle informazioni condivise.
Questa difficoltà nel monitorare i dipendenti e la paura di rimanere vittime di attacchi di data exfiltration ha portato molte realtà a proibire l’uso di ChatGPT a lavoro. JP Morgan e Verizon sono due esempi di aziende che hanno deciso di bloccare l’accesso al tool, per evitare di mettere a rischio i dati confidenziali.
Bisogna vietare l’uso del chatbot? Visti i benefici che porta, il divieto assoluto appare una scelta un po’ eccessiva. Quel che è certo però è che i dipendenti, così come i manager, vanno prima istruiti a dovere sull’utilizzo consapevole dell’IA generativa: solo conoscendo i rischi legati a un uso improprio dei tool si possono limitare i danni, ottenendo al contempo i vantaggi di cui si ha bisogno.
I progressi dell’intelligenza artificiale ci hanno travolti e i tool sono diventati d’uso comune senza che ce ne accorgessimo. È il caso, quindi, di fare un passo indietro e investire su una formazione adeguata per trarre il massimo beneficio dalla collaborazione uomo-IA.
Dic 02, 2024 0
Nov 25, 2024 0
Nov 21, 2024 0
Nov 04, 2024 0
Dic 23, 2024 0
Dic 20, 2024 0
Dic 18, 2024 0
Dic 18, 2024 0
Dic 23, 2024 0
Tempo di bilanci di fine anno anche per il mondo della...Dic 20, 2024 0
Ieri il CSIRT ha pubblicato il nuovo rapporto mensile sullo...Dic 18, 2024 0
La sicurezza dei terminali di pagamento e degli ATM è...Dic 17, 2024 0
ESET ha pubblicato l’ultimo Threat Report, analisi...Dic 16, 2024 0
Nel moderno panorama di minacce informatiche, aspettare di...Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Mag 08, 2024 0
L’ultimo non è stato un buon anno per Microsoft:...Dic 23, 2024 0
Tempo di bilanci di fine anno anche per il mondo...Dic 23, 2024 0
Nel corso di questa settimana, il CERT-AGID ha rilevatoDic 20, 2024 0
Ieri il CSIRT ha pubblicato il nuovo rapporto mensile...Dic 18, 2024 0
La sicurezza dei terminali di pagamento e degli ATM è...Dic 18, 2024 0
La Germania compie un passo significativo nella lotta al...