Aggiornamenti recenti Marzo 28th, 2025 3:40 PM
Mar 27, 2025 Redazione news Approfondimenti, In evidenza, News, RSS, Tecnologia, Tecnologia 0
Ogni nuova tecnologia porta con sé nuovi rischi. Nel caso dell’intelligenza artificiale, il settore della cyber security ha spesso concentrato l’attenzione sugli aspetti legati all’affinamento delle tecniche di phishing e sulla possibilità di realizzare più facilmente malware sempre più sofisticati. C’è però un aspetto che viene (troppo) poco considerato: il rischio di esposizione o esfiltrazione di informazioni sensibili legati a errori o attacchi malevoli ai danni di sistemi di AI.
L’implementazione di sistemi di AI generativa all’interno dei sistemi IT aziendali ha generato grandi aspettative in termini di aumento della produttività, ma l’efficacia in ambito business nell’uso dei Large Language Model (LLM) è indissolubilmente legato alla messa a valore di dati aziendali.
La tecnica di Retrieval Augmented Generation (RAG) consente, infatti, di individuare e utilizzare le informazioni utili all’interno di database e documenti per generare contenuti o automatizzare operazioni attraverso gli AI agent. Quanto più queste informazioni sono puntuali, tanto più l’AI potrà essere efficace. In altre parole, le potenzialità dell’AI dipendono dalla disponibilità di informazioni qualitativamente rilevanti, cioè quelle conservate in azienda.
Quello che gli esperti si aspettano nei prossimi mesi è uno scenario in cui le aziende daranno accesso a un numero sempre maggiore di informazioni ai sistemi di AI generativa. In pratica, chatbot e AI agent avranno un’ampia libertà di azione e il rischio che tutto questo si traduca in una esposizione di informazioni riservate crescerà in maniera esponenziale.
All’interno dei sistemi IT di un’azienda, normalmente, le informazioni sono compartimentate attraverso policy che assicurano che gli utenti possano avere accesso soltanto ai dati di loro competenza. Anche se questo tipo di approccio può essere replicato anche con gli strumenti di AI generativa, la sua introduzione aumenta sensibilmente sia il rischio di condivisioni involontarie provocate da errori umani, sia la superficie di attacco a disposizione di eventuali cyber criminali.
Tra le minacce più rilevanti ci sono tecniche come il jailbreak e la prompt injection. Il jailbreak viene solitamente definito come una tecnica che consente di aggirare o superare i limiti e i controlli di sicurezza implementati in un modello di AI, al fine di fargli eseguire azioni o produrre contenuti che vanno oltre i suoi normali parametri di funzionamento. Nella pratica, l’uso di tecniche di jailbreak potrebbero consentire a un utente legittimo di accedere a informazioni che travalicano i suoi privilegi.
Gli attacchi basati su prompt injection, invece, prevedono la “iniezione” di comandi nascosti che possono portare l’AI a compiere azioni indesiderate, come l’inserimento di informazioni riservate in comunicazioni dirette a soggetti esterni. Uno degli stratagemmi potenzialmente utili per raggiungere questo scopo è quello di inserire le istruzioni in un documento rendendole invisibili agli esseri umani (per esempio inserendo del testo bianco su sfondo bianco) ma rilevanti per i sistemi di AI.
In uno scenario estremamente “acerbo” e in continua evoluzione, affidarsi esclusivamente ai controlli di sicurezza interni ai sistemi di AI non è sufficiente. Per implementare una protezione efficace è necessario intervenire su tutti gli strumenti di comunicazione e collaborazione, a partire dall’email. La posta elettronica è ancora il principale strumento attraverso cui possono essere diffuse le informazioni sensibili e le tecnologie di Mimecast possono rappresentare un valido aiuto perché impiegano algoritmi di pattern matching e analisi semantica per identificare dati sensibili all’interno di e-mail e allegati.
Il sistema può anche essere configurato per crittografare automaticamente determinati contenuti o impedire il loro invio in caso di violazione delle policy aziendali.
Allo stesso modo, è necessario controllare le piattaforme ddi collaborazione, come Microsoft Teams, Slack e Zoom. In questo caso, il compito è affidato a filtri avanzati in grado di identificare parole chiave, espressioni regolari e comportamenti atipici per prevenire la fuga accidentale di dati riservati.
L’efficacia di Mimecast è garantita dall’uso di sistemi di intelligenza artificiale, che permettono di analizzare con estrema accuratezza i contenuti. In questo caso, potremmo dire che si combatte il fuoco con il fuoco.
La velocità con cui le aziende italiane stanno abbracciando l’uso dell’IA rende indispensabile poter proporre ai mercati gli strumenti giusti per proteggersi dai rischi connessi a una tecnologia potente, ma ancora poco esplorata dal punto di vista della sicurezza. Ingecom, il distributore ufficiale per l’Italia di Mimecast, permette a tutte le aziende del nostro Paese di poter sfruttare la potenza dell’IA riducendone i rischi con il minimo sforzo.
Gen 18, 2019 0
Mar 28, 2025 0
Mar 28, 2025 0
Mar 27, 2025 0
Mar 26, 2025 0
Mar 28, 2025 0
Mar 28, 2025 0
Mar 27, 2025 0
Mar 26, 2025 0
Mar 27, 2025 0
Ogni nuova tecnologia porta con sé nuovi rischi. Nel caso...Mar 21, 2025 0
Il processo di penetration testing è ormai una pratica...Mar 13, 2025 0
Il bilancio delle vittime del ransomware Medusa è...Mar 12, 2025 0
Kaspersky lancia un segnale d’allarme: registrare account...Mar 06, 2025 0
Le aziende temono gli attacchi informatici e la loro...Gen 29, 2025 0
Con l’avvento dell’IA generativa...Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Mar 28, 2025 0
Un vecchio dominio di Microsoft Stream è stato compromesso...Mar 28, 2025 0
RedCurl, gruppo hacker russo attivo almeno dal 2018 e...Mar 27, 2025 0
Ogni nuova tecnologia porta con sé nuovi rischi. Nel...Mar 27, 2025 0
Dopo una settimana di speculazioni, è arrivata la...Mar 26, 2025 0
L’ultimo aggiornamento di Windows sta creando non...