Aggiornamenti recenti Novembre 22nd, 2024 9:00 AM
Nov 20, 2020 Alessandra Venneri Kaspersky Partner Space, RSS 0
Le discussioni attualmente in corso sul futuro dell’intelligenza artificiale sono incentrate su come questa dovrebbe essere definita. Per molti il concetto di AI nella sua forma più vera non esiste ancora e sarà così per ancora un altro secolo. La tecnologia di cui disponiamo ora è il machine learning che, per funzionare in modo efficace, fa affidamento su sviluppatori e analisti umani. Tuttavia, la tecnologia è in continuo sviluppo e miglioramento per far fronte a nuove e più complesse richieste.
Indipendentemente da come viene definita, il fatto che l’intelligenza artificiale soddisfi applicazioni multitasking più ampie, rispetto ai compiti ristretti e specifici per i quali è stata progettata, ha dato vita a tre diverse problematiche che vale la pena approfondire. Questo particolare “triangolo amoroso” è costituito da pregiudizio, etica e trasparenza, tutti elementi che hanno un ruolo chiave nel futuro dell’IA.
A questo punto, cosa si può fare per offrire delle garanzie a imprese e utenti privati che hanno adottato questa tecnologia? In un’epoca in cui assistiamo a violazioni dei dati senza precedenti e leggiamo ogni giorno report su nuove e più intense minacce digitali, gli sviluppatori possono fare molto per garantire un futuro stabile all’intelligenza artificiale affrontando fin d’ora temi quali i pregiudizi, l’etica e la trasparenza.
Sviluppo del pregiudizio
Se consideriamo che, allo stato attuale, l’intelligenza artificiale è costituita dal machine learning e che dipende dall’esperienza umana per operare, è molto probabile che le soluzioni rispecchieranno i pregiudizi dell’ambito di creazione. Ogni statua scolpita o romanzo scritto è frutto, in una certa misura, delle convinzioni personali del creatore. Le persone sono fatte di pensieri ed emozioni e ogni volta che viene creato qualcosa di nuovo, c’è sempre la possibilità che i pregiudizi e gli atteggiamenti di uno sviluppatore, inconsciamente o dettati da buone intenzioni, penetrino nel prodotto finito.
Nello sviluppo dell’IA, il codice alla base del processo decisionale è in continua evoluzione e la tecnologia può imparare dai pregiudizi umani. Le macchine sono oggettive mentre gli esseri umani non lo sono. L’IA utilizza i dati per prendere decisioni, quindi può agire solo sulla base delle informazioni rese disponibili. Per esempio, uno smart speaker non pensa autonomamente a quali sono i modi per migliorare la vita di un utente, ma può dare suggerimenti basati sulle “conversazioni” che ha avuto con l’utente o grazie ad un nuovo algoritmo introdotto dallo sviluppatore. In passato, si è visto che l’accuratezza del riconoscimento facciale tramite IA è più accurato su uomini bianchi che non su altre categorie, perché nella base dati usata per addestrarla le foto di uomini bianchi erano molto più numerose delle altre.
Nel caso però ci fosse un errore o la tecnologia utilizzasse un algoritmo difettoso la situazione potrebbe diventare rapidamente molto critica. Ad esempio, in India un sistema di identificazione biometrica è stato applicato ad una donna che stava soffrendo la fame. Il processo decisionale dell’IA aveva dato una falsa lettura positiva secondo cui risultava che alla donna fosse già stato dato l’aiuto necessario. Di conseguenza, le è stato negato il cibo di cui aveva disperatamente bisogno.
Una ricerca condotta da Kaspersky e dall’Università di Ghent ha inoltre rilevato che i robot possono ottenere efficacemente informazioni sensibili da persone che si fidano di loro. L’eccessiva dipendenza dal processo decisionale dell’IA, o l’uso improprio di una soluzione, possono avere un impatto sulla vita reale.
Una questione di etica
Consigliare agli sviluppatori e ai produttori di astenersi dall’integrare i pregiudizi umani nelle tecnologie AI è una cosa, assicurarsi che tale obiettività venga messa in pratica è un concetto completamente diverso. Questo è il motivo per cui si discute costantemente sulla necessità di un framework in grado di controllare le persone. Per raggiungere questo obiettivo, è necessario un insieme chiaro di valori, principi e tecniche che dimostrino cosa può ritenersi accettabile per l’IA.
Non tutti gli esseri umani possono dirsi portabandiera dell’etica moderna e di una condotta morale. Utilizzare materiali di scarsa qualità per costruire qualcosa ci darà un prodotto al di sotto degli standard. Lo stesso vale per il processo decisionale dell’IA. Dalla “spazzatura” nasce “spazzatura e il risultato non può che essere pericoloso. Così come è necessario avere una patente di guida e sistemi di navigazione aerea regolamentati, anche l’IA deve essere gestita in maniera responsabile poiché comporta altrettanti rischi.
Esiste uno scenario abbastanza probabile in cui le autorità, per giudicare chi merita la pena detentiva, adotteranno un processo decisionale di IA basato su algoritmi preimpostati. Ponendo il caso che l’autorità coinvolta abbia dei pregiudizi (nei confronti di una particolare razza o religione), potrebbe impostare gli algoritmi in modo che sostengano il pregiudizio e diano ad alcune persone pene più lunghe e severe. Quindi, il processo decisionale appare oggettivo perché frutto di una macchina, ma quella macchina è ancora guidata dall’uomo. Questo richiede grande responsabilità.
È molto più sensato orientarsi verso un sistema che combini le decisioni della tecnologia IA con quelle di esperti umani. Dobbiamo, però, pensare ai controlli e agli equilibri che possono essere implementati, piuttosto che considerare un prodotto abilitato all’IA semplicemente come un’altra utility.
Sostenere la trasparenza
La natura non deterministica dei sistemi di intelligenza artificiale infrange il modello delle applicazioni software tradizionali e introduce nuove dimensioni. Tutta la tecnologia può dare agli utenti motivo di preoccupazione, ad esempio quando un’applicazione per smartphone vuole conoscere la nostra posizione. Quello che però distingue l’IA dal resto della tecnologia è che l’intelligenza artificiale può prendere decisioni tangibili senza permessi tangibili. Spetta, quindi, ai produttori e agli sviluppatori l’onere di essere trasparenti con i propri clienti sul perché di tali decisioni.
La tendenza diffusa negli anni è quella di non prevenire le potenziali minacce, ma limitarsi ad affrontarle quando queste si verificano. Ad esempio, per decenni le organizzazioni di tutta Europa hanno raccolto milioni di dati senza alcuna regolamentazione. Il GDPR, su cui oggi facciamo affidamento, è stato introdotto solo nel 2018 dopo anni di dibattito. Un approccio simile viene utilizzato anche per l’adozione della sicurezza informatica. Se un’impresa fosse violata il suo team di sicurezza farebbe tutto il possibile per limitare i danni. L’introduzione del GDPR, completato in 27 paesi, è un ottimo risultato. Da questa implementazione si possono trarre molti insegnamenti che possono essere utilizzati per i futuri regolamenti sull’IA.
L’approccio deve cambiare e passare da soluzioni reattive a soluzioni preventive, soprattutto quando si tratta di proteggere l’intelligenza artificiale e il machine learning dalle ultime minacce informatiche. Se gli algoritmi possono essere modificati dagli sviluppatori, è vero anche che possono essere manipolati dagli hacker. Le discussioni aperte sulla protezione dell’IA e su come mantenerla obiettiva sono la prima occasione in cui sviluppatori e utenti si stanno dimostrando preoccupati delle conseguenze della tecnologia prima di poterne raccogliere i benefici.
Nov 21, 2024 0
Nov 04, 2024 0
Ott 22, 2024 0
Ott 21, 2024 0
Nov 22, 2024 0
Nov 20, 2024 0
Nov 19, 2024 0
Nov 18, 2024 0
Nov 22, 2024 0
Secondo una ricerca di F5 Labs, gli attacchi DDoS sono...Nov 21, 2024 0
Google ha annunciato di aver trovato 26 nuove...Nov 14, 2024 0
L’FBI ha lanciato un allarme: stando a un avviso...Nov 13, 2024 0
I ricercatori di Securonix hanno scoperto CRON#TRAP, una...Nov 12, 2024 0
Le minacce APT sono in aumento e in molti casi stanno...Ott 09, 2024 0
Negli ultimi anni sempre più aziende stanno sottoscrivendo...Ott 02, 2024 0
Grazie al machine learning, il Global Research and Analysis...Set 30, 2024 0
Il 2024 è l’anno delle nuove normative di sicurezza:...Mag 21, 2024 0
Una delle sfide principali delle aziende distribuite sul...Mag 08, 2024 0
L’ultimo non è stato un buon anno per Microsoft:...Nov 22, 2024 0
Secondo una ricerca di F5 Labs, gli attacchi DDoS sono...Nov 21, 2024 0
Playlist e podcast sono l’esca ideale per attirare ignari...Nov 21, 2024 0
Google ha annunciato di aver trovato 26 nuove...Nov 20, 2024 0
Una campagna di spionaggio a opera di hacker cinesi ha...Nov 19, 2024 0
I ricercatori di Sekoia hanno individuato una nuova...