Intelligenza artificiale & compliance: opportunità o sfida?
L’intelligenza artificiale sta permeando sempre più aspetti della nostra quotidianità. In che modo i/le Compliance Officer possono trarre vantaggio dai recenti progressi tecnologici e cosa devono tenere a mente?
L’intelligenza artificiale (Artificial Intelligence, AI) è una delle tendenze tecnologiche più importanti del nostro tempo e porterà a diversi cambiamenti. Per il settore della compliance ciò porterà numerosi vantaggi, ma anche sfide. L’intelligenza artificiale è la capacità di un sistema IT di imitare l’intelligenza umana. Un’intelligenza artificiale impara continuamente e può prendere decisioni in modo indipendente. Vengono utilizzate tecniche come l’apprendimento automatico e le reti neurali; quest’ultima si riferisce a un tipo di algoritmo modellato sul modo in cui funziona il cervello umano.
Cos’è l’Intelligenza Artificiale?
Le applicazioni di intelligenza artificiale che conosciamo oggi rientrano nella cosiddetta categoria di intelligenza artificiale “debole”. Questo non perché siano cattive, ma piuttosto perché sono state sviluppate appositamente per determinati compiti come il riconoscimento vocale, il riconoscimento delle immagini o il gioco degli scacchi. L’intelligenza artificiale forte, d’altro canto, dovrebbe essere in grado di risolvere da sola qualsiasi tipo di problema complesso. Anche se in realtà dovrebbe pensare e agire come un essere umano, siamo ancora molto lontani da quel punto. Il più alto livello di sviluppo sarebbe in definitiva una superintelligenza artificiale che supererebbe addirittura le capacità umane.
Come l’intelligenza artificiale supporta la compliance
L’intelligenza artificiale entra in gioco ogni volta che è necessario elaborare e analizzare grandi volumi di dati. Ciò che altrimenti richiederebbe ore e giorni, gli algoritmi intelligenti lo fanno in pochi secondi. Di conseguenza, possono ottimizzare i processi e alleviare il carico sui dipendenti umani. Ciò apporta preziosi vantaggi anche in ambito compliance, ecco alcuni esempi:
- I sistemi di intelligenza artificiale possono aiutare a scoprire più rapidamente potenziali violazioni della compliance e irregolarità interne. Gli algoritmi sono in grado di identificare modelli noti e apprenderne di nuovi autonomamente. Molte banche utilizzano già questa funzionalità per il rilevamento delle frodi.
- L’intelligenza artificiale può aiutare nell’analisi e nella valutazione del rischio di compliance raccogliendo, valutando e correlando dati da molte fonti interne ed esterne.
- L’intelligenza artificiale può filtrare documenti di compliance come regolamenti e standard, condurre un’analisi, dare priorità alle informazioni più rilevanti e far risparmiare ai/alle Compliance Officer molto tempo di lettura.
- Un chatbot basato sull’intelligenza artificiale semplifica la comunicazione in modo comprensibile delle policy di compliance all’interno dell’azienda. Può rispondere alle domande dei dipendenti ed è costantemente disponibile (come il nostro Policy Buddy).
Nuovi rischi di compliance con l’AI
Nonostante i suoi diversi vantaggi, l’intelligenza artificiale può anche diventare di per sé un rischio di compliance. Ad esempio, cosa succederebbe se un chatbot utilizzato nel recruiting di nuovi dipendenti discriminasse i candidati in base al colore della pelle o al genere? In effetti, le decisioni prese da un’intelligenza artificiale dipendono sempre dai dati con cui è stata addestrata. Se questo non è sufficientemente diversificato o riflette pregiudizi sociali, ciò si trasferisce all’intelligenza artificiale. Ad esempio, un sistema di recruiting può suggerire prevalentemente maschi bianchi per una posizione di leadership perché ha appreso dai dati storici che tali candidati erano preferiti in passato.
Affidarsi ciecamente all’intelligenza artificiale è pericoloso, soprattutto quando le decisioni non possono più essere tracciate. Per questo si parla anche di effetto “scatola nera”. Poiché un’intelligenza artificiale apprende in modo indipendente, cambia continuamente. Se viene alimentato con dati errati o addirittura manipolato da hacker, può prendere decisioni sbagliate e causare malfunzionamenti. Ecco perché è importante controllare regolarmente l’intelligenza artificiale.
La protezione dei dati rappresenta un’altra grande sfida. Questo perché i sistemi di intelligenza artificiale elaborano enormi quantità di dati, che possono contenere anche informazioni personali. I/le Compliance Officer devono garantire il rispetto del GDPR e ci sono ancora molte domande senza risposta a questo riguardo. Ad esempio, i dati che un utente inserisce in un’applicazione vengono spesso utilizzati per l’ulteriore sviluppo dell’AI, per cui confluiscono e si fondono con il modello AI. Qual è la base giuridica di questo processo? E come possono ancora gli interessati esercitare il diritto alla cancellazione dei dati?
Il EU AI Act sta arrivando
I legislatori dell’UE stanno anche affrontando i rischi che l’IA può comportare. Attualmente stanno discutendo la legge sull’intelligenza artificiale, che dovrebbe regolamentare lo sviluppo e l’utilizzo dell’intelligenza artificiale. Il 14 giugno 2023 il Parlamento Europeo ha pubblicato la sua posizione sul disegno di legge. Ora è nel cosiddetto trilogo e sarà finalizzato nei colloqui tra la Commissione europea, il Consiglio dei ministri dell’UE e il Parlamento europeo. La nuova legge potrebbe entrare in vigore già alla fine del 2023. La legge sull’AI distingue quattro livelli di rischio, da minimo a inaccettabile. Le applicazioni che rientrano in queste ultime sono vietate mentre le altre sono soggette a requisiti adeguati alla loro categoria di rischio. La non conformità può comportare sanzioni fino a 30 milioni di euro o al 6% delle vendite globali totali. La legge sull’intelligenza artificiale colpisce quasi tutte le aziende e di conseguenza è probabile che abbia un’ondata simile a quella del GDPR. I responsabili della compliance avranno quindi ancora più lavoro da fare.
Conclusioni
Anche se l’intelligenza artificiale diventerà sempre più diffusa, non è ancora possibile prevedere dove porterà tutto ciò. Per il settore della compliance, la tecnologia rappresenta sia una sfida che un’opportunità. Da un lato aiuta a gestire le crescenti esigenze. D’altro canto, però, comporta nuovi rischi. I responsabili della compliance non possono più evitare di occuparsi di intelligenza artificiale e con l’imminente legge UE sull’intelligenza artificiale l’argomento diventerà obbligatorio.
Principi chiave per stabilire un programma anticorruzione (ABC program) efficace