Posted: 26 May 2023 6 minuti Tempo di lettura

La responsabilità nell’utilizzo dell’AI in ambito FSI

di Alessandra Ceriani - DCM Consulting FSI Leader
Chiara Celsi, Partner Strategy, Analytics and M&A
Andrea Leuzzi, Partner Core Business Operations
Luigi Capitanio, Partner Strategy, Analytics and M&A 

L’Intelligenza Artificiale è una famiglia di tecnologie in rapida evoluzione che può portare a una vasta gamma di benefici economici e sociali in tutto lo spettro delle industrie e delle attività collettive. Migliorando la previsione di alcune grandezze, ottimizzando le operazioni manuali e l'allocazione delle risorse e personalizzando l'erogazione dei servizi, l'uso dell'intelligenza artificiale può sostenere risultati socialmente e ambientalmente vantaggiosi e fornire vantaggi competitivi fondamentali alle imprese e all'economia europea.

Il mondo bancario, che dispone di enormi moli di dati ad alto potenziale informativo, si presta a una proficua introduzione dei principi e dei metodi dell’AI che stanno portando una vera e propria rivoluzione dei servizi finanziari. Automatizzando i processi di back-office, l'analisi dei dati e la personalizzazione delle esperienze dei clienti, gli algoritmi di AI sono in grado di migliorare l’efficienza dei processi, aumentando la precisione e la qualità della customer experience. Secondo una recente analisi di Deloitte, il 66% degli executive sostengono che le nuove tecnologie continueranno a guidare il banking globale nei prossimi cinque anni, oltre che la regolamentazione e il cambiamento del comportamento dei clienti. Inoltre, il 32% dei fornitori di servizi finanziari, utilizzano già l'AI per l'analisi predittiva, il riconoscimento vocale e altre funzionalità.

Gli stessi elementi e le stesse tecniche che alimentano i benefici dell’AI possono però creare nuovi rischi o conseguenze negative per gli individui e la società. Infatti, permettere a degli algoritmi di avere un ruolo rilevante nei processi di decision-making di tipo finanziario ed economico solleva anche delle questioni etiche che meritano una particolare attenzione: è corretto dare a un algoritmo la possibilità di interferire all’interno di decisioni che riguardano in modo così delicato le vite delle persone?

A questo proposito, molte aziende sono ancora restie nell’affidare all’Intelligenza Artificiale azioni dispositive e decision-making e il 41% degli esperti di tecnologia ha mostrato preoccupazione relativamente agli strumenti di AI utilizzati dalla propria organizzazione. Le aziende più intraprendenti stanno lavorando per risolvere questi problemi di fiducia nella trasformazione digitale, iniziando per esempio a trattare l’AI come un tassello in un processo più ampio con il quale le persone posso interagire, lavorando per identificare e risolvere le aree di potenziale sfiducia.

Nel 2019 la commissione Europea ha sviluppato il Codice di condotta ACT (AI Code of Conduct for Trustworthy AI in the European Union), un documento contenente una serie di principi guida per garantire che l'AI sia sviluppata, utilizzata e diffusa in modo sicuro, equo e rispettoso dei diritti fondamentali dei cittadini. Il codice si basa sui valori dell'UE e sui diritti fondamentali e mira a dare alle persone la fiducia necessaria per adottare soluzioni basate sull'AI, incoraggiando le imprese a svilupparle. Anche il Parlamento europeo ha intrapreso un lavoro considerevole nel settore. Nell'ottobre 2020, ha adottato una serie di risoluzioni relative all'AI, anche in materia di etica, responsabilità e copyright. Nel 2021, queste sono state seguite da risoluzioni sull'AI in materia penale e nell'istruzione, nella cultura e nel settore audiovisivo, con il medesimo obiettivo di sfruttarne le opportunità e i benefici ma garantendo la protezione dei principi etici.

Per far fronte alle numerose sfide generate da questa ondata di innovazione e ottenere quindi un’AI più solida, i principali player si sono attivati per individuare i principi guida e le norme da adottare per poter gestire la tematica, puntando quindi sulla trasparenza dei dati, sull’affidabilità degli output e sulla “spiegabilità” degli algoritmi, ovvero la capacità di un modello di fornire una giustificazione esplicita per le sue decisioni o raccomandazioni.

La trasparenza dei dati permette all’utente di comprendere come gli stessi vengono raccolti e utilizzati, rendendo più chiare le motivazioni che stanno alla base delle decisioni proposte dalle tecnologie e di conseguenza le ragioni per le quali l’AI è in grado di fornire output affidabili e consapevoli.

In stretta correlazione a questo fattore, si pone la necessità di creare algoritmi quanto più chiari possibili, per permettere all’utente di comprendere il processo decisionale ed evitare il comune problema delle black box che permea spesso queste tematiche. L’adozione di metodologie di Explainable AI, che garantiscano agli individui il cosiddetto “right to explaination” relativo alle scelte che li riguardano, diventa non solo una sfida tecnica, ma anche e soprattutto un dovere della Data Science.

Un ulteriore fattore che merita la giusta attenzione, riguarda l’affidabilità degli output che vengono prodotti: l’attenzione si sposta quindi sull’accuratezza del risultato. Soprattutto all’interno di scenari più delicati, quali il mondo dei servizi finanziari, è importante per l’utente avere un chiaro livello di precisione del risultato che gli viene proposto, nell’ottica di poter valutare quanto è affidabile la tecnologia e quanto è sicura la decisione che viene presa di conseguenza. È necessario precisare il fatto che affidabilità non significa perfezione: come l’uomo può sbagliare, anche l’AI può fare degli errori. L’obiettivo è quello di creare tecnologie in grado di superare il livello di precisione di una comune performance umana.

A tal proposito, un altro fattore non trascurabile collegato al tema di qualità dei risultati è la presenza di bias e discriminazioni. Per poter ridurre la probabilità di ottenere output distorti, errori elevati e mantenere quindi alta l’attenzione a queste complesse tematiche di etica, è necessario effettuare accurati controlli sui dati utilizzati, in modo da assicurare coerenza e prevenire l’utilizzo di dataset costruiti con ipotesi e pregiudizi che possano in qualche modo influenzare il comportamento del modello.

Per vedere un’applicazione pratica dei concetti sopra riportati, possiamo considerare i servizi di credito, nei quali l’etica si conferma essere un concetto fondamentale. Una tecnologia AI applicata a questo servizio deve quindi essere trasparente nella sua operatività, ciò significa che deve partire da informazioni chiare e comprensibili, quali per esempio i tassi di interesse, le commissioni, le spese e le clausole contrattuali, e allo stesso tempo essere in grado di assicurare la sicurezza e riservatezza all’utente in merito ai dati personali necessari per concludere le pratiche. Inoltre, affinché gli output possano rispettare gli standard etici previsti, è necessario controllare la qualità dei dati in termini di idoneità degli attributi considerati: per esempio l’esclusione dell’etnia è fondamentale per evitare ogni tipo di discriminazione durante queste valutazioni.

Deloitte segue e supporta le organizzazioni nella definizione delle loro metodologie, in modo da poter soddisfare le conformità richieste dai sistemi AI, mantenere elevata la fiducia e la reputazione con i propri clienti e sfruttare i benefici delle nuove tecnologie, mantenendo sotto controllo le vulnerabilità dei modelli e riducendo il rischio derivante dall’errato utilizzo dell’AI. Sulla base dell’esperienza consolidata nel settore, Deloitte ha sviluppato un approccio che mira a supportare i clienti nella verifica della conformità dei sistemi di AI alla regolamentazione europea e più in generale ad adottare un approccio all’intelligenza artificiale strutturato, etico e coerente. In un primo step viene definito il modello di adozione dell’AI target sulla base delle ambizioni e della mission di ciascuna organizzazione. Tramite un assessment poi è possibile identificare il divario tra le attuali procedure di AI adottate e i requisiti stabiliti dall’AI Act, creando un framework di adozione aziendale dell’AI che vada a colmare il gap identificato e che permetta contestualmente l’adozione di nuovi sistemi di AI conformi, etici e controllati.

In conclusione, è importante garantire che l'AI sia utilizzata in modo responsabile e trasparente, prevenendo la discriminazione e proteggendo i dati personali sensibili. Gli standard etici devono essere stabiliti e seguiti per mitigare eventuali rischi e garantire la fiducia dei clienti nei servizi finanziari basati sull'AI.


Alla stesura dell'articolo hanno collaborato anche Alessandro Bellotta, Edoardo Biadene e Giada Dalla Verde.

Scopri di più sull'autore

Alessandra Ceriani

Alessandra Ceriani

DCM Core Business Operations Leader

Alessandra Ceriani è Partner in Deloitte alla guida della Portfolio Offering Core Business Operations. Da giugno 2019 a maggio 2023 è stata FSI Consulting Leader per Deloitte Central Mediterranean (DCM) e ha guidato il settore Banking e Capital Markets all’interno del Network DCM. Dal 2017 è responsabile per l’Italia delle soluzioni Robotics & Intelligent Automation e attualmente dell’EMEA Intelligent Automation Leadership Team. Prima di guidare la principale industry del Consulting, quella dei Financial Services, è stata responsabile dell’area Operations Transformation. È inoltre membro del board di Deloitte Climate and Sustainability (DCS) e della Fondazione Deloitte. Nella sua esperienza pluriennale si è sempre occupata di grandi processi di trasformazione con impatto sulla struttura delle organizzazioni, sui processi e sull’IT, per primarie realtà bancarie italiane e internazionali.