
Chatbox, consulenza, personalizzazione del prodotto e/o del premio, gestione dei sinistri e prevenzione delle frodi sono i principali ambiti in cui il sistema assicurativo può ricorrere all’utilizzo dell’Intelligenza artificiale.
Nella newsletter mensile di marzo “Ivass informa”, l’istituto di vigilanza presenta un approfondimento sul tema, segnalando che un sistema di governance adeguato dovrà assicurare comportamenti etici e responsabili. Il nuovo numero della newsletter dell’Ivass apre con gli auguri di buon lavoro al nuovo presidente dell’Autorità, Luigi Federico Signorini, che ha assunto la carica contestualmente alla nomina di Direttore Generale della Banca d’Italia.
L’impiego dell’Artificial Intelligence, si legge nel documento di Ivass, nel settore finanziario e, in particolare, in quello assicurativo rappresenta un’importante opportunità per accrescere la capacità degli operatori di: soddisfare bisogni innovativi del mercato, produrre reddito e, contestualmente, favorire il benessere della società in generale.
L’utilizzo dei nuovi strumenti di AI, se inconsapevole dei rischi legali, tecnici ed etici che ad essi si accompagnano, può, d’altro canto, compromettere la fiducia del mercato, accrescere discriminazioni e diseguaglianze, ostacolare l’inclusività nell’offerta.
I benefici derivanti dall’impiego dell’AI nell’attività assicurativa possono realizzarsi appieno solo se ne è garantita l’affidabilità per i profili tecnici, legali, etici. In un contesto in cui l’intervento prescrittivo del regolatore – al di fuori dei campi della data privacy e cyber security - può risultare prematuro e alterare o limitare le potenzialità di sviluppo, è fondamentale la valorizzazione delle capacità delle imprese di auto organizzarsi.
Governance e organizzazione aziendale - intese in senso ampio come insieme di ruoli, persone, processi, strutture - sono le leve da attivare per evitare che l’utilizzo dei nuovi strumenti di intelligenza artificiale comprometta la relazione di fiducia tra istituzioni finanziarie e clientela.
La chiara imputazione delle responsabilità, manageriali e individuali, per lo sviluppo e applicazione dell’AI insieme alla cultura aziendale, improntata a principi etici condivisi, consentono di dare concreta attuazione all’esigenza di un coinvolgimento costante della componente umana per la gestione e mitigazione dei rischi dell’AI, siano essi attuali e potenziali, prevedibili o non ancora ipotizzabili.
La comunicazione all’esterno dei presidi adottati – in termini di governance, organizzazione interna, codici di condotta – ha poi le potenzialità per sostituire un enforcement affidato a regole prescrittive, che, per sua natura, ha carattere reattivo e non preventivo e, soprattutto, postula una piena conoscenza e maturità del fenomeno da regolare.
Un’adeguata disclosure dei presidi adottati dall’impresa per un’applicazione etica dell’AI e l’attenzione anche alla sostenibilità digitale nell’ambito dei principi ESG (Environmental, Social, Governance) potrebbero rappresentare una prima risposta alle asimmetrie informative implicite nell’uso dell’AI e affiancare la disciplina del mercato alle raccomandazioni dei regolatori per raggiungere l’obiettivo della massimizzazione e condivisione dei benefici dell’AI per tutti gli stakeholders.