
Insurance Europe ha risposto alla bozza di parere dell’EIOPA sulla governance e gestione del rischio legate all’intelligenza artificiale, avvertendo che, nonostante l’intento di chiarire l’applicazione delle norme esistenti, il documento potrebbe invece introdurre oneri indiretti per le compagnie.
Insurance Europe sottolinea che, pur dichiarando di non imporre nuovi obblighi normativi, la formulazione del testo potrebbe essere interpretata dai supervisori come vincolante, generando aspettative superiori a quanto previsto dalla legislazione attuale. Per questo motivo chiede maggiore proporzionalità, distinguendo tra l’uso dell’AI nei processi interni da quello verso i clienti, nonché tra chi sviluppa e chi utilizza i sistemi di AI.
Viene anche evidenziata la necessità di differenziare tra il machine learning tradizionale e l’AI generativa, che sta trasformando il settore consentendo la personalizzazione dei documenti, l’automazione dei report normativi e l’analisi di dati non strutturati, ma che introduce anche nuovi rischi da gestire con attenzione.
Secondo i dati più aggiornati, il 50% degli assicuratori Danni e il 24% di quelli Vita in Europa già utilizza l’AI, con un ulteriore incremento previsto nei prossimi tre anni. In questo contesto, Insurance Europe ritiene sia essenziale una regolamentazione chiara e coerente, senza ostacolare l’innovazione.
Inoltre, viene segnalato un ulteriore punto critico: il rischio di doppia vigilanza, con autorità diverse che potrebbero sovrapporsi nel controllo del rispetto dell’AI Act e delle norme specifiche del settore assicurativo.
Insurance Europe invita quindi EIOPA a fornire indicazioni esplicite su come gestire tali sovrapposizioni. Infine, l’associazione ribadisce l’importanza di valorizzare i quadri normativi esistenti, come Solvency II, IDD, GDPR e il DORA, che già prevedono strumenti per garantire una gestione responsabile e sicura dell’intelligenza artificiale.