
Chi risponde degli errori dell’intelligenza artificiale? La domanda non è più teorica né confinata ai laboratori di ricerca: attraversa i consigli di amministrazione, interpella i responsabili legali, coinvolge il mercato assicurativo. Sauro Mostarda, Ceo di Lokky, ritiene che con l’espansione dirompente dei dispositivi alimentati da large language models, “il tema dell’accountability algoritmica non è più rinviabile: riguarda la responsabilità delle imprese e la solidità dell’intero sistema economico".
L’Unione europea ha reagito all’accelerazione impressa dall’intelligenza artificiale generativa con un impianto normativo di ampia portata. L’AI Act introduce una classificazione dei sistemi di AI basata sul rischio, vieta pratiche considerate inaccettabili e impone obblighi stringenti di supervisione umana per le applicazioni ad alto rischio. Parallelamente, il Digital Services Act ridefinisce la responsabilità delle piattaforme online, stabilendo nuovi standard di trasparenza sugli algoritmi di raccomandazione e obblighi proattivi nel contrasto ai contenuti illegali e alla disinformazione. "Non siamo di fronte a norme simboliche", osserva Mostarda, "ma a un cambiamento strutturale che incide sui processi aziendali e impone una revisione profonda dei modelli organizzativi".
Il tessuto produttivo italiano è chiamato ad adeguarsi in un contesto che procede a due velocità.
Secondo il report “Lo Stato dell’intelligenza artificiale” realizzato da Astrid, un’adozione diffusa dell’AI potrebbe generare un valore aggiunto pari al 18% del PIL entro il 2040. Un potenziale considerevole, che tuttavia si scontra con ritardi strutturali. Lo stesso studio evidenzia infatti una posizione di arretratezza rispetto ai principali competitor europei e internazionali.
A confermare il divario interviene anche un’analisi dell’Organizzazione per la Cooperazione e lo Sviluppo Economico: mentre il 40% delle grandi imprese utilizza già soluzioni di intelligenza artificiale, solo l’11,9% delle PMI le ha integrate in modo sistematico nei propri modelli di business.
"Il rischio è che l’AI diventi un fattore di polarizzazione competitiva", avverte Mostarda, "ampliando la distanza tra chi dispone di risorse e competenze e chi, invece, fatica ad accedervi".
Eppure le prospettive restano rilevanti. L’intelligenza artificiale potrebbe incrementare la produttività del lavoro fino all’1,3% annuo nel prossimo decennio. Perché questo accada, però, occorre intervenire su fattori abilitanti chiave: connettività, disponibilità di dati e potenza di calcolo, competenze adeguate e accesso ai finanziamenti. "Senza un ecosistema favorevole, l’innovazione rischia di essere episodica o disorganica", sottolinea il Ceo di Lokky.
È in questo scenario che emerge con forza la figura dell’AI Compliance Manager, destinata a diventare centrale in vista delle scadenze normative del 2026. "Non è un semplice consulente tecnico", chiarisce Mostarda, "ma il garante dell’allineamento tra sistemi di intelligenza artificiale e quadro regolatorio". Il suo compito è accompagnare i progetti fin dalla fase di progettazione, guidando l’organizzazione verso il conseguimento delle certificazioni e delle dichiarazioni di conformità UE previste dall’AI Act e dalle normative collegate.
L’intelligenza artificiale, paradossalmente, sta trasformando anche la funzione di compliance. L’automazione della revisione documentale, il monitoraggio delle transazioni e l’analisi dei flussi informativi consentono di superare una visione meramente esecutiva del ruolo. "La compliance non può più essere percepita come un presidio difensivo", afferma Mostarda, "ma come una funzione strategica, orientata ai dati e capace di anticipare i rischi". Da centro di controllo a motore predittivo della governance del rischio: una metamorfosi che cambia l’equilibrio interno delle organizzazioni.
In questo nuovo assetto, il Compliance Manager diventa un interprete tra tre dimensioni interdipendenti: requisiti normativi, obiettivi di business e potenzialità tecnologiche. "È una figura di raccordo", spiega Mostarda, "chiamata a evitare che l’innovazione proceda in modo disarticolato rispetto al quadro regolatorio, esponendo l’impresa a rischi legali e reputazionali".
Le criticità emergono soprattutto nelle realtà meno strutturate. Il professionista è spesso chiamato a validare processi algoritmici sviluppati in contesti con governance fragili e limitata conoscenza tecnologica. "Il rischio non è soltanto l’errore tecnico", avverte Mostarda, "ma la difficoltà di individuare criticità sistemiche, come bias discriminatori non rilevati o output affetti da fenomeni di allucinazione". Nelle PMI, dove la distinzione delle responsabilità tra consulente e impresa può risultare opaca, queste vulnerabilità si amplificano.
Anche il settore assicurativo è chiamato a una riflessione profonda. Le tradizionali coperture di responsabilità civile professionale sono adeguate a scenari in cui l’errore può derivare da un algoritmo opaco o da una validazione incompleta? "Il mercato assicurativo deve interrogarsi sui nuovi profili di rischio legati all’AI", sostiene Mostarda, "e valutare se le coperture esistenti siano coerenti con un contesto tecnologico in rapida evoluzione".
In conclusione, l’AI Compliance Manager non si configura come un mero tecnico, ma come una figura chiave per l’integrazione sostenibile dell’intelligenza artificiale nel sistema produttivo italiano. "L’opportunità economica è evidente", conclude Mostarda, "ma la sua realizzazione concreta dipende dalla capacità di governare il rischio. Senza un mercato assicurativo maturo, il divario digitale rischia di trasformarsi in un divario competitivo". La sfida dei prossimi anni sarà culturale prima ancora che normativa: trasformare la compliance da costo obbligato a leva strategica di affidabilità e crescita.