Alcuni problemi connessi all'adozione dell'IA nell'industria finanziaria italiana
Il rapporto OCSE/Banca d'Italia “L’intelligenza artificiale nei mercati finanziari italiani” (che potete scaricare dal sito della Banca d’Italia cliccando qui) evidenzia la presenza delle seguenti classi di criticità:
1. Vincoli regolamentari
L'incertezza normativa è il freno principale, quello maggiormente citato dagli operatori:
a) mancanza di chiarezza su cosa costituisce un "modello di IA" ai fini regolamentari, con conseguente confusione sugli obblighi normativi applicabili;
b) sovrapposizione normativa tra AI Act europeo e framework esistenti (CRR, DORA), che aumenta costi e complessità di compliance;
c) frammentazione tra giurisdizioni diverse, identificata come vincolo strutturale dagli operatori finanziari globali;
d) assenza di orientamenti di vigilanza chiari, citata nell'8% dei casi come vincolo rilevante;
e) rischi legati a protezione dei dati, proprietà intellettuale e responsabilità legale.
Sotto il profilo strategico, le istituzioni che riusciranno a presidiare per tempo la compliance all'AI Act acquisiranno un vantaggio competitivo significativo rispetto a quelle che si troveranno ad adeguarsi in ritardo.
2. Vincoli organizzativi, culturali e di possesso di competenze
Il secondo freno all’adozione di modelli IA nell’industria finanziaria è dato dall’insieme dei seguenti fattori:
a. carenza di talenti: un intervistato su quattro cita difficoltà significative nel reperire data scientist e profili tecnici specializzati. Tali profili, inoltre, soffrono spesso della lentezza dei processi aziendali e abbandonano la banca o l’istituzione finanziaria;
b. resistenza al cambiamento e cultura aziendale non orientata all'innovazione;
c. silos organizzativi: mancanza di collaborazione tra IT, compliance e risk management, funzioni essenziali per implementare l'IA.
d. priorità interne concorrenti che sottraggono risorse ai progetti IA.
Sotto il profilo strategico, investire in formazione interna e in un modello operativo di AI cross-funzionale (ad esempio un “AI governance team”) sarà una leva critica per accelerare l'adozione di modelli AI rispetto ai concorrenti.
3. Vincoli relativi ai dati
a) come noto (da sempre) una qualità dei dati insufficiente, per accuratezza e coerenza, rende difficoltoso il lavoro anche agli agenti AI (“garbage in, garbage out”). Questo problema viene citato da circa un terzo degli intervistati come il principale vincolo non regolamentare;
b) difficoltà di accesso ai dati;
c) assenza di processi strutturati di data management.
La data readiness è quindi un prerequisito competitivo: le aziende che investono oggi in data quality e governance costruiscono un asset strategico duraturo sulla base del quale potranno conseguire i più significativi benefici indotti dalla introduzione degli agenti AI.
4. Vincoli tecnologici e di costo
a) sistemi IT legacy difficili da integrare con le piattaforme IA moderne (alcune imprese li mantengono anche per ragioni di cybersicurezza);
b) ROI difficile da quantificare: giustificare gli investimenti IA nei processi di budget è problematico;
c) dipendenza da fornitori terzi: forte concentrazione su quattro principali provider, con rischi di lock-in e scarsa trasparenza sui modelli utilizzati;
d) elevati costi di implementazione iniziali.
Definire metriche di ROI specifiche per i progetti IA (efficienza operativa, riduzione errori, velocità di processo) sarà quindi fondamentale per ottenere budget interno e sostenere la roadmap di adozione.
5. Vincoli operativi e di affidabilità del modello
a) allucinazioni e output inaffidabili dei modelli;
b) limitata spiegabilità (explainability) dei modelli, fattore critico in contesti altamente regolamentati;
c) rischio di eccessivo affidamento all'IA senza adeguata supervisione umana;
d) rischi cyber amplificati dall'interconnessione dei sistemi;
e) rischi reputazionali e di manipolazione del mercato.
Il sintesi i problemi non sono solo tecnici, ma sono prevalentemente organizzativi, culturali e regolamentari. Le soluzioni più efficaci richiedono una forte leadership, una elevata capacità di governance e significativi investimenti in persone prima ancora che in tecnologia.