Riceviamo e pubblichiamo l’analisi di Nunzia Melaccio, partner e head of financial and banking regulation, e Camilla Capaldo, associate (Osborne Clarke)
La Risoluzione del Parlamento europeo riguardante l’impatto dell’intelligenza artificiale nel settore finanziario (2025/2056(INI)) offre un’utile ricognizione dello stato di adozione dell’IA nei servizi finanziari e del relativo quadro normativo vigente, concludendo con una serie di raccomandazioni alla Commissione e alle autorità coinvolte affinché vengano definite regole chiare e sia rafforzato il coordinamento di vigilanza.
Diffusione dell’IA nel settore dei servizi finanziari e rischi connessi
Il Parlamento ha osservato come l’intelligenza artificiale, e in particolare l’IA generativa basata su modelli linguistici di grandi dimensioni (LLM), non costituisca più una mera innovazione emergente, ma sia da tempo entrata a far parte degli strumenti di supporto utilizzati nel settore finanziario. È sempre più frequente, inoltro, l’impiego di tali strumenti che incide direttamente su decisioni che riguardano le persone. In questa prospettiva, il Parlamento, pur riconoscendo la grande opportunità di innovazione per gli istituti finanziari europei, rivolge la propria attenzione sui clienti, ponendo l’accento sulla necessità che i vantaggi derivanti dall’impiego dell’IA si traducano in utilizzi effettivamente a loro favore, ad esempio attraverso una riduzione dei prezzi, un miglioramento nella qualità dei servizi e una maggiore inclusività.
La Risoluzione richiama, inoltre, una serie di rischi trasversali, che non discendono tanto dalla singola casistica d’uso, quanto da tratti strutturali ricorrenti dei sistemi di IA. L’impiego di tali sistemi può difatti tradursi in esiti discriminatori, pratiche di vendita improprie e distorsioni sistematiche. L’utilizzo di modelli particolarmente opachi e complessi rischia di determinare l’esclusione dei consumatori più vulnerabili. Infine, la forte concentrazione dell’offerta di servizi di IA può incentivare comportamenti gregari e amplificare i rischi sistemici in caso di interruzione o malfunzionamento dei servizi.
Quadro regolamentare
Il Regolamento sull’intelligenza artificiale (Regolamento UE 2024/1689) disciplina i casi d’uso di intelligenza artificiale fondata su una graduazione degli obblighi in base al livello di rischio.
Fatta eccezione per i casi d’uso ad alto rischio e per quelli vietati – per cui trovano applicazione tali specifici obblighi – gli altri sistemi di intelligenza artificiale possono essere utilizzati nel rispetto della normativa settoriale vigente in materia di servizi finanziari, considerata per il
momento sufficiente a coprire la diffusione dell’IA nella sua forma attuale. La combinazione di queste discipline è, però, suscettibile di generare sovrapposizioni e interazioni regolatorie non sempre agevoli da interpretare, rendendo necessario un lavoro di coordinamento e chiarimento applicativo.
Raccomandazioni per garantire un uso responsabile dell’AI nei servizi finanziari del Parlamento Europeo
In un contesto europeo orientato alla promozione degli investimenti nei sistemi di intelligenza artificiale, all’innovazione e allo sviluppo di tali tecnologie, il Parlamento ha richiamato l’esigenza di affiancare a questo impulso una solida azione di controllo.
Su questa linea, ha invitato le autorità di vigilanza europee e nazionali a svolgere un’attività di monitoraggio continuativa dei rischi connessi al loro impiego nel settore dei servizi finanziari, sia per mantenere sotto controllo i rischi già noti, sia per individuare tempestivamente eventuali nuovi rischi, valutarne l’impatto e adottare misure idonee ad attenuarne gli effetti sui consumatori e sulla stabilità finanziaria. L’attività di supervisione dovrà essere condotta in modo proporzionato e avulso da approcci regolatori eccessivamente prescrittivi, in modo tale da non ostacolare l’innovazione.
Viene infatti evidenziata la possibilità che ulteriori interventi regolatori, ove non sufficientemente calibrati e proporzionati, possano finire per privare il settore dei benefici derivanti dall’adozione di soluzioni di intelligenza artificiale, attenuandone il potenziale innovativo e competitivo attraverso oneri eccessivi o incertezze applicative.
Il perseguimento di tali obbiettivi passa, anzitutto, attraverso la verifica delle modalità di applicazione del regolamento sull’intelligenza artificiale, nonché del prossimo pacchetto “omnibus” in ambito digitale, al fine di valutarne il coordinamento con il quadro regolatorio esistente. Esso presuppone, inoltre, un’attenta analisi dello stato di attuazione della normativa già vigente in materia di servizi finanziari.
In questa prospettiva, il monitoraggio dei rischi connessi all’impiego dell’intelligenza artificiale assume anche una funzione “diagnostica”, in quanto consente di comprendere se e in che misura l’attuale assetto normativo presenti duplicazioni o incoerenze che richiedano chiarimento o interventi di armonizzazione e eventuali lacune che incidano su ambiti caratterizzati da rischi significativi per i consumatori o per la stabilità finanziaria.
In coordinamento con le autorità di vigilanza europee e nazionali, la Commissione è stata dunque invitata a fornire orientamenti chiari e pratici volti a prevenire conflitti o duplicazioni tra i diversi interventi normativi in materia di servizi finanziari e a garantire che il relativo quadro regolatorio e i punti di contatto tra le varie discipline risultino di agevole comprensione e applicazione.
In particolare, gli orientamenti dovrebbero garantire che l’utilizzo dell’intelligenza artificiale tenga conto dei profili legati all’etica, alla trasparenza, alla responsabilità e alla tutela dell’interesse dei consumatori.
Lo scopo sotteso all’intervento del Parlamento è, dunque, quello di evitare che gli operatori finanziari facciano ricorso ai sistemi di IA in modalità tali da arrecare pregiudizio ai consumatori, dando luogo, tra l’altro, a esiti discriminatori o comunque in contrasto con i principi stabiliti dalla normativa applicabile.
Si intende, altresì, prevenire possibili punti di attrito derivanti dall’impiego di sistemi di intelligenza artificiale caratterizzati da un insufficiente livello di trasparenza, tali da fornire al soggetto chiamato ad assumere la decisione elementi di supporto che questi non è in grado di comprendere o verificare in modo adeguato. In simili circostanze, infatti, il soggetto è esposto al rischio di fondare le proprie determinazioni esclusivamente sugli esiti generati dal sistema, senza avere alcuna effettiva possibilità di conoscere quali dati siano stati utilizzati per l’elaborazione né, soprattutto, il processo che ha condotto il sistema a produrre tali risultati.
L’assunzione di responsabilità in relazione alle decisioni adottate facendo ricorso a sistemi di intelligenza artificiale implica anche l’adozione di un approccio valutativo e critico rispetto alle soluzioni proposte dallo strumento tecnologico, evitando che queste vengano recepite in maniera meramente automatica e richiede specifiche competenze per il soggetto che se ne avvale.
Conclusioni
L’attuale approccio alla regolamentazione dell’intelligenza artificiale nei servizi finanziari non sembra puntare, nell’immediato, all’introduzione di un nuovo e ulteriore strato di norme, che risulterebbe difficilmente conciliabile con un contesto tecnologico le cui implicazioni non sono ancora pienamente esplorate.
Si privilegia, piuttosto, l’adozione di strumenti normativi più flessibili, capaci di orientare gli operatori finanziari nell’interpretazione e nell’applicazione del quadro regolatorio esistente e
di guidarli verso un utilizzo dei sistemi di intelligenza artificiale che, da un lato, massimizzi i benefici per la clientela e, dall’altro, consenta di presidiare e mitigare in modo efficace i rischi connessi al loro impiego. In questo scenario in divenire, sarà proprio la capacità di coniugare innovazione e tutela degli investitori a determinare l’evoluzione – e il successo – delle future scelte regolamentari.
—
Innovazione
content.lab@adnkronos.com (Redazione)



