L’Esma rappelle le besoin de superviser l’usage de l’IA dans la finance

AWP

1 minute de lecture

Le régulateur européen estime que l’intelligence artificielle «présente des risques inhérents, notamment des biais algorithmiques, des enjeux sur la qualité des données et un (potentiel) manque de transparence».

L’Autorité européenne des marchés financiers (Esma) rappelle jeudi dans un communiqué que l’usage de l’intelligence artificielle (IA) dans la finance doit être supervisé et se faire en toute transparence pour les clients.

«L’avancement de l’intelligence artificielle (IA) a le potentiel de transformer le paysage des services d’investissement aux particuliers en offrant des opportunités hors pair en matière d’efficacité, d’innovation et d’amélioration des prises de décisions», estime l’Esma.

Mais le régulateur européen souligne également que l’IA «présente des risques inhérents, notamment des biais algorithmiques, des enjeux sur la qualité des données et un (potentiel) manque de transparence».

Pour s’assurer que les financiers restent dans les clous de la réglementation européenne tout en utilisant une IA, l’Esma rappelle que «l’engagement d’agir dans le meilleur intérêt des clients» doit rester central et doit donc être intégré aux systèmes d’IA utilisés afin que ceux-ci s’adaptent aux besoins des clients.

«Les sociétés d’investissement devraient être transparentes» envers les clients «sur le rôle de l’IA dans les processus de prises de décisions d’investissement», conseille l’Esma.

L’Autorité recommande également de «procéder régulièrement à des tests des modèles d’IA et de superviser les systèmes d’IA pour identifier et atténuer les potentiels risques de biais».

Ces contrôles doivent couvrir les données utilisées pour entraîner les modèles d’IA, les informations issues de l’IA, les risques concernant le stockage de données, ou encore l’évaluation de l’impact de l’IA sur les services financiers proposés.

«Les décisions de l’entreprise restent de la responsabilité de l’équipe de direction, peu importe si ces décisions ont été prises par des personnes ou par des outils basés sur l’IA», martèle l’Esma.

L’ESMA recommande que les équipes concernées soient formées à «utiliser, interpréter et travailler avec l’IA», et informées «des potentiels risques, considérations éthiques et implications réglementaires».

Dans le domaine financier, l’IA peut être utilisée pour le service client, comme outil pour fournir des conseils en investissement, ou encore dans la gestion des risques financiers et la détection de fraudes.

Au niveau européen, les députés ont adopté en mars des règles pour encadrer les systèmes d’intelligence artificielle (IA) comme ChatGPT, une législation unique au monde.

A lire aussi...