L'intelligence artificielle, une nouvelle source de risque systémique ?

Introduction : Au‑delà du robot‑trader

Le récit dominant autour de l'IA dans la finance est celui d'une efficacité sans limites. Mais cette vision est dangereusement incomplète. Tandis que le secteur célèbre l'innovation visible côté client, une analyse plus profonde des nouvelles fondations du système - mise en lumière dans un rapport alarmant du Conseil de stabilité financière (FSB) - révèle que les infrastructures mêmes de la finance mondiale sont discrètement sous‑traitées à une poignée de géants technologiques.

Derrière la promesse de produits hyperpersonnalisés et d'opérations rationalisées, une nouvelle structure de pouvoir, presque invisible, est en train de se construire. L'analyse du FSB confirme qu'à mesure que les institutions financières se ruent vers l'adoption de l'IA, elles créent des dépendances systémiques profondes à l'égard de fournisseurs technologiques externes. Ces dépendances introduisent des nouveaux risques extraordinairement difficiles à détecter - et encore plus à gérer - pour les régulateurs.

Cet article va au‑delà du battage médiatique pour résumer les constats les plus marquants du rapport du FSB. Il révèle la véritable portée des inquiétudes des régulateurs : un déplacement stratégique du risque des bilans des banques régulées vers les opérations opaques d'entreprises technologiques non régulées.


1. Le boom de l'IA financière repose sur une technologie empruntée

L'intégration rapide de l'IA dans la finance ne se fait pas en interne. Les institutions financières adoptent de plus en plus des applications, modèles et plateformes développés par des entreprises technologiques externes. Cette dépendance stratégique s'accélère à un rythme remarquable. Selon une enquête menée en 2024 par la Banque d'Angleterre et la Financial Conduct Authority, 33 % des cas d'usage de l'IA dans les services financiers britanniques étaient mis en œuvre par des tiers - contre seulement 17 % en 2022.

Pour les entreprises cherchant à exploiter des outils de pointe comme la GenAI, cette dépendance est presque inévitable. Les modèles fondamentaux qui alimentent ces services sont préentraînés par quelques entreprises spécialisées, rendant prohibitif et complexe le développement de technologies équivalentes en interne.

Cette tendance dépasse largement une simple décision d'approvisionnement : elle modifie la nature même du risque financier. En externalisant leur avenir technologique, les institutions importent aussi une nouvelle forme de risque systémique, hautement concentré, qui échappe au périmètre réglementaire traditionnel et confie la stabilité des services financiers à un petit nombre d'acteurs technologiques clés.


2. Une poignée de géants technologiques contrôle discrètement la chaîne d'approvisionnement de l'IA financière

L'adoption généralisée de technologies « empruntées » a engendré une vulnérabilité nouvelle et alarmante : une concentration extrême dans la chaîne d'approvisionnement de l'IA financière. Imaginez cette chaîne comme une pile technologique : à la base, les puces spécialisées (matériel) ; au‑dessus, les centres de données en cloud (infrastructure) ; puis les immenses ensembles de données d'entraînement (données) ; les modèles d'IA eux‑mêmes ; et enfin, les applications logicielles visibles par l'utilisateur.

Le rapport du FSB confirme une forte concentration de marché à plusieurs de ces niveaux, notamment dans le matériel et l'infrastructure cloud, dominés par quelques grands fournisseurs mondiaux. Cette domination est amplifiée par une intégration verticale, où une même entreprise peut concevoir les puces d'IA, posséder la plateforme cloud, développer le modèle fondamental et proposer l'application finale - l'équivalent d'une société unique possédant les champs pétrolifères, les raffineries, les pipelines et les stations‑service. Cela renforce la dépendance et rend tout changement de fournisseur extrêmement coûteux pour les institutions financières.

Bien que l'émergence des modèles d'IA “open‑weight offre un contrepoids potentiel à long terme, le marché reste aujourd'hui dominé par des systèmes propriétaires. Cette situation crée une vulnérabilité systémique, comme le souligne le FSB :

« L'homogénéisation des données d'entraînement et des architectures de modèles peut conduire à des sorties corrélées, susceptibles d'amplifier les tensions sur les marchés et d'aggraver les crises de liquidité. »


3. Les régulateurs financiers peinent à cartographier ce nouveau monde

Ce paysage technologique, à la fois complexe et concentré, est extrêmement difficile à surveiller pour les autorités financières. Bien que les régulateurs tentent activement de suivre la montée de l'IA, le rapport du FSB décrit leurs efforts comme étant à un « stade précoce », freinés par plusieurs obstacles fondamentaux :


  • Absence de définitions communes de l'IA : chaque entreprise ou autorité a sa propre interprétation, rendant la collecte et la comparaison de données difficiles.
  • Problèmes de comparabilité : sans définitions standard, évaluer les risques à travers les institutions et les frontières devient quasi impossible.
  • Évaluation de la criticité : il est extrêmement difficile pour les régulateurs de déterminer à quel point un service d'IA tiers est essentiel aux opérations d'une institution.
  • Coûts et ampleur : la mise en œuvre de programmes de surveillance complets est coûteuse, tant pour les régulateurs que pour les entreprises supervisées.


Ces difficultés sont aggravées par l'apparition de nouvelles formes de défaillance, comme les systèmes d'IA mal alignés - lorsque les objectifs de l'IA divergent des normes légales, réglementaires ou éthiques. Pour une technologie qui transforme le système financier à une vitesse inédite, le fait que les régulateurs luttent encore avec ces notions de base est une source majeure d'inquiétude.


4. Le risque de « comportement moutonnier » : la menace invisible que tout le monde redoute

Le risque ultime associé à l'IA financière est celui du panurgisme numérique - le danger que plusieurs systèmes d'IA, entraînés sur des données similaires ou issus des mêmes fournisseurs, réagissent de manière identique et simultanée à un événement de marché. Un tel comportement corrélé pourrait amplifier brutalement les fluctuations des marchés, voire déclencher un krach éclair.

Ce risque de comportement moutonnier découle directement de la concentration évoquée précédemment. Lorsque la majorité du marché dépend de modèles issus d'un petit nombre de fournisseurs - utilisant des données et des architectures semblables - leurs réactions deviennent nécessairement corrélées. Ce n'est pas seulement que le « troupeau » pourrait s'emballer : c'est qu'il est guidé par quelques bergers invisibles.

Le rapport du FSB confirme qu'il s'agit d'une vulnérabilité majeure - et, fait troublant, l'une des plus difficiles à surveiller. L'opacité des modèles d'IA complexes et l'absence d'indicateurs directs rendent pratiquement impossible le suivi de ces corrélations en temps réel. D'où une conclusion inquiétante : le risque systémique le plus redouté de l'IA financière est aussi celui que les régulateurs perçoivent le moins.


Conclusion : Un système plus efficace… ou plus fragile ?

Le rapport du FSB sonne une alerte discrète mais sérieuse. La véritable histoire de l'IA dans la finance ne concerne pas seulement ses avantages, mais aussi les dépendances systémiques profondes qu'elle engendre en coulisse. Il montre que, tout en externalisant leur avenir technologique, les institutions financières importent une nouvelle forme concentrée de risque systémique, échappant au périmètre réglementaire classique.

Alors que les institutions financières se livrent une course à l'innovation, les régulateurs mènent une course parallèle pour développer les outils et la compréhension nécessaires à la stabilité. La question cruciale n'est plus de savoir si l'IA transformera la finance, mais si la stabilité du système lui‑même ne devient pas un produit dérivé des mêmes entreprises qui gèrent nos moteurs de recherche et nos réseaux sociaux.