The paper argues that Shapley allocation is the most suitable risk allocation method for financial institutions, balancing theoretical properties, accuracy, and practicality. It overcomes perceived computational intractability by replacing the exponential analytical approach with an efficient Monte Carlo algorithm that scales linearly and becomes preferable for ≥10-14 units. The study proposes solutions for negative allocations, a consistent multi-level hierarchical framework (PTD, CTD, BU approaches), and demonstrates applicability to large trading portfolios under Basel 2.5 and FRTB regimes, showing Shapley better captures diversification and hedging effects compared to simpler methods.
The BCBS November 2025 monitoring report (data as of 31 December 2024) on 176 banks shows Group 1 banks’ CET1 ratios rose to 14.0%, with no capital shortfalls under fully phased-in Basel III rules. Full implementation is projected to raise Tier 1 minimum required capital by 1.4% for Group 1 banks, driven mainly by the output floor and market risk revisions. A €5.7 billion TLAC shortfall persists among some G-SIBs. Operational risk’s share of MRC fell to 16.0% as 2008-crisis losses fade, but the report notes Covid-19-related losses may soon increase operational risk capital. Leverage and liquidity ratios remained stable and well above minima.
Le G7 Cyber Expert Group analyse l’impact croissant de l’intelligence artificielle sur la cybersécurité du secteur financier. L’IA, notamment l’IA générative et les systèmes agentiques, offre des capacités avancées pour renforcer la détection des menaces, automatiser l’analyse d’anomalies, améliorer la réponse aux incidents et surveiller plus efficacement les fournisseurs et chaînes d’approvisionnement. Ces atouts peuvent accroître la résilience opérationnelle des institutions financières.
Parallèlement, l’IA génère de nouveaux risques. Les acteurs malveillants peuvent utiliser ces technologies pour créer des attaques plus sophistiquées, automatiser le développement de maliciels, produire des campagnes d’hameçonnage hautement personnalisées ou contourner des systèmes de défense. Les modèles d’IA eux-mêmes deviennent vulnérables à la manipulation des données, aux fuites d’informations ou aux attaques d’ingénierie sociale visant les systèmes automatisés.
Le rapport souligne que ces évolutions exigent une adaptation de la gouvernance, de la supervision, de la gestion des tiers et des compétences internes. Les institutions doivent intégrer la cybersécurité dans le développement et l’usage de l’IA, assurer une supervision humaine adéquate, protéger les données, renforcer la détection et la réponse aux incidents et investir dans les compétences spécialisées. Les autorités sont encouragées à actualiser leurs cadres de risque, à coopérer avec l’industrie et la recherche, et à promouvoir une IA sûre, fiable et transparente pour préserver la stabilité du système financier.