ACPR‑BdF: Déclaration relative à l'intelligence artificielle et à la cybersécurité
Le G7 Cyber Expert Group analyse l’impact croissant de l’intelligence artificielle sur la cybersécurité du secteur financier. L’IA, notamment l’IA générative et les systèmes agentiques, offre des capacités avancées pour renforcer la détection des menaces, automatiser l’analyse d’anomalies, améliorer la réponse aux incidents et surveiller plus efficacement les fournisseurs et chaînes d’approvisionnement. Ces atouts peuvent accroître la résilience opérationnelle des institutions financières.
Parallèlement, l’IA génère de nouveaux risques. Les acteurs malveillants peuvent utiliser ces technologies pour créer des attaques plus sophistiquées, automatiser le développement de maliciels, produire des campagnes d’hameçonnage hautement personnalisées ou contourner des systèmes de défense. Les modèles d’IA eux-mêmes deviennent vulnérables à la manipulation des données, aux fuites d’informations ou aux attaques d’ingénierie sociale visant les systèmes automatisés.
Le rapport souligne que ces évolutions exigent une adaptation de la gouvernance, de la supervision, de la gestion des tiers et des compétences internes. Les institutions doivent intégrer la cybersécurité dans le développement et l’usage de l’IA, assurer une supervision humaine adéquate, protéger les données, renforcer la détection et la réponse aux incidents et investir dans les compétences spécialisées. Les autorités sont encouragées à actualiser leurs cadres de risque, à coopérer avec l’industrie et la recherche, et à promouvoir une IA sûre, fiable et transparente pour préserver la stabilité du système financier.
Parallèlement, l’IA génère de nouveaux risques. Les acteurs malveillants peuvent utiliser ces technologies pour créer des attaques plus sophistiquées, automatiser le développement de maliciels, produire des campagnes d’hameçonnage hautement personnalisées ou contourner des systèmes de défense. Les modèles d’IA eux-mêmes deviennent vulnérables à la manipulation des données, aux fuites d’informations ou aux attaques d’ingénierie sociale visant les systèmes automatisés.
Le rapport souligne que ces évolutions exigent une adaptation de la gouvernance, de la supervision, de la gestion des tiers et des compétences internes. Les institutions doivent intégrer la cybersécurité dans le développement et l’usage de l’IA, assurer une supervision humaine adéquate, protéger les données, renforcer la détection et la réponse aux incidents et investir dans les compétences spécialisées. Les autorités sont encouragées à actualiser leurs cadres de risque, à coopérer avec l’industrie et la recherche, et à promouvoir une IA sûre, fiable et transparente pour préserver la stabilité du système financier.