Alors que la directive réglementaire Bâle III n’a pas encore fini d’être mise en place, Bâle IV se profile à l’horizon...
Le ratio de solvabilité, le ratio cooke (Bâle I) puis le ratio McDonough (Bâle II), a permis de définir les exigences de fonds propres minimales nécessaires aux banques pour que celles-ci puissent faire face aux risques financiers auxquelles elles sont confrontées (risque de crédits, marchés et opérationnels).
En 2010, suite à la crise des « subprimes », Bâle III a contribué à renforcer la qualité des fonds propres des organismes bancaires (augmentation du Core Tiers One, mise en place d’un coussin de sécurité et d’un ratio de levier), tout en appréhendant le risque de « liquidité » au travers de nouveaux ratios (Liquidity Coverage Ratio, Liquidity Coverage Ratio).
Bâle IV n’est pas encore aujourd’hui une nouvelle directive réglementaire, il s’agit plutôt de l’aboutissement de Bâle III. En effet, depuis la crise économique de 2007, les négociations entre les superviseurs internationaux ont fait apparaître des points de convergence sur les méthodes de valorision des risques de marché par exemple (mise en place de FRTB, remplacement de la VaR…), mais aussi des divergences en particulier avec nos homologues outre-Atlantique sur les pratiques visant à estimer le risque de crédit.
Si les Américains souhaitent baser le dispositif prudentiel sur des méthodes de calcul standard s’appuyant sur des agences de notations externes (Moody’s , Fitch, Standard & Poor's) et des pondérations prédéfinies par le régulateur, les Français et les Allemands quant à eux préfèrent appliquer les méthodes de valorisation interne (méthode avancée de « l’Internal Rating Based ») où l’établissement peut lui-même définir tous les paramètres du risque (probabilité de défaut, taux de perte ..).
Cette approche interne, autorisée par Bâle II, est moins consommatrice en fonds propres réglementaires que les méthodes standards pour les établissements assujettis. Bien que les modélisations internes soient contrôlées par les superviseurs, c’est l’écart entre l’estimation des risques selon les deux approches qui est remis en cause.
La mise en place d’un planché « output floor », limitant l’écart entre les deux méthodologies, semble être l’une des voies probables mais peut-être pas suffisante pour rapprocher les points de vue. D’autres aspects peuvent également être approfondis afin de restaurer la confiance dans les modèles internes visant à harmoniser les pratiques de calcul des taux de perte (Loss Given Default).