My CVA Desk.

Il y a, dans le monde de la finance de marché, une aversion à l’utilisation de l’open-source. La ligne rouge à ne pas franchir est donnée par l’argument suivant : le cœur de métier d’une institution financière, son savoir-faire, ne peut et ne doit surtout pas être standardisé.

Bien sûr, le système d’information peut reposer sur des standards open-source bien établis. Par exemple, il est judicieux pour des raisons de coûts et de risque opérationnels, de se reposer sur des bibliothèques techniques standardisées et solides comme Boost[1]. Et pour communiquer avec un pair, l’utilisation de standards de description et d’échanges de produits financiers comme FpML[2] s’avère parfois incontournable.

Dans cet article on va s’interroger sur la place que pourrait bien avoir un système open-source calculant l’exposition au risque d’une institution financière face à ses contreparties: d’un côté, ce calcul fait effectivement partie du cœur de métier d’une institution financière. Mais de l’autre, ce calcul dépend surtout de ses contreparties.

L’idée qui est défendue ici est qu’un système open-source ne peut bien évidemment pas se substituer à un calcul interne. Cependant, si on rend son utilisation modulaire, et qu’on le couple à des services d’interrogation, de simulation et de publication, une telle initiative est susceptible d’engendrer des profits pour tout les acteurs du système économique : investisseurs, régulateurs et agences de notations.

Les bénéfices à attendre sont ceux bien sûr inhérents à l’utilisation de l’open source. Cependant, dans le cas du calcul de risque de contrepartie, il y a surtout l’idée que ce type d’initiative serait susceptible à terme de pouvoir capturer le risque systémique[3]. Or, sans connaître le risque systémique, l’estimation d’une probabilité de défaut, qui est le cœur du calcul du risque de contrepartie, est-elle réaliste ? On aurait beau jeu de dire qu’historiquement, c’est plutôt l’inverse qui s’est systématiquement vérifié. On se contentera de remarquer qu’il existe un débat très houleux actuellement lié à l’approche que l’on a aujourd’hui du calcul du risque de contrepartie[4]. Et ce débat semble mener à la mésestimation du risque systémique dans le calcul des probabilités de défaut (un lien est fait par exemple dans 3).

On va dans la suite de cet article lister les bénéfices pour chaque type d’acteur. Puis on s’interrogera sur la faisabilité d’une telle initiative, d’un point de vue purement technique, et on conclura sur une remarque plus générale.

Les acteurs qui devraient être intéressés par ce type d’initiative sont :

Les investisseurs d’abord : banques de marché et/ou d’investissements, hedge funds, etc…

Les bénéfices sont ici bien sûr la notion de réduction des coûts de développement et de maintenance des calculateurs de risque de contrepartie internes. Dans la même veine, bénéficier d’un système open-source externe faciliterait le benchmark et l’audit des méthodes internes. Egalement, l’open-source permettrait l’accès à des méthodes internes de calcul du risque de contrepartie pour les acteurs les moins fortunés. Cela est intéressant financièrement, parce que les méthodes internes réduisent les provisions pour risque de contrepartie par rapport aux méthodes imposées par la réglementation. D’autre part, du point de vue de l’opérateur de marché, l’accès à un service externe faciliterait la réconciliation des prix. Cette remarque vaut autant pour ce qu’on appelle la CVA bilatérale, que pour la provision pour risque de contrepartie qu’on lui retire sur ses profits et pertes.

Mais le meilleur argument à notre sens est de remarquer qu’il suffit que deux, ou plusieurs investisseurs, utilisent le même calculateur de risque de contrepartie, sur une opération particulière, ou sur un portefeuille d’actifs, pour leur donner un avantage concurrentiel énorme. En effet, dans une configuration de partage de l’information, on sait calculer plus justement les probabilités de défaut. En fait, en théorie, on devrait être capable, si nous disposions de l’ensemble de l’information économique et d’une puissance de calcul illimitée, d’écrire un modèle mathématique qui calcule exactement les probabilités de défaut de chaque acteur de marché. En pratique, plus il y a d’acteurs partageant l’information, moins il est nécessaire d’avoir recours à des sources de données exogènes pour alimenter ce modèle, et plus les calculs sont pertinents.

En pratique, d’un point de vue opérationnel, une configuration de partage de l’information signifie une meilleure couverture contre le risque de contrepartie. Cela signifie également la possibilité de détecter des arbitrages sur les marchés de crédit et dérivés de crédit.

Bien sûr le régulateur.

Les bénéfices sont pour lui bien sûr la notion de transparence de l’information. Il y a aussi la remarque qu’une telle initiative irait dans le sens d’une standardisation salutaire: il existe aujourd’hui autant d’institutions financières que de méthodes de calcul de risque de contrepartie. On peut aussi dire que cela faciliterait le transfert de technologies et de réglementations à des activités reposant sur les mêmes concepts, comme le leasing.

Mais là aussi, le meilleur argument est de remarquer que les méthodes actuelles réglementaires, imposées par Bale III, vont certainement dans le bon sens, mais restent largement perfectibles. Notamment, un des principaux axes d’amélioration, le « next step », serait de prendre en compte les effets systémiques de propagation du risque de contrepartie dans l’économie, ce qui n’est pas fait aujourd’hui. Les débats que l’on voit émerger actuellement font augurer que ces méthodes réglementaires pourraient bien être sous peu sous le feu des critiques. La critique risque d’être naturelle : le risque systémique n’est-il pas le point très précis sur lequel les régulateurs ont été mandatés en 2008 ? Or, pour calculer un risque systémique, cela signifie par définition disposer non seulement de suffisamment d’informations, mais également d’un modèle crédible et d’un calculateur capable de la traiter. Ce type d’initiative est susceptible d’y répondre efficacement.

Et finalement les agences de notations.

La fonction première d’une agence de rating est de donner une estimation du risque de crédit. C’est une fonction essentielle dans l’industrie financière : à quel taux peut-on prêter de l’argent sans cette information ? A notre connaissance, cette estimation est faite actuellement en observant les fondamentaux d’une contrepartie, ses historiques, mais également en observant les marchés de dérivés de crédit ou d’actions.

Cependant, les exemples historiques de mésestimation de risque de contrepartie ne manquent pas, la crise de 2008 en  étant un, ce qui ternit quelque peu l’image de ces agences. Avec un peu de recul, cela paraît naturel : le fait est que personne ne peut prétendre aujourd’hui calculer une probabilité de défaut, parce que personne ne sait capturer de manière crédible le risque systémique. Cela fait des agences de rating des utilisateurs potentiel très naturel d’un calculateur de risque systémique.

Faisabilité technique d’un calculateur de risque de contrepartie.

Aujourd’hui, la recette pour fabriquer un calculateur de risque de contrepartie se fait à partir des ingrédients suivants:

  1. Un bloc d’alimentation des positions, qui contient une description des positions financières à évaluer.
  2. Un bloc d’alimentation en données de marché, qui contient l’ensemble des données économétriques nécessaires à l’évaluation des positions.
  3. Un bloc de diffusion économétrique, qui va générer les scénarii nécessaires pour le calcul du risque de contrepartie.
  4. Une librairie de pricing, qui évalue chaque position, sur chaque scénario donné par le bloc de diffusion, sous une hypothèse « sans risque ».
  5. Le bloc du calculateur de risque, qui va agréger les résultats, et prendre en compte le risque à partir des probabilités de défaut de chaque contrepartie, qu’il calcule lui-même ou qu’il demande au bloc d’alimentation en données de marché.

Pour les points a), b) et d), il existe déjà des solutions open-source sur lesquelles se reposer. Il reste à implémenter et à interfacer les blocs c), et surtout le e), qui contient notamment le calculateur de risque systémique. In fine, ces blocs peuvent maintenant être publiés relativement aisément sur des clouds privés ou publics, de manière à bénéficier de la puissance de stockage et de calcul nécessaires aux services vers tiers. Il s’agit d’un projet sans doute lourd à mener, mais tout à fait réalisable techniquement.

Conclusion

Mettre en place un système open-source pour le calcul du risque de contrepartie semble avoir des avantages incontestables. Reste à étudier la faisabilité organisationnelle et financière d’un tel projet bien évidemment. Cependant, au-delà des bénéfices listés ci-dessus, on retiendra surtout que ce serait sans doute la première fois dans l’histoire où nous chercherions vraiment à modéliser la nature profonde des échanges économiques. Cela permettrait certainement de mieux comprendre le tissu économique qui est à la base de nos sociétés aujourd’hui. Au-delà,  cela permettrait peut-être de mettre en place des mécanismes mieux adaptés, permettant d’atténuer efficacement les impacts négatifs des phénomènes de crises économiques.


[1] Boost est une « librairie de code source C++ libre revue par pair ».

[2] FpML est “le standard XML open source pour la confirmation et le traitement des dérivés gré à gré”

[3] « essai pour une critique constructive du risque de contrepartie ». J.M. Mercier. Oct 2012.

[4] Traders v. theorists, risk magazine, Laurie Carver, Oct. 2012