Le “Big Data” au service de l’Industrie Bancaire

Par Omar Mehdi Roustoumi et Thierry Duchamp – Les Cahiers Louis Bachelier N°13 Page 16

Certaines entreprises utilisent le Big Data depuis plusieurs années, bien avant que le terme Big Data ne devienne à la mode. Citons par exemple Google, Facebook, Twitter ou encore Salesforce.com, qui font partie des précurseurs les plus connus de l’utilisation de cette technologie. S’il semble aujourd’hui que celle-ci a fait ses preuves auprès de grandes multinationales, essentiellement web, qu’en est-il de ses applications et sa valeur ajoutée pour les métiers de la Banque ? Le Big Data peut-il répondre à leurs nombreuses spécificités, de la banque de détail à la banque d’investissement, tout en les aidant à mieux respecter leurs contraintes prudentielles ?

La problématique Big Data telle qu’exprimée par Gartner1 peut se résumer à l’association de trois propriétés :

  • capacité de stockage,
  • capacité de calculs,
  • faible coût.

Elle repose sur l’utilisation simultanée de plusieurs serveurs dits banalisés ou “grand public”. Ces machines, produites en grandes quantités, sont beaucoup moins chères que leur version haut de gamme, plus puissantes. Etant également moins fiables, le logiciel doit être conçu pour résister aux pannes. Dans la pratique, une solution Big Data permet donc de stocker une grande quantité de données (jusqu’à plusieurs peta-octets), de réaliser un grand nombre de calculs sur ces données, d’ajouter dynamiquement des machines pour augmenter les capacités tout en résistant aux pannes matérielles.

Cette technologie repose sur trois piliers :

  • des publications scientifiques régulières, en particulier par Google depuis 2003,
  • une validation pratique de cette technologie par son implé­mentation, par Google encore, pour ses besoins propres,
  • l’utilisation de sa version Open Source par de nombreux ac­teurs, initialement du Web (eBay, Facebook), et maintenant par le système d’information d’entreprise (Saleforces.com).

Les besoins Big Data en banque

Les problématiques de stockage et de traitement de données d’une banque de détail sont très différentes de celles d’une banque d’in­vestissement. La première aspire à mieux répondre aux besoins de ses clients et en attirer de nouveaux. En termes de traitement de données, il s’agit de pouvoir analyser les comportements ban­caires de la clientèle afin de mieux comprendre et anticiper ses besoins. En somme, Il s’agit d’analyser les comportements socio-économiques dans le but d’améliorer les stratégies marketing de la banque ainsi que sa relation-client. La banque d’investisse­ment, quant à elle, aspire à accroitre ses résultats en prenant les bonnes décisions d’achat et de vente des différents produits cotés sur les marchés ou échangés de gré-à-gré. Cette prise de déci­sion passe par la maitrise de son exposition aux risques financiers (marché, contrepartie, taux, liquidité, change…).Autrement dit, il s’agit de pouvoir analyser en temps réel les données de marché dont elle dispose afin de maximiser sa rentabilité et minimiser son exposition aux risques.

Depuis déjà plusieurs décennies, les technologies numériques ne cessent de révolutionner l’industrie bancaire. Les perspectives de gain, en finance de marché en particulier, tiennent désormais à la faculté d’analyser un spectre très élargi d’informations financières dans des temps record.

L’analyse ponctuelle comme première utilisation du Big Data en finance

La première utilisation du Big Data est une analyse périodique de données déjà disponibles mais non exploitées. Il s’agit ici d’ajou­ter un système à l’existant afin d’y dupliquer les données pour analyse. Cette copie est effectuée de façon interne, c’est-à-dire sans confier les données à un tiers, respectant ainsi les obligations de confidentialité. L’intérêt du Big Data est, dans ce cas et pour des coûts plus faibles, de permettre l’utilisation de données aupa­ravant non valorisées. En banque de détail, l’utilisation typique est l’analyse multi canal des clients, pour identifier les offres les plus adaptés et ainsi mieux structurer l’approche commerciale.

Deuxième utilisation du Big Data : la conservation de données

Mais le Big Data n’est pas cantonné à une fonction d’analyse. Il peut tout à fait être le premier et unique détenteur des données : c’est par exemple l’utilisation faite par Facebook, qui depuis 2011 stocke et traite plus d’1,5 million de messages à la seconde en pic et 6 milliards de messages par jour. Une banque peut également conserver l’ensemble de ses données y compris toutes les versions, tout en y ajoutant des informations telles que des horodatages (« timestamps »). L’audit de chaque entrée sera complété par l’enre­gistrement de tous les accès et actions dans le système. Utilisé de cette façon, le Big Data répond à l’objectif de stocker davantage de données et de les garder en ligne, c’est-à-dire utilisables par les opérationnels, tout en offrant une traçabilité complète.

Les perspectives ouvertes par l’analyse dynamique

Le temps réel est nécessaire pour résoudre les problématiques “front” des établissements financiers. En effet, en environnement front, un très grand nombre de données varient à chaque instant. Or une grande partie de ces données n’est pas utilisée, faute de capacité de stockage et/ou de capacité de traitement ou d’analyse.

Une implémentation concrète du Big Data, permet de conserver les données, y compris toutes les modifications dans le temps (ver­sions), tout en permettant l’évolution du format. Des données sont donc ajoutées en permanence avec une grande souplesse. L’adjonction d’un moteur de recherche permet de prospecter effi­cacement ces données en temps réel, tout comme Google permet de chercher dans tout le web mondial et sait instantanément pré­senter les 10 résultats importants du moment.

Cette utilisation automatisable par programmation, ouvre de nouveaux horizons : détection de fraude ou optimisation de stra­tégies de trading. Dans ce dernier cas, l’analyse est à la fois dyna­mique, pour la prise de décision, et statique pour le back-testing.

Mis à disposition d’un opérateur middle office, le Big Data est un moyen d’une puissance incomparable pour la détection d’anomalies car il est alors possible d’accéder à l’ensemble des données de la banque sans aucune limite d’historique. Les capaci­tés utilisées étant alors la recherche « libre », mais aussi l’ensemble des fonctions d’audit.

Pour conclure

Le concept du Big Data ne recouvre pas seulement la probléma­tique de la taille, mais aussi celle du coût et du temps de traite­ment des données.

Son utilisation permet de répondre à tous les besoins de l’indus­trie bancaire, avec des temps de traitement réduits (quelques mi­nutes au lieu de quelques heures), à moindre coût (des serveurs banalisés) sur un socle adaptable (des serveurs peuvent être ajou­tés). Ce sont ces trois derniers points, temps, coûts et élasticité, qui différencient le Big Data des technologies classiques.

Ainsi, grâce au Big Data, les calculs d’indicateurs de risque et des autres ratios réglementaires seront traités de manière plus effi­cace ; de plus, l’analyse en temps réel offre de nouvelles oppor­tunités en termes d’arbitrages et d’aide à la décision. À ce titre la réglementation EMIR offrira de nouvelles perspectives au Big Data qui ne manquera pas de produire de précieux enseigne­ments sur le marché OTC, dont la transparence est prévue dès le 12 février 2014.

D’innombrables autres exemples démontrent les perspectives tangibles des applications de cette technologie en banque et dans les autres industries. Une nouvelle ère vient de s’ouvrir où les défis du Big Data seront constamment renouvelés, grâce à l’augmen­tation exponentielle des données et des capacités de leur stockage et de leur traitement. En 2014, le Big Data est sans doute l’ave­nir dont les data scientists aspirent modestement aujourd’hui… à écrire la préhistoire.

 

  1. Originellement puis revue en 2012 : capacité de stockage (Volume) et de traitement (Vélocité) illimités pour tout type de documents (Variété).