A propos de Master Data Management (gestion des données de référence) et pour rebondir sur l’article de Jean-Michel Franco, Directeur des solutions, Business & Décision sur http://www.decideo.fr/2010-l-annee-du-Master-Data-Management_a3592.html.

Effectivement, il semblerait que le marché des outils de gestion des données de références soit en train de passer à une vitesse supérieure. Et bien que le MDM soit une notion assez ancienne, plusieurs facteurs étaient nécessaires pour que ce type de solution puisse être légitime dans nos organisations.
  • L’approche d’architecture, SOA entre autre,  était nécessaire pour appréhender une logique d’ensemble. Cette approche a permis de mûrir des populations techniques et a commencé à tisser des liens vers les directions métier (cela reste néanmoins une discipline assez technique). Cette approche a aussi permis d’obtenir un fort niveau de maturité sur les couches techniques de gestion de flux et ainsi apporter un développement de la brique « communication inter application »
  • Les aspects réglementation et transparence sont des moteurs forts du moment. Ce sont des contraintes structurantes, et financièrement directement préjudiciables. Elles imposent une traçabilité de bout en bout, et forcent ainsi l’organisation à revoir les cycles de vie de ses données. Non sans mal car elles touchent à la base l’information du métier plus que la donnée des applications. Mais implique la maitrise de ces dernières. Du coup le niveau de maturité augmente dans la maitrise des liens entre l’information métier (un ordre de prélèvement) avec les données associées (les transactions réalisées ainsi que les contextes associés (clients, ..))
  • Le décloisonnement de la donnée avec le contenu. Les documents et les données « commencent » à s’interconnecter car alimentant de mêmes processus métier. A un ordre de prélèvement (non géré à l’origine par une gestion électronique de document) est associé des transactions mais aussi des contrats, et autres documents difficilement gérables par des procédés automatisable (d’ETL par exemple). Ceci apporte un autre niveau de maturité dans l’acceptation et la compréhension des enjeux autour de l’information comme élément incluant la « data » et le « content ». On peut d’ailleurs faire apparaître l’explosion des projets de dématérialisation en ce moment.
  • Il y a aussi :
    • la situation de crise qui implique une reconsidération des processus en vue d’optimiser et de réduire les coûts de traitement,
    • les évolutions culturelles qui ont apporté des clients plus capricieux, plus volatiles, et surtout très exigeant en terme de qualité. Ceci implique aussi une reconsidération de ce qui touche la qualité,
    • le web2.0 qui a apporté des facilités de communication induisant des facilités dans la dégradation d’une image de marque (un tweet bien formulé peut ruiner la réputation d’une entreprise). Et là aussi cela touche la notion de qualité autour de l’information. (cf l’explosion de la nouvelle fonction de community manager)
Ces paliers font qu’aujourd’hui nos organisations recherchent ce qui peut leurs permettre de mieux gérer leurs flux d’informations de bout en bout, et bien sûr les processus qu’ils alimentent. Ces mêmes organisations subissent des SI complexe et l’intégration d’un grand tout irait à l’encontre d’une logique d’économie liée à la situation de crise du moment. Elles cherchent donc ce qui pourrait lier ces sources de données et de contenus.
Le Master Data Management est une magnifique réponse à cela. Dans la gestion des données de référence, dans la traçabilité, dans le pilotage de la qualité, dans l’optimisation des processus, dans l’administration de l’ensemble des informations critiques.
Mais, il existe un palier qui commence à peine à mûrir, celui de la gouvernance de l’information. Pas celle des données (la gouvernance des données est une vue technique qui est plus mûre à ce jour) mais celle qui permettrait à une organisation :
  • de connaître ses informations métier (ou actifs informationnels) ainsi que les contraintes associées (risque, réglementation, coût, criticité, …), puis d’en décliner les règles de gestion.
  • de faire en sorte que cette information perdure et reste à jour dans le temps (gestion des référentiels, suivi de la réglementation, mise à jour des règles de gestion métier ou non, …)
  • d’être une cellule proactive afin d’anticiper et de maitriser d’éventuelles situations de crise (litige, fuite d’information, transformation de l’entreprise, e-discovery, …)
Cette gouvernance de l’information est avant tout organisationnelle. Et cela reste encore un frein pour le déploiement d’outil qui permettrait aux organisations d’être en avance avec les attentes du marché.
Les populations des DSI ont bien compris ces enjeux, et ont essayé de le traiter avec une approche bottom up, de gouvernance de données, mettant beaucoup d’énergie pour faire avancer ce besoin de qualité et d’optimisation. Bloquée par la difficulté à maitriser les informations métier, des tentatives ont été faite pour remonter vers l’executif, souvent avec de belles douleurs. (http://it.toolbox.com/blogs/infosphere/data-governance-is-career-suicide-38647).
Aujourd’hui, cette approche doit être complétée par une considération top down afin qu’une cartographie de l’information métier (en passant par une définition des Objets Informationnels métier) puissent se décliner vers les sources de données et de contenu de l’entreprise. Que sur ces liens soit associé les règles de gestion induites par les contraintes imposées à l’entreprise. Et qu’un collégiale prenne à bras le corps ce nouveau référentiel maitre, le fasse vivre dans le temps selon la stratégie de l’entreprise.