La mise en place d’un progiciel lié à un processus métier n’est pas une mince affaire. Un projet de mise en place d’un workflow nécessite une rigueur de tous les instants et une méthodologie particulièrement cadrée.

En l’absence de ces 2 facteurs, les erreurs peuvent être nombreuses et mettre en péril le succès dudit projet. Ces postulats sont aussi à respecter avec le plus grand soin. Découvrez nos mises en garde concernant les erreurs les plus courantes.

Complexité du processus et modélisation à outrance

Le souhait de délimiter une méthodologie est un réel plus pour un projet de workflow. Toutefois, à trop vouloir automatiser un processus métier, certains managers peuvent avoir tendance à choisir un processus trop complexe. En effet, les tâches et les acteurs peuvent rapidement devenir trop nombreux.

En ce sens, il est vivement recommandé, dans le cadre d’un BPM composé de multiples processus, de prioriser les plus simples (temps de mise en place court et risque minimum). Il est préférable d’opter, dans un premier temps, pour des mises en production simples que les utilisateurs pourront s’approprier facilement (et donc prendre confiance dans la phase opérationnelle).

Dans le même temps, la modélisation à outrance peut entrainer les mêmes problèmes. A ce titre, il n’est pas toujours pertinent de vouloir, en début de projet, recenser toutes les « routes » possibles. Cela ne peut que complexifier le projet et rendre les acteurs vulnérables. La meilleure option, dans le cadre d’un projet de workflow, est d’opter pour une modélisation 80/20 (80% de « routes » couvertes et 20% de « routes » à définir au fil des cas).

Impliquer pour mieux régner

Une autre erreur courante consiste à ne pas impliquer les utilisateurs. Ne perdons pas de vue que l’automatisation d’un processus a pour objectif de leur faciliter la vie. L’introduction d’un changement au sein d’une méthode de travail déstabilise par essence les habitudes des utilisateurs.

Ainsi, plutôt que de ne pas les solliciter, il est vivement recommandé de les intégrer dès le début du projet. La réflexion doit s’établir entre les experts de l’automatisation ET les utilisateurs, et non, entre les experts et leurs idées reçues basées sur des concepts. De plus, cette implication va entrainer l’adhésion des utilisateurs.

Les aspects matériels et documentaires

Egalement, à trop prioriser, il ne faut certainement pas éluder les aspects documentaires et matériels. En effet, une application BPM doit disposer d’un contenu documentaire complet. Que la documentation soit électronique, entrant/sortant ou dématérialisée, elle doit être présent pour maximiser la potentielle agilité du projet de workflow.

Il en est de même pour les aspects matériels. Plutôt que d’imposer une application BPM aux utilisateurs en les privant de leurs habitudes (papier, dossier, stylo), il est vivement recommandé d’étudier les nouvelles contraintes liées. Sans cette analyse, le refus de l’application sera immédiat et l’optimisation désirée ne sera jamais au rendez-vous (impression en masse par exemple).

L’un des meilleurs exemples est celui de la chaîne Starbucks qui a su proposer une réelle expérience à ses clients en rendant la dégustation café unique. L’effort d’imagination n’a pourtant pas été colossal puisqu’il fallait « juste » s’attarder sur le comportement du client.

Dans la même veine, le cas d’UPS est particulièrement pertinent puisque la mission logistique s’est transformée en une expérience client alliant facilité et sécurité. En somme, les données sont là, mais il faut prendre la peine de les analyser pour mieux se différencier.

Le comportement du client, c’est-à-dire son expérience, est une fabuleuse source pour améliorer son offre. Les données sont au coeur de cette transformation digitale. A ce titre, il faut identifier les segments intéressants, réaliser des études poussées (qualitatives et quantitatives) et mener des audits en interne (pour connaitre le potentiel d’évolution possible).

En associant ces données externes et internes, l’offre peut s’en trouver modifier afin d’apporter des bénéfices 100% pertinents pour les clients. L’image même d’une marque s’en trouve potentiellement changée, alors pourquoi s’en priver ?

Imaginer les nouveaux comportements « digitaux » pour créer de nouvelles offres

Face à l’accélération de la numérisation de l’économie mondiale, la réactivité est une source intarissable pour innover.

Les comportements des consommateurs ont énormément changé en moins de 15 ans (voire lors de 5 dernières années) avec l’avénement des nouvelles technologies (explosion du nombre de smartphones, tablettes tactiles, etc…). En ce sens, l’innovation est un facteur clé de succès.

Un consommateur moderne adepte du cross canal

Inévitablement, le consommateur est devenu un adepte du cross canal. Les points de contact ne se limitent plus aux médias classiques (radio, télévision, presse écrite, etc…), et, les entreprises ont su (en partie) adapter leur communication vers des canaux 100% digitaux (e-mails, réseaux sociaux, applications mobiles).

Dans son procès d’achat, le consommateur utilise plusieurs plateformes (boutiques en ligne/boutiques physiques, smartphone/ordinateur, blog/site institutionnel). Dans un processus d’achat où 1 consommateur sur 2 s’informe en ligne, plus de 65% a besoin de voir/toucher le produit souhaité.

En ce sens, les marques doivent innover pour coller aux aspirations et aux besoins colossaux des consommateurs en matière d’information. L’expérience achat doit être entièrement revue pour être ludique, simple et rapide.

Pour créer de nouvelles offres, les entreprises ont donc besoin de collecter et d’analyser les données de la façon la plus performante possible pour proposer l’offre la plus adaptée à une certaine cible, et ce, sur les canaux adaptés.

L’agilité des systèmes d’information et de la gouvernance des données est un sujet central pour les entreprises. Alors que cette thématique était réservée, jusqu’à peu, à la DSI, il est essentiel d’appréhender le caractère transversal de cette notion d’agilité. De nos jours, cette gymnastique des données a un impact sur toute l’entreprise.

A ce titre, tous les services d’une entité ont un rôle à jouer pour mieux collecter, traiter et analyser les données. L’agilité, en matière de gestion de la data, n’est plus une simple qualité, mais bien une réflexion globale à mettre en place.

L’agilité est l’avenir des SI

Les entreprises du numérique déploient des nouvelles fonctionnalités et des nouvelles versions de leurs applications en permanence. Face à ce tsunami de données et une réelle volonté bienveillante d’innover, il faut faire preuve d’une agilité (au sens large) particulièrement importante.

L’agilité est l’avenir des SI, car il s’agit d’une dynamique de transformation où la réactivité et l’anticipation sont 2 qualités maitresses. Grâce à une agilité maitrisée et une virtualisation des données pertinente, l’impact sur la création de valeur sera d’autant plus concret.

Pour atteindre un niveau d’excellence en la matière, il faut garder les éléments suivants en tête :

  • Disposer d’une équipe réactive
  • Capitaliser sur les imprévus inhérents à toute entité
  • Gérer son temps afin de différencier l’urgence de l’imprévu
  • Mettre en place une veille technologique de qualité

L’agilité au service de la virtualisation des données

Le postulat lié à l’environnement économique et technique actuel est simple : La donnée est centrale. Pour mieux maitriser cet afflux permanent et illimité de données, il est indispensable de comprendre les avantages liés à la virtualisation de celles-ci.

L’objectif est de « découper » les données afin qu’une même base soit composée d’un ensemble de  fichiers de données diverses.

Fédérer les données est une chose (collecter et drainer), les virtualiser en est une autre. Pour cela, la notion d’agilité prend tout son sens puisque l’environnement de l’entreprise doit proposer des dispositifs clairs et traçables pour analyser de façon qualitative les données.

Les nouvelles techniques permettent de disposer immédiatement des résultats souhaités au niveau d’une base de données précise. Les cycles sont ainsi rapides, interactifs et à forte valeur ajoutée. In fine, les courbes d’apprentissage sont fulgurantes, et, les réponses apportées aux problématiques quasiment instantanées. Cet accès aux données est découplé, ce qui a un impact très positif sur l’ensemble d’une entreprise.

L’expérience client et gouvernance des données

Face à la consommation de masse et à la mondialisation, bon nombre de marchés sont devenus particulièrement saturés. A ce titre, se différencier n’est pas une mince affaire, mais reste la seule façon d’accroître ses ventes et d’attendre d’ambitieux objectifs.

Afin de pouvoir créer une réelle valeur ajoutée, il est essentiel d’analyser avec une infime précision l’expérience client et toutes les données qui y sont liées.

Le Chief Data Officer, aussi appelé le CDO, est un poste clé au sein d’une entreprise, et ce, plus que jamais. D’ailleurs, son importance ne va cesser de croitre dans les années à venir, à tel point que les grands patrons de demain seront des CDO dans l’âme.

En plein virage lié à la transformation numérique, le CDO est le garant d’une gouvernance pertinente des données. La data a pris le pouvoir et la maitrise de ce déferlement d’informations est une pierre angulaire pour capter de nouvelles parts de marché. A l’heure de la big data et de la business intelligence, décryptons ensemble le rôle, les missions et l’agenda du CDO.

Qu’est-ce que le CDO : Rôle, responsabilité et positionnement

Face à l’immensité du volume de données à traiter, l’entreprise doit répondre à plusieurs enjeux dont celui de coordonner tous les éléments d’un écosystème donné afin d’apporter des réponses aux directions métiers (marketing, risque, commercial, etc…).

En ce sens, le CDO (Chief Data Officer) est le maître à jouer de l’entreprise, un véritable numéro 10. Pourtant, le poste même de CDO est encore trop rare au sein des organisations actuelles, un comble.

Le CDO doit être au coeur des réflexions stratégiques (très en amont) et disposer d’un réel pouvoir d’influence (leadership avéré) afin d’avoir les moyens de ses ambitions. A ce titre, il peut (doit) être membre d’un Comex. Le CDO va détecter les sujets-clés afin de coordonner les analyses avec chaque direction métier. Il doit aussi mettre en place l’architecture nécessaire pour industrialiser tous les processus liés à la collecte et à l’analyse des données. Il est le patron de cette « usine » analytique.

Le CDO doit également avoir du flair et une extraordinaire capacité à synthétiser l’information (profil plus scientifique que marketing). A ce titre, sa présence à chaque étape de la boucle de valeur est indispensable (problématiques métiers, sources des données, collection/extraction des données, etc…). Ne perdons pas de vue que bon nombre d’entreprises ont un potentiel data extraordinaire, il est donc dommage de ne pas utiliser ce véritable magot 2.0.

Ne pas confondre Chief Data Officer et Chief Digital Officer

Dans ce contexte, il est particulièrement important de différencier le Chief Data Officer et le Chief Digital Officer.

En effet, même si le Chief Digital Officer est également en contact avec la Comex, il est un « agent » du changement plutôt qu’un décideur réel (d’ailleurs ses budgets sont souvent maigres).

Dans le cadre de ses missions, le Chief Digital Officer doit « créer » de nouveaux clients, et non, analyser les données existantes. Il est bien plus proche des consommateurs que le Chief Data Officer. Sa fonction est plus marketing que scientifique.

Dans un environnement économique où les défis sont de plus en plus nombreux et de plus en plus relevés, l’importance de disposer de données de qualités est essentielle.

L’information n’a jamais été aussi dense que ces dernières années, et, la maitrise des données est un facteur clé de succès pour les entreprises. Gérer ses données implique un processus transversal au sein d’une entreprise afin que celles-ci soient de qualité. Une réponse technologique et humaine doit être apportée à ce challenge de taille.

Coût de la qualité des données dans une entreprise

Le coût de la qualité des données est intimement lié au coût de la non-qualité. Quand on connait l’importance de la data dans le contexte actuel, il faut, en premier lieu, couper court aux étapes qui génèrent des données non qualitatives.

Les erreurs interviennent majoritairement lors de la saisie de données, lors de leurs transformations et lors de l’analyse générale. Les secteurs d’activité touchés par cet absence de qualité sont (trop) nombreux (assurance, téléphonie, bourse, etc…).

Face à ce déferlement de données, tout le processus doit être clairement établi afin que la structure en elle-même soit un booster, et non, un frein à la qualification des sacro-saintes données. Soulignons que même la NASA a perdu des satellites pour cause de données erronées…

Qualité de données est un processus continu

Quelle que soit la nature de la donnée (qualitative, quantitative, technique), sa qualité dépend avant tout d’un processus continu au sein de l’entreprise. Puisque les données ont un impact chez tous les services de l’entreprise, ceux-ci doivent travailler la main dans la main dans le cadre d’un processus aussi précis que transversal.

Ne perdons pas de vue qu’une donnée de qualité doit être unique, intelligible et…correcte. De plus, les données doivent être mises à jour avant qu’elles en deviennent obsolescentes. Le meilleur exemple est celui du défi mené par de nombreuses entités à l’égard du NPAI (N’habite Pas à l’Adresse Indiquée). Ce processus implique donc tous les employés d’une même entité.

Un état d’esprit et une culture d’entreprise qui fédère tous les salariés

Face à ce challenge, c’est bien toute une culture d’entreprise qui doit être mise en place pour fédérer tous les salariés. Le capital humain reste le meilleur terreau pour extraire une information pure, une information de qualité. Manager les données nécessite des arbitrages au quotidien entre les services et les procédés mis en place.

L’information est avant tout une chaine de valeur où des outils mettent en perspectives les équipes « Métiers » et les équipes « Informatiques ». Cet alignement Métier-IT doit être lisible, pertinent et pragmatique. Développer le capital informationnel nécessite l’appui de tous les employés. Modéliser, corriger et mettre à jour sont des étapes clés pour obtenir ce nectar qui n’est autre que des données de qualité.

La gouvernance des données est un atout-clé dans le cadre d’une stratégie sur le long terme. Les données permettent de soutenir une vision et tous les membres d’une société ont leur rôle à jouer.

In fine, la direction peut et doit utiliser l’entièreté du jus de ces données pour prendre les bonnes décisions. Le traitement de l’information permet est un facteur clé de succès dans de nombreux secteurs, et ce, aussi hétéroclites soient-ils.

L’information comme ADN d’une entreprise

L’optimisation de l’utilisation des données date de la fin des année 90, et, les progrès ont été stellaires depuis. La Big Data a pris le pouvoir depuis quelques années et l’objectif est de maitriser cet afflux pour mieux décider. Entre temps, le GDM (Global Data Management) a pris son essor, puis ce fut au tour de différents projets tels que MDM, DWH ou SOA.

Les problématiques des entreprises sont notamment liées à la collecte, à l’utilisation et à l’analyse des données.

Une gouvernance réelle des données est obligatoire pour maitriser un flux toujours grandissant de data qui peut rapidement venir éteindre toutes les bonnes volontés d’une entité. En ce sens, la gouvernance des données est le coeur de la transformation digitale.

Un impact évident sur notre quotidien

L’économie traditionnelle n’a plus de raison d’être et la digitalisation de la société est un tsunami irrésistible. Les réseaux sociaux, les e-mails et les applications démultiplient la masse de données à gérer.

Il est d’ailleurs intéressant de souligner que le volume de données double tous les 14 mois dans le monde. Autrement dit, il d’agit d’un raz-de-marée qui ne va que s’amplifier dans les années, les mois, les jours et les secondes à venir.

De nouvelles règles et de nouveaux comportements

Face à cette évidence, le capitalisme a dû modifier ses règles, car la donnée a pris le contrôle.

En effet, lorsqu’une entité de quelques mois ayant 50 employés peut être rachetée pour 19 milliards de dollars (rachat de WhatsApp par Facebook), tout un écosystème change. D’ailleurs, les plus importantes capitalisations concernent des entreprises où les données sont reines (Apple, Microsoft, Google).

Inévitablement, les comportements des consommateurs ont changé et sont aux antipodes de ceux des années 90. En moins d’une génération, la digitalisation a révolutionné les usages quotidiens. De nos jours, le consommateur est polymorphe puisqu’il peut-être un acheteur B-to-B la journée puis un acheteur B-to-C en soirée.

Cette versatilité est une chance, mais aussi un paramètre à savoir maitriser pour lui proposer ce qu’il recherche, au bon moment et sur le bon canal. Un casse-tête où le consommateur a la main et peut être un ambassadeur comme un bourreau pour une marque.

La digitalisation de l’économie est une excellente opportunité pour prendre des parts de marché grâce à une analyse poussée. Le Big Data, la gouvernance des données et tous les processus comme le CDO sont des leviers pour notamment les DSI.

Face à l‘essor d’internet, une véritable transformation digitale s’opère et tous les acteurs de l’entreprise sont concernés. Par définition, l’information est transversale et les TIC ont changé la donne en profondeur.

A ce titre, la gouvernance des données est et doit rester un atout pour une entreprise. L’objectif est de ne pas être submergé et de bien identifier les données-clés pour la prise de décision.

Conserver la maîtrise de ses propres données

La transformation digitale est une extraordinaire opportunité pour gagner des parts de marché. Cette révolution peut en effrayer certains, mais il s’agit clairement d’une force qu’il faut maîtriser via une gouvernance des données appropriée.

Le développement des réseaux sociaux (lors des 5 dernières années) a changé la donne et le phénomène ne fait que s’amplifier.

Cloud, sécurité et transformation digitale

Ces évolutions digitales ont également un impact « hardware » sur l’organisation des données. L’évolution majeure de ces dernières années est relative au Cloud. Cela a une incidence sur la gouvernance des données, et, sur le rôle même des DSI dont les rôles ne sont plus accès uniquement sur « l’informatique ».

Le Cloud est un outil favorisant le travail des acteurs d’une entreprise où qu’ils se trouvent. La sécurité des données est une clé de voûte pour la généralisation du Cloud. A ce jour, le marché des particuliers est plus en avance que celui des entreprises, ce qui entraîne une importante demande de la part des salariés via leurs nouveaux comportements en dehors du cadre professionnel.

Les entreprises françaises dans le peloton de tête

En France, les entreprises sont parmi les plus innovantes et les plus prêtes au changement. Les investissements massifs sont de plus en plus nombreux pour aider les start-up à développer des solutions pertinentes.

Cela met en exergue une réelle volonté de pérennité afin de créer des outils qui auront un impact à long terme sur la gouvernance des données.

Un challenge pour les DSI

Face à toutes ces révolutions structurelles, les DSI doivent être capables de prendre le tournant afin que toute l’entreprise en profite. L’information est le pétrole du XXIème siècle et sa maîtrise est une obligation pour rester concurrentiel sur des marchés souvent denses.

La différence ne se réalise plus par le prix ou l’offre, mais bien par une analyse poussée des données en temps réel qui permet de créer une valeur ajoutée aux yeux des consommateurs.

Les DSI ont pour challenge principal de sortir d’une vision technique afin d’adopter un regard beaucoup plus transversal où la dématérialisation des données est reine. La gouvernance des données est, à ce titre, la clé d’une stratégie aboutie et cohérente.

Définition d’un cadre et anticipation des besoins

Les données sont omniprésentes et elles nécessitent la définition d’un cadre très précis ainsi que des règles communes aux collaborateurs. A ce titre, le patrimoine des données (l’ADN de l’entreprise) doit être identifié pour adapter la stratégie générale.

Enfin, il est important de souligner qu’une donnée a de la valeur uniquement selon son usage. La gouvernance des données doit permettre de filtrer les données-clés des données accessoires pour éviter un phénomène « d’infobésité ». De véritables arbitrages sont à réaliser pour mettre en place un système d’information pertinent sur le long terme.

Le système d’information n’est plus un îlot isolé de toute la chaîne de création de valeur d’une entreprise. Son objectif principal est, plus que jamais, de créer des synergies entre les métiers afin que la prise de décision soit largement facilitée.

Les données référentielles sont transversales et concernent tous les métiers d’une organisation. Ne pas les gouverner est une erreur d’un autre temps, notamment dans le cadre de projets MDM.

Des constats pour mieux visualiser la valeur ajoutée liée aux données

La donnée de référence est avant tout un matériau particulièrement stratégique pour une entreprise. Selon les services et les métiers, bon nombre de visions doivent coexister au sein d’une entité et la gouvernance des données de référence est une clé de voûte.

Les données de références dans un système d’information est l’axe central d’analyse qui permet de disposer d’une vision globale très complète (part de marché, satisfecit clients, etc…), mais aussi d’une vision très fouillée (par métier, par objectif, etc…). Dans chaque cas, il faut connaître et maîtriser les besoins opérationnels et stratégiques pour répondre aux problématiques de chaque strate de l’entreprise.

N’oublions pas que l’un des principaux ennemis des décideurs n’est autre que la duplication des données, l’inaccessibilité et surtout la mauvaise qualité des données disponibles. A mesure que le temps passe, les données disponibles sont de plus en plus nombreuses et dispersées. Lorsqu’elles sont mal gouvernées, il s’agit d’un terreau malheureusement très fertile pour que les équipes soient inefficaces et réalisent plusieurs fois le même travail pour rendre l’information utilisable pour la bonne prise de décision.

La gouvernance des données de références répondent à 4 besoins essentiels

Données globales et données locales

Ce besoin est lié au fait que les acteurs d’une entreprise demandent à disposer d’une « vue » à la fois locale et globale. La maitrise des données locales permet d’utiliser les données appropriées pour établir un constat « métier », et, les données plus globales permettent notamment de satisfaire une vue stratégique nécessaire à la réflexion à long terme.

La qualité des données

Les grandes organisations ont besoin d’une grande cohérence et une absolue intégrité des données. Par essence, les données sont dispersées au sein d’une entreprise et il est fondamental d’identifier les problèmes de qualité des données pour identifier les axes d’amélioration. Un véritable profiling des métiers et des consommateurs est nécessaire pour mettre en place l’organisation qui certifie les données et garanti la qualité escomptée.

Distribution et partage des données

Autre point-clé, il s’agit, comme en logistique, de diffuser la donnée adéquate au bon destinataire et au bon moment. Sans cette exactitude temporelle, il serait impossible d’analyser les données-clés aux moments-clés.

L’importance de la fraîcheur

Les données de références doivent être à jour pour être mise à disposition des processus opérationnels. La fraicheur est un élément-clé afin que les utilisateurs puissent agir en temps réel et éviter la perte de temps et d’énergie nécessaire à la mise à jour des données obsolètes. Selon les métiers, ce besoin de fraicheur peut varier, et, les structures de gouvernance des données doivent intégrer ce paramètre.

Quelques erreurs à éviter pour organiser ses données

Les projets MDM nécessitent une organisation très bien huilée afin que chaque acteur puisse gouverner les données de la façon la plus efficace. Voici quelques erreurs à éviter afin de maitriser son projet référentiel :

  • Ne pas analyser ses besoins avant de choisir un outil de gestion de données de référence. Trop d’équipes réalisent cette démarche dans le sens inverse face à la pression des éditeurs ou par « habitude »
  • Ne pas prendre le temps de questionner les besoins réels des utilisateurs. Cette étape trop souvent négligée permet pourtant de mieux choisir son outil de gestion des données de référence.
  • Ne pas s’entretenir avec la direction quant au choix des méthodes envisagées. Cette action est une clé de voûte pour responsabiliser tous les organes de décision.
  • Ne pas identifier clairement les indicateurs clés pour maitriser la qualité de ses données Un indicateur de qualité permet de fédérer les différents métiers autour d’un objectif global.
  • Ne pas accompagner le projet par la mise en place d’une gouvernance de donnée où chaque donnée est sous la responsabilité d’un responsable métier qui en charge de sa définition, de sa pertinence et de sa qualité

La gouvernance des données est une véritable pierre angulaire à bien des niveaux. Les données d’une entreprise (interne, marché, étude, etc…) ne sont pas toujours utilisées, ou, mal utilisées.

Face aux multiples challenges liés à la digitalisation, les données doivent être récoltées, analysées et utilisées.

Quelques chiffres-clés

Face à la multiplication et la complexification des données, les entreprises peuvent rapidement perdre pied. Au sein de cette transition entre les modus operandi des dernières années, et, une digitalisation exacerbée, les entreprises doivent garder le contrôle et savoir utiliser « leurs » données.

À titre indicatif, il est important de rappeler que 70 % des données des entreprises ne sont pas utilisées alors que la croissance annuelle du volume d’informations est de 60 %. Autrement dit, toutes les données doivent être canalisées sous peine de ne pas prendre les bonnes décisions aux instants cruciaux.

Aussi, alors que seulement 3 % des données numériques sont utilisées correctement, plus de 9 entreprises sur 10 estiment ne pas être en mesure de mener un projet BigData en interne. Il y a donc un double-problème mêlant compétence et volume.

Ne perdons pas de vue que l’objectif est d’identifier les données-clés afin de les exploiter puis de les valoriser. Sans l’étape de départ lié à la collecte, tout le processus ne pourra pas créer une valeur ajoutée réelle.

La digitalisation des données

La gouvernance de données est une clé pour éviter que l’informatique ne soit qu’une boite noire inutile. Elle est un sujet transversal où chaque employé a un rôle à jouer. Cette mission n’est plus l’apanage du service informatique.

Pour une gouvernance des données de qualité, il est indispensable de mettre en place des bonnes pratiques afin de créer de la valeur, et, in extenso, d’améliorer les performances de toute l’entreprise. Parmi les bons réflexes, il y a notamment les méthodes liées au recueil des données puis à l’analyse complète (macro, logiciel dédié sur-mesure, etc…).

Ces données sont aussi celles utilisées par les comités de direction afin de prendre les meilleures décisions. Il s’agit d’une ressource stratégique à part entière.

Vers une digitalisation de l’économie

Les réseaux sociaux mettent parfaitement en relief la notion de web 2.0. Il en est de même pour les blogs, les sites web et les wikis, car les informations circulent dans les 2 sens.

L’époque durant laquelle le message était uniquement descendant est révolue, ce qui implique une mise en circulation d’une quantité phénoménale de données qu’il faut savoir apprivoiser.

À ce titre, se constituer un référentiel de métadonnées (Master Data Management) pour choisir les informations-clés afin de les analyser est une clé pour en retirer la « substantifique moelle » (le nectar) nécessaire à la prise de décision. Ce carburant est à portée de clic, mais encore faut-il être en capacité de les utiliser.

La gouvernance des données doit donc répondre, en amont, à ces 4 questions-clés :

  • Quelles informations collecter ?
  • Quelles informations archiver ?
  • Quelles informations confronter ?
  • Quels procédés utiliser ?

En somme, la gouvernance des données est un excellent levier, mais elle ne fait pas tout. Il faut avant tout mettre en place une réelle stratégie transversale au sein de l’entreprise.