Selon Gartner, la Data de mauvaise qualité coûte chaque année 12,9 millions de dollars aux entreprises… un coût caché qui continuera de croître à mesure que les entreprises poursuivront leur transition d’un modèle décisionnel basé sur l’intuition à un process 100 % data-driven. Comment engager la transition et faire de son capital Data un avantage compétitif décisif ?Â
Data de mauvaise qualité : des conséquences en cascade sur le processus décisionnel et les coûts opérationnels
Au-delà de l’impact direct sur les revenus générés, une donnée de mauvaise qualité conduit à des écosystèmes Data complexes qui nécessiteront, à terme, de tout remettre à plat pour relancer la transformation digitale des entreprises sur de bonnes bases. Sur la durée, c’est le processus décisionnel qui perd en pertinence, avec un impact direct sur la compétitivité et la performance globale de l’entreprise.
Selon Gartner, les entreprises qui n’auront pas réussi à intégrer la Data dans leurs décisions opérationnelles d’ici 2026 accuseront un retard de deux ans sur leur marché et ça, les décideurs l’ont bien compris. En effet, 70 % des entreprises sondés réalisent déjà une forme de Data Tracking plus ou moins poussée pour réduire les coûts opérationnels.
Mais à court terme, les décideurs devront adopter un mindset « Data & Analytics » systématique sur l’ensemble de la chaîne de valeur Sales et Marketing, comme l’explique Melody Chien, Senior Director Analyst chez Gartner : « Des données de bonnes qualité permettent de générer de meilleurs leads, de mieux comprendre les attentes de la cible et d’améliorer la relation client : c’est donc un avantage concurrentiel ultime que les acteurs Data & Analytics doivent améliorer en permanence »… encore faut-il que cette donnée soit de qualité.
La checklist pour un processus décisionnel rationalisé par la donnée
Dans une publication coconstruite avec les experts de la Data décisionnelle, Gartner propose une checklist en 12 points pour doper la Data Quality et faire de son capital de données un vecteur de décisions pertinentes, même dans un macroenvironnement turbulent. Synthèse :
1. Établir les bases du Data Quality Management
- Identifier clairement l’impact d’une donnée de meilleure qualité sur les décisions et la performance commerciale. C’est un préalable indispensable pour faire adhérer les collaborateurs au projet.
- Définir les normes d’une donnée « de qualité » des normes trop restrictives se traduiront par des pools de données insuffisants et donc peu significatifs. Des normes trop laxistes impacteront la qualité de la donnée.
- Généraliser les normes de la Data Quality à tous les services de l’entreprise. C’est la première étape vers l’intégration de la Data dans toute la chaîne de valeur décisionnelle.
2. Définir une politique de Data Quality, la déployer et la confronter à la réalité du terrain
- Systématiser le profilage des données en continu. Il s’agit d’examiner les données pour en extraire des synthèses exploitables très tôt après la collecte. Plus de détails sur ce point dans notre article sur la Smart Data.
- Concevoir et déployer des tableaux de bord de Data Quality. Objectif : surveiller les KPIs sur les données critiques et, plus largement, concrétiser le Data Management.
- Passer d’un modèle de vérité à un modèle de confiance. En somme, il s’agit d’accepter et d’anticiper un certain manque de fiabilité sur les données collectées auprès de sources externes. Plutôt que les éliminer en vertu des normes de qualité décidées en amont, l’entreprise devrait plutôt les soumettre aux lois de probabilité pour décider de les exploiter ou pas.
3. Désigner les responsabilités en matière de Data Quality
- Intégrer le Data Quality Management dans les réunions du top management pour lier la qualité des données aux résultats commerciaux.
- Etablir les responsabilités sur la Data Quality et définir les process à suivre en cas de dysfonctionnement.
- Les entreprises qui disposent de plusieurs Business Units (BU) doivent disposer d’un référent Data sur chaque BU.
4 Inscrire la Data Quality dans la culture d’entreprise
- Identifier les bonnes pratiques Data et les généraliser à mesure que le degré de maturité de l’entreprise évolue sur la gestion des données.
- Informer régulièrement les départements métiers sur l’impact positif de l’amélioration de la qualité des données pour consolider leur adhésion et les intéresser à l’effort collectif.
- Créer des synergies avec des spécialistes Data d’autres entreprises pour échanger sur les meilleures pratiques.
Les trois piliers d’une (bonne) décision data-driven
Dans un environnement où l’incertitude et la turbulence deviennent des constantes, la prise de décision n’a jamais été aussi complexe. Gartner a d’ailleurs constaté que 65 % des décideurs doivent composer avec davantage de choix et solliciter davantage de collaborateurs pour arrêter une décision. « L’état actuel du processus décisionnel n’est plus viable », conclut Gartner.
Pour revoir le paradigme et faire face à l’incertitude, le cabinet de conseil a identifié les trois piliers de la « bonne décision » :
- Connectée. Aucune décision n’est isolée, dans la mesure où elle impacte forcément les acteurs de l’entreprise, voire de l’écosystème. C’est pourquoi la prise de décision doit être collégiale, non seulement sur le plan hiérarchique, mais aussi sur le volet de la compétence. C’est ce que Gartner appelle la « décision de réseau », au-delà des frontières organisationnelles.
- Contextuelle. Les options posées sur la table doivent être analysées à l’aune du contexte, au-delà de l’événement ponctuel ou de la transaction individuelle.
- Continue. La prise de décision est un processus continu qui ne s’arrête pas au choix d’une option au moment « M ». L’apparition d’une opportunité ou d’une menace doit pousser les décideurs à peaufiner la décision ou à la remettre en cause aussi vite que possible.
Pour aller plus loin...
Data Enso vous accompagne dans la transition vers une décision Data Driven
En moyenne, les bases de données des entreprises sont inutilisables à hauteur de 15 à 25 %. En cause : des données erronées, incomplètes, obsolètes et dupliquées suite à des mois, des années voir des décennies de mauvaise gestion de la Data.