De la qualité des données ou le désastre des bases produit
Par Bertrand Duperrin, expert FrenchWeb
L’utilisation de bases de données en entreprise est aussi vieille que l’informatique, par contre la destination et l’usage de ces données change ce qui force les entreprises à faire face à leurs négligences.
L’intérêt premier d’une base de donnée est le stockage et la facilité d’accès aux données. Nul besoin de démontrer comment, par exemple, une base de donnée produit est infiniment plus efficace à manipuler qu’un catalogue papier de milliers de références, chacune disponible en de multiples versions ou comment un annuaire d’entreprise vaut mieux que l’annuaire papier rarement exhaustif et à jour qu’il a remplacé.
La fin de l’autoconsommation des bases de données
Mais pendant longtemps les données ont largement été autoconsommées. Comprenez qu’elles avaient vocation être utilisées par ceux qui les renseignaient. Leur qualité dépendant donc principalement de la capacité d’une personne à connaître suffisamment son sujet pour se satisfaire de données imparfaites ou inexactes.
Quand ce sont par exemple des experts techniques qui renseignent une base produit dont ils sont les principaux utilisateurs peu importe qu’ils soient rigoureux dans le respect des unités de mesure. Un produit documenté en cm, un autre en mm… peu importe. Ils connaissent leur sujet et interprètent d’eux-même. Peu importe que tout ne soit pas vraiment à jour, souvent par manque de temps, ils sauront corriger d’eux-mêmes.
Même exemple avec les annuaires d’entreprise. Ils permettent souvent de prendre en compte une grande quantité d’information sur un collaborateur mais, historiquement, on avait besoin que de trouver le nom, prénom, fonction, email et téléphone. Ce qui fait qu’un grand nombre de champs n’étaient pas renseignés (ce qui est un moindre mal) ou renseignés une fois et mal renseignés ou jamais mis à jour ce qui est beaucoup plus problématique (quoique parfois même la fonction n’était pas mise à jour depuis des lustres).
Et puis, on a compris qu’on pouvait valoriser tour cela de manière nouvelle.
Quand on a une base de donnée riche de centaines de milliers de références à jour on peut avoir l’idée de proposer un configurateur au client, de mettre en plage un moteur de recommandation. On a aussi vu il y a une dizaine l’annuaire remis à contribution pour alimenter le profil riche des collaborateur sur le réseau social d’entreprise.
Shit in, Shit out
Et dans les deux cas le plus souvent l’entreprise a été au bord de la crise cardiaque en soulevant le couvercle de ses bases de données. Disparités dans une unités utilisées, erreurs de saisie, mises à jour non effectuées. Je me souviens aussi de nombreux projets de réseaux sociaux d’entreprise où à l’heure de connecter profil riche et annuaire on se rendait compte dans quel état de délabrement ce dernier se trouvait. Ou encore des entreprises qui se lancent dans le ecommerce pour se rendre compte à l’occasion que leur catalogue produit est en friches.
Maintenant que l’utilisation et l’exposition des données ne se limite plus à ceux capables de naviguer dans un océan de grisaille et d’approximation on se rend compte à quel point la qualité des données a pu être négligée. Sans parler du Big Data dont une des conditions basiques de succès est la qualité des données. La qualité des données en sortie ne sera jamais supérieure à celle des données en entrée.
L’intelligence artificielle et les robots pour nettoyer vos bases de données
Rien de neuf ici. Les entreprises ont toujours eu conscience du problème mais avec le temps la masse de travail nécessaire pour remettre les choses au carré était trop importance par rapport au bénéfice escompté. Comme je le lisais par ailleurs «selon une enquête menée en novembre 2016 pour Experian*, neuf entreprises sur dix n’auraient pas confiance dans les données de leur système d’information. En moyenne, 27 % des données sont jugées comme non fiables.» Mais maintenant qu’il devient vital d’exposer et traiter ces données que ce soit pour du e-commerce, du big data, permettre leur traitement par une intelligence artificielle il faut bien s’attaquer au problème.
La bonne nouvelle est qu’aujourd’hui il est possible d’utiliser des solutions plus ou moins intelligentes pour faire ce qui aurait représenté pour un humain le fait d’écoper l’océan Atlantique avec une cuiller à café. A minima elles seront capables de détecter les incohérences, dans certains cas de les corriger.
Pour autant pendant que l’on corrige on continue à rentrer de nouvelles données, de plus en plus nombreuses, donc de faire augmenter le risque d’erreur. D’où l’intérêt:
1°) De sensibiliser les collaborateurs à l’importance de la qualité des données
2°) D’envisager lorsque le sujet est critique, de mettre en place un agent intelligent ou robot qui soit accompagne dans la saisie soit pointe les incohérences aux personnes à même de les corriger.
Un sujet qui peut sembler aussi anecdotique qu’évident mais qui pose de nombreux problèmes à des entreprises qui découvrent le niveau de qualité de leurs données à la veille de lancer un projet data ou ecommerce majeur et qui les oblige à décaler leurs plans.
L’expert:
Bertrand Duperrin est Digital Transformation Practice Leader chez Emakina. Il a été précédemment directeur conseil chez Nextmodernity, un cabinet dans le domaine de la transformation des entreprises et du management au travers du social business et de l’utilisation des technologies sociales.
Il traite régulièrement de l’actualité social media sur son blog.
- Ask A VC : comment modéliser un compte de résultat — Partie 6/6 : analyse de sensitivité - 21/05/2024
- Ask A VC : comment modéliser un compte de résultat — Partie 3/6 : les Coûts Fixes - 16/01/2024
- Question à un VC : Pourquoi les marges unitaires sont-elles si importantes pour votre modèle d’affaires? - 13/11/2023