5 min

La gouvernance des données : l’un des piliers de la confiance numérique

La confiance numérique est un enjeu fondamental pour les entreprises qui s’automatisent de plus en plus. À quel point pouvons-nous avoir confiance dans la machine pour nous aider à prendre nos décisions, voire pour prendre des décisions à notre place en toute autonomie ? Cette question trouve une partie de sa réponse dans la présence, ou non, d’une gouvernance des données appropriée.

La transformation digitale des entreprises offre d’énormes possibilités d’automatisation voire d’industrialisation des processus. Ces changements sont amenés par ce qu’on nomme l’intelligence artificielle, parfois résumée comme étant la capacité des machines à prendre des décisions.

Il existe en réalité plusieurs façons d’utiliser le digital à des degrés graduels d’autonomie et de délégation de compétences. Aux premiers stades, la machine aide à la décision ; au stade ultime, la machine prend la décision. On peut décrire cinq stades de délégation de compétences. Tout d’abord, on peut utiliser la machine pour décrire les données, c’est-à-dire les lire et en faire une représentation, graphique ou sonore par exemple. Au second stade, on peut l’utiliser à des fins diagnostiques, c’est-à-dire interpréter une situation, comme afficher un warning si une valeur critique atteint un certain niveau. Le stade suivant est la prédiction : la machine prédit le futur à partir de l’analyse du passé ou du présent. L’étape suivante est la prescription : la machine donne des conseils sur ce qu’il conviendrait de décider en fonction de son analyse de la situation, comme un GPS qui fait évoluer l’itinéraire en fonction du trafic. L’étape ultime est la décision : la machine est autonome, elle lit les données, les analyse, les interprète et traduit cela en action. C’est la voiture autonome, la caisse automatique, le chauffage intelligent etc.

En résumé, plus on automatise, plus on délègue l’analyse et l’interprétation des données, voire la prise de décision. Le degré d’automatisation permettant, ou non, correction, modération ou interprétation humaine. Autrement dit, plus on automatise, plus la qualité des données est fondamentale puisqu’elle impacte directement et sans interprétation humaine la prise de décision. La tendance à réduire le temps de décision, voire à le supprimer en utilisant des technologies capables de réagir en temps réel renforce encore la délégation de compétences au profit de la machine.

Le degré de délégation dépend de plusieurs facteurs, volontaires ou subis. Parfois, en raison des coûts de développement de systèmes totalement automatisés, l’entreprise décide de conserver des étapes manuelles juxtaposées à des processus automatiques. Cette décision peut aussi être guidée par le souhait de préserver la dimension sociale et humaine, comme dans les supermarchés où co-existent des caisses automatiques et des caisses classiques, voire des bla-bla caisses favorisant le lien social. Dans ces deux cas, il s’agit de choix opportunistes, guidés par des approches de type coût/bénéfice. Dans d’autres cas, la faible qualité des données ne permet pas d’automatiser entièrement les processus. On peut penser que la qualité des données peut être améliorée grâce à des investissements financiers. Mais cela ne suffit pas car la qualité des données est un sujet complexe et fortement lié à la culture d’entreprise. Les données sont un actif qui ne ressemble à aucun autre et dont les caractéristiques particulières imposent des méthodes de travail adaptées[1][2]. Pour être efficace, la transformation digitale ne doit pas être perçue comme seulement technique, elle doit aussi s’accompagner d’une transformation culturelle.

Que la machine soit simple exécutante d’algorithmes ou que l’on parle de machine learning avec des capacités d’apprentissage ne résout en rien le problème des données. L’ordinateur calcule, cherche, se trompe, recommence et progresse ! Mais ne sait pas distinguer une bonne donnée d’une mauvaise. C’est à nous, humains, de rendre disponibles des données que nous jugeons correctes et en ligne avec nos valeurs. Intègres, non biaisées, accessibles, diversifiées, représentatives, objectives … sont des critères que nous pouvons favoriser lorsque nous sélectionnons les données que nous mettons à disposition d’une intelligence artificielle.

Parfois aussi, les données sont difficiles à interpréter. Peut-être connaissez-vous ces images amusantes de chihuahua qui ressemblent, pour l’œil humain, à des muffins ? L’œil humain s’y méprend et l’algorithme encore plus. Comme l’explique Yann LeCun, l’intelligence artificielle n’a pas de modèle du monde – ou du moins est-il restreint. Or, l’interprétation des données est relative. Savoir si l’on est face à un chihuahua ou à un muffin consiste à reconnaitre une image. S’il doute, l’œil humain s’appuie sur le contexte (posé dans la cuisine sur une assiette suggère qu’il s’agit d’un muffin). Ce que la machine peine à faire puisqu’elle n’a pas (encore) de modèle du monde. Déléguer l’interprétation des données à la machine peut donc être source d’erreur ou de biais qu’il convient de gérer et d’anticiper.

Au niveau d’une entreprise, assurer la qualité des données doit passer par la gouvernance des données, indissociable de la gouvernance des entreprises : culture d’entreprise, formation, gestion de la collecte, de l’utilisation et du stockage des données, gestion des risques, définition des rôles et des responsabilités et plus globalement regard critique sur l’autonomisation des processus. Nul doute que dans plusieurs années, les données seront gérées, comptabilisées, normalisées voire réglementées comme c’est aujourd’hui le cas avec les actifs financiers. En attendant, l’entreprise doit s’imposer des « soft rules » si elle veut tirer profit du digital sans en subir les risques et les contraintes.

En conclusion, automatiser les processus signifie déléguer l’interprétation des données à la machine. Il en résulte un besoin croissant de gouvernance des entreprises prenant en compte la dimension des données, actif particulier qui nécessite une culture d’entreprise adaptée et des règles pour encadrer les flux et les stocks, les rôles et les responsabilités. C’est l’un des piliers de la confiance numérique.

[1] L’ubiquité des données, leur porosité et la difficulté de définir de façon absolue une donnée de qualité incitent à faire reposer la qualité des données sur l’organisation dans son ensemble. Nathalie Feingold, l’Agefi (Suisse) «La qualité des données est l’affaire de tous (et pas seulement de l’IT) » https://agefi.com/actualites/acteurs/la-qualite-des-donnees-est-laffaire-de-tous-et-pas-seulement-de-lit

[2] Les données sont un actif et aussi un passif, une ressource et aussi un produit, elles sont un bien stockable, périssable, transportable et consommable en différé qui a le don d’ubiquité ! Et surtout, leur valeur et leur qualité sont relatives. A la différence des actifs auxquels on les compare, elles ne sont pas fongibles. Nathalie Feingold, Journal de la Fédération des Entreprises Romandes « Les données ne sont pas du pétrole », Octobre 2021 – https://cercle-suisse-administratrices.ch/nathalie-feingold-les-donnees-ne-sont-pas-du-petrole/

Partager cet article avec un ami