Dans la société de l’information, la donnée est le nouvel or noir. Celui qui permet de mieux connaître ses clients, mais aussi de comprendre et d’optimiser ses processus, à commencer par la supply chain et les approvisionnements. Une raison évidente de réfléchir à la collecte des datas, à leur partage et à leur exploitation.   

Chaque année, les chiffres sur la création, le stockage et la circulation des données donnent un peu plus le tournis. Ainsi, d’après IDC, nous créons chaque seconde plus de 50 000 Go de données à l’échelle de la planète. Et le cabinet prévoit qu’en 2020, le volume de données créé sera décuplé par rapport à l’année 2013.

La chaine logistique n’échappe pas au phénomène. Les logiciels qui permettent de l’automatiser ainsi que les nombreuses interactions entre toutes les parties, du fabricant jusqu’au distributeur et même au client, fournissent déjà des données en masse considérable. Et que dire de l’explosion des objets connectés (IOT), dont il se dit qu’ils seront 75 milliards (!) d’ici 2025 ? Pour une bonne partie d’entre eux, ils vont justement permettre de tracker l’information utile au suivi des livraisons, à la vérification de la qualité ou encore à l’optimisation des flux et des coûts.

Toujours plus de données utiles pour la supply chain et son optimisation

Il n’est pas inutile de rappeler qu’Amazon, considéré comme le meilleur logisticien au monde, faisait partie en 2019 du top 10 des meilleures capitalisations boursières – avec six autres entreprises technologiques alors qu’il n’y en avait qu’une dix ans plus tôt. La raison d’un tel succès n’est pas à aller chercher loin : elles savent mieux que quiconque tirer parti des données à leur disposition et les valoriser, soit en améliorant la qualité de leur service, soit en vendant des prestations liées à cette maîtrise de la data. Comme l’écrit le consultant Nicolas Bucaille, puisque plus aucun pétrolier n’est présent dans ce top 10 en 2019, contrairement à 2009 : « aujourd’hui, ce n’est plus le pétrole qui est l’or noir, mais bel et bien la donnée ».

Désormais, selon le Gartner Group, plus de la moitié des grands comptes dans le monde s’inspirent de ces exemples : ils investissent sur le big data, l’IoT et les applications analytiques pour optimiser leurs chaînes logistiques. Et la dynamique concerne toutes les tailles d’entreprises.

La bonne nouvelle, c’est qu’il y a beaucoup de données disponibles, un vrai gisement sous les pieds des responsables de supply chain, pour filer la métaphore. Il y a un mais : comme le déclarait dans Les Echos Arnaud Laroche, responsable du département Analytics d’EY : « les données sont partout mais il reste à les identifier » !

Ou plus exactement à bien les exploiter. Actuellement, les données issues des ERP et autres MES servent essentiellement au pilotage financier. Pourtant « du fait du degré de sophistication des équipements, il est désormais possible de collecter des data plus précises susceptibles d’être très utiles à l’amélioration opérationnelle des process eux-mêmes : quels sont les éventuels dysfonctionnements, à quel moment constate-t-on des goulets d’étranglement, où coince l’approvisionnement de la supply chain, etc. » continue Arnaud Laroche.

Les promesses sont là, mais….

Voilà pour la partie « automatisable » de la collecte des datas. Mais il existe également des gisements de données invisibles (dites non-structurées), plus difficiles à sélectionner et à traiter. Elles sont pourtant source de valeur, en particulier pour les services approvisionnements. On pense par exemple aux indicateurs d’activité, aux messages des sous-traitants, aux rapports des experts qualité ou même aux échanges par mail entre membres du service… En 2018, elles représentaient 75 % des données produites au quotidien. Une mine, certes, mais qui pose de vrais problèmes d’exploitation :

  • Elles sont stockées sur des outils bureautiques (tableurs, messageries), sans réflexion sur leur structure et leur accessibilité future ;
  • La mission de collecte et d’enregistrement – chronophage et répétitive, est souvent confiée à un stagiaire ou à un débutant, sans suivi, ni pérennité ;
  • Elles sont enregistrées plusieurs fois, avec des risques de redondance ;
  • L’hétérogénéité des enregistrements rend très difficile leur traitement automatisé par la suite… et donc les analyses.

La plupart des entreprises et de leurs collaborateurs ont conscience que ce défaut de qualité et de quantité dans la collecte des données les fait passer à côté de quelque chose. Ainsi, dans une étude publiée par Alteryx en janvier 2019, 45 % des professionnels interrogés avaient le sentiment de manquer d’informations lors de leurs prises de décisions importantes et 76 % d’entre eux pensaient que l’ajout des sources de données supplémentaires permettrait de garantir des résultats probants.

Structurer ses données, c’est structurer sa réflexion

Heureusement, des outils sont désormais disponibles pour collecter et exploiter « toutes les données utiles, sans rupture de charge » comme l’explique Emilia Jevakhoff, fondatrice et directrice générale de la solution collaborative Winddle. Ces plateformes dans le cloud apportent des réponses concrètes qui font écho à des réflexions universitaires, par exemple dans la revue « Management et avenir » qui détaille les différentes dimensions de la qualité des données : l’exactitude, la fiabilité, l’accessibilité, la sécurité, la temporalité, le volume, le format de représentation…

Sans aller nécessairement aussi loin – et sans nécessiter un Bac + 10, le secret du succès réside sans doute dans la capacité à penser au rôle et à la valeur de la data tout au long de la supply chain, et notamment lorsqu’on l’automatise. Cette réflexion initiale permet de réfléchir aux moyens à mettre en place pour assurer la collecte (outils, personnes, process), puis de passer à une exploitation productive de la donnée.

Une solution comme Winddle, qui met la data au cœur du processus de suivi de l’approvisionnement, permet de nourrir la réflexion, et de se poser les bonnes questions :

  • Sur la collecte: comment récupérer, tout au long de la supply chain, de la manière la plus automatisée possible, des données correctement qualifiées et utiles ;
  • Les collaborateurs des appros sont libérés des tâches chronophages de récupération des informations. Ils peuvent se concentrer sur les cas d’exception. Ils peuvent également mettre en lumière les datas manquantes et suggérer des améliorations dans leur collecte ;
  • Sur le stockage: avec des volumes de données devenant considérables, il est impératif de réfléchir à la structure de stockage, à leur intégrité et à leur protection (données personnelles notamment). Le développement des plateformes « cloud » (stockage mutualisé) apporte une réponse technique et financière satisfaisante dans la plupart des cas ;
  • L’analyse enfin : collecter sans exploiter ne sert à rien. Il faut utiliser ces données pour en toucher les bénéfices. Là-aussi, un outil comme Winddle facilite leur lecture (sous forme d’indicateurs par exemple) et libèrent ainsi tout leur potentiel.

« Ce potentiel des données, plus personne n’en doute aujourd’hui, conclut Emilia Jevakhoff. Winddle est là pour le révéler, et pour permettre à toutes les entreprises de découvrir et d’utiliser la richesse de l’information qui circule tout au long de leur supply chain ».