Le secteur logistique n’échappe pas à l’explosion du volume de données produites par les différents acteurs de la chaîne, leurs outils digitaux et les objets connectés qu’ils déploient par milliards. Son exploitation ouvre des perspectives inédites en matière de pilotage des processus et même de prévision. Mais avant de tirer parti de cette manne numérique, il faut apprendre à la maîtriser et pour cela, poser des bases solides pour une exploitation rationalisée des données qui existent déjà !

Qui aurait l’idée de se plaindre de la disponibilité d’une information toujours plus riche ? Sans doute personne aujourd’hui, au vu des exigences de traçabilité (douanière, sanitaire, fiscale, etc.) qui pèsent sur les entreprises. Mais moins encore dans un monde où les consommateurs veulent tout, tout de suite. Et qui, en cas de retard dans l’acheminement de leur commande, veulent en être immédiatement informés, avec une date de livraison effective recalculée au plus juste. 

Des données en masse, internes et externes à l’entreprise

A la fois par besoin donc, mais aussi du fait de la nature complexe de son fonctionnement, le supply management est considéré comme l’un des domaines les plus riches en matière de données. Celles-ci peuvent provenir des logiciels de gestion d’entrepôt (WMS), de la chaîne de transports (TMS), ainsi que des nombreux automates et autres objets connectés qui permettent le suivi de la production et des livraisons. Et encore, il s’agit ici de la partie interne au système d’information de l’entreprise. Des données extérieures sont également disponibles et utiles : l’état du trafic routier, la météo et son impact sur les durées de transports, sans compter l’ensemble considérable – et aussi hélas très hétérogène, des données fournisseurs. 

 « Les fabricants disposent d’informations sur l’état d’avancement de leur production, les quantités disponibles ou encore la qualité produite », explique ainsi Emilia Jevakhoff, CEO de l’éditeur Winddle. La solution qu’elle propose en mode SaaS répond justement au besoin de fédérer ces données autour d’un modèle commun, pour une utilisation plus rationnelle par les services approvisionnements. 

L’information pour éclairer le présent

Mais pourquoi une telle course aux données ? 

  • D’abord, pour disposer d’une vision réaliste de la situation à un instant t. La complexité croissante de la supply chain ne la facilite pas, avec des réseaux de fournisseurs qui se densifient et évoluent au gré des besoins et des saisons ! 
  • Disposer d’une logistique qui s’adapte à la nature et à la criticité des flux 
  • S’adapter à l’évolution rapide des usages : click and collect, livraison le jour même, ventes privées, personnalisation de l’expérience client… 

Mais amonceler de la donnée ne suffit pas ! Il faut aussi détecter les plus utiles, celles qui nécessitent une réaction, un ajustement. Pour cela, difficile de passer en revue de façon exhaustive l’ensemble des datas. Il faut plutôt créer des seuils d’alerte et, comme c’est le cas avec une plateforme collaborative comme Winddle, déclencher des alarmes lorsque ces seuils sont franchis.

« L’avantage d’un logiciel comme le nôtre est de libérer ses utilisateurs de la nécessité de lire une multitude de mails qui n’ont pour la plupart d’entre eux pas d’autres vocations que de dire que tout va bien et que les produits seront livrés à l’heure », ajoute Emilia Jevakhoff. 

Des outils qui font remonter le plus important

Historiquement, la détermination de ces seuils est restée longtemps empirique, et les premiers logiciels ont simplement permis de les « coder » pour automatiser les alertes. Mais avec la masse et la diversité des données aujourd’hui disponibles dans le système d’information, d’autres tendances deviennent détectables, toujours plus tôt dans le processus. On peut donc positionner des alertes plus en amont de la chaîne et corriger le tir plus tôt. 

Dans les services approvisionnements, le taux de service, par exemple, permet de repérer les meilleurs sous-traitants par rapport à une problématique donnée – type de production, localisation des clients, rapport qualité/prix etc. Un exemple de la manière dont la donnée peut désormais éclairer la prise de décision.

Le traitement massif des données peut prendre plusieurs visages. Mais que l’on parle de machine learning, de big data ou encore de data mining, les enjeux sont communs. A savoir : développer des programmes capables de corréler des sources de données larges et diversifiées pour y trouver des tendances et des structures.

Les data scientists à l’assaut du futur… avec les données d’aujourd’hui 

C’est d’ailleurs la ruée sur les profils de chief data officers ou encore de master data managers et autres data scientists. La France a créé 135 000 emplois en dix ans autour du big data. L’objectif commun de tous ces professionnels ? Rassembler l’information, quelle qu’en soit la source, l’agréger, la sécuriser, la mettre à disposition et permettre son exploitation de manière transverse. Vaste programme, avec des perspectives immenses dans la supply chain. Parmi elles :

  • Mieux prévoir les volumes de charge ou les ventes à venir ;
  • Anticiper les risques (fournisseurs, équipements, ruptures et écarts de stock etc.) 
  • Optimiser de façon dynamique la planification des tournées en fonction par exemple des perturbations de trafic 
  • Adapter en temps réel la réception et le stockage des produits en fonction des contenus des containers

A l’horizon, un Graal ! Sera-t-il possible demain de prévoir la demande des clients, grâce à l’étude croisée d’historiques des ventes, de leur saisonnalité, des zones de chalandises etc ?  Les leaders de la logistique y croient en tous cas, et Amazon ou DHL, entre autres, y investissent des sommes considérables.

L’avenir a besoin de datas fiables

Pour les entreprises de taille plus raisonnable, l’une des premières phases de cette mutation réside dans la constitution de masses de données homogènes et exploitables, pour commencer à bénéficier de leur richesse. Sur le plan technique, le terme  “Datalake” revient souvent, pour exprimer ce besoin « d’entrepôt » de données sécurisées. 

S’insérant parfaitement dans une telle démarche, soit en complément, soit pour l’initier, les plateformes collaboratives comme Winddle permettent de gagner du temps en constituant via le cloud un socle de données fiables et utilisables immédiatement par les services d’approvisionnement. 

Elles font gagner du temps au quotidien, mais permettent aussi de commencer à tester de nouveaux outils d’exploration, afin de proposer de premières hypothèses d’amélioration des pratiques. Par la suite, on explorera des pistes plus ambitieuses et plus innovantes par rapport aux habitudes. Cet horizon, plus ou moins éloigné selon la maturité digitale de l’entreprise, dépend aussi des initiatives des managers de terrain. Mais ils peuvent d’ores et déjà dessiner une vraie trajectoire autour de la donnée et de son exploitation. 


Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *