Dégradation de la prévision au cours du temps

Une prévision ce n’est pas un point, c’est un intervalle.

Evolution de la dispersion d’un cheminement Gaussien.

La problématique.

Les probabilités sont parfois contre-intuitives, le problème de Monty Hall me surprend toujours.
Lorsque la prévision utilisée dans le pilotage de la supply chain est représentée par une simple courbe sur un horizon plus ou moins étendu, cela laisse croire à une certaine certitude ce qui n’est qu’un leurre.

Exemples de représentation de la prévisions de certains systèmes avancés de planification

A partir de cette représentation simplifiée il est relativement aisé de se faire emporter dans une erreur de raisonnement. En effet, une prévision ne peut être réduite à un point unique pour une période donnée.
Et c’est bien lié aux calculs de probabilités et l’explication se trouve dans les graphiques extraits des articles “lois de probabilités” et “écart type” (extraits de Wikipédia).

Notez qu’ici j’ai pris des exemples où distribution est dite normale, mais il existe une multitude de distributions différentes. Ainsi le chiffre que l’on obtient avec les outils de prévision statistique c’est en gros la pointe de cette distribution, soit la valeur pour laquelle il y a une chance sur deux que la demande soit plus forte. Dit comme ça on voit bien qu’il manque une information pour pouvoir organiser efficacement notre supply chain.
Bien sûr nous savons que le stock de sécurité est là pour couvrir cette plage mais est-ce bien le cas ?

Dégradation de la précision au cours du temps

Cette information c’est l’erreur de prévision, « l’étalement » de la distribution, ou encore la « précision » de notre système de prévision. Cette valeur est disponible dans les outils de prévision mais malheureusement elle se fait discrète graphiquement, et surtout sa dégradation dans le temps est fortement ignorée.

Pour se représenter le phénomène, j’ai fait une simulation de cheminement selon une loi normale sur 52 périodes (à chaque période on part de la valeur précédente et on ajoute le résultat du tirage). Ce cheminement est intéressant car on simule statistiquement l’impact du cumul de l’erreur de prévision au cours du temps (sur un stock ou un centre de charge).

On répète le cheminement un grand nombre de fois (10000) et on regarde combien de fois chaque chemin est emprunté. Voici le heatmap que l’on obtient (plus on est passé par une zone, plus elle est jaune) et la représentation en 3D pour ceux qui préfèrent : 

D’une dispersion contenue (point jaune, plus de 500 passages) on se retrouve avec une courbe de répartition assez plate et bien plus large : la précision diminue au cours du temps

Plus on prévoit à l’avance et moindre est la précision, rien de très surprenant. Si l’on trace l’évolution des écarts-types (sigma σ) de chaque période, voilà les évolutions des intervalles de confiance que l’on obtient (84%, 97,5% et 99,8% respectivement 1, 2 et 3 écarts types) mesurés sur notre cheminement en loi normale :

Je fais ici le choix de ne représenter que la partie supérieure de l’incertitude, car c’est celle qui concerne le niveau de service aux clients (ruptures, retards…).
La théorie nous dit que l’écart-type d’un tel cheminement vaut, au bout de p périodes, σ√p et cela se vérifie expérimentalement

Cela signifie qu’au bout de 4 périodes la répartition est deux fois plus étalée. Si l’on encadre la prévision avec un intervalle constant, disons 2. (97,6%) pour la première période prévue, on se retrouve avec une précision fiable à 84% au bout de 4 périodes pour cet intervalle et de 71% au bout de 12 périodes (sachant que le minimum c’est 50%).

Voilà la courbe de la précision si l’on garde un tunnel d’amplitude constante :

Il y a une rapide dégradation de la qualité de la prévision au cours du temps. Et ce phénomène est souvent oublié dans les organisations de planification de la supply chain car il n’est pas représenté dans les outils. Cette courbe incite notamment à la diminution des délais pour réduire la valeur des stocks.

Quelques recommandations

Afficher le cumul des écarts de prévision.

Le prévisionniste doit pouvoir visualiser l’évolution de la dispersion de la prévision d’une manière ou d’une autre. Dispersion qui est uniquement dépendante de l’écart type.

Si l’écart type est du même ordre que le volume prévu (Cv ~ 1) cela pose un problème de sens car comme on peut le voir on atteint au bout d’une dizaine de périodes 10x la valeur de l’écart type.

L’affichage de la validité de la prévision est une information importante qu’il faut faire apparaître. Sans rentrer dans le détail, on peut utiliser  comme approximation (écart-type par racine du nombre de périodes), ou mieux calculer la précision du modèle de prévision 2, 3, … , p périodes à l’avance et reporter ces valeurs sur le graphique.

Définir un horizon de validité opérationnelle de la prévision.

Dans l’exemple ci-dessous, en constatant la dégradation de la prévision, on peut en déduire un horizon de validité de cette prévision au-delà de laquelle il est dangereux de la présenter.

Au bout d’un moment l’incertitude dépasse l’ordre de grandeur de la prévision

Faire une prévision à un niveau plus agrégé pour prévoir plus loin
Pour la prévision que vous allez utiliser pour votre processus S&OP (ou équivalent) vérifiez comment est l’incertitude de cette prévision (construite par agrégation de la prévision détaillée ou par toute autre méthode). Et travaillez les scénarios en fonction de de percentiles représentatifs (par exemple 25% et 75%).

Conclusion

  • N’oubliez pas de prendre en compte l’incertitude mesurée de votre prévision, lorsque c’est possible affichez le cumul d’incertitude dans vos outils de prévision.
  • Si vous agrégez la prévision pour travailler sur un horizon lointain, n’oubliez pas de mesurer à nouveau la précision de cette prévision sur cette nouvelle maille.
  • Affichez les horizons de validité de votre prévision en fonction du rapport écart-type par moyenne (ou masquez les chiffres lorsqu’ils ne sont plus significatifs).