J’adore les mathématiques. Elles sont parfaites, parce que le « peut-être » n’existe pas, l’approximation est uniquement décidée et elles sont universelles. Le traitement des chiffres m’a incité à me plonger dans la comptabilité analytique. Vous mettez sur pied un modèle et essayez d’être le plus précis possible ; vous découvrez ainsi ce que la comptabilité ne vous dit pas de manière claire. Pourtant, cela me frustre souvent.
Mon système de comptabilité analytique préféré est probablement la méthode ABC ou Activity Based Cost Method. Vous essayez de déterminer les facteurs de coût des différents générateurs afin d’attribuer au mieux la consommation aux différents départements ou produits. Vous créez ensuite une matrice pour savoir quels sont les facteurs de coûts communs aux différents générateurs de coûts, de sorte que vous avez besoin de moins de facteurs de coûts pour travailler. Ensuite, il s’agit seulement de quantifier la consommation de chaque centre.
C’est ce qui me dérange : pourquoi travaillons-nous avec cette matrice ? Je comprends que si nous faisons nos calculs sur un bout de papier à l’école ou pour un examen, c’est plus rapide et plus facile. Cependant, nous vivons dans un monde où l’on parle d’exploration de données ou “data mining”, de “big data », où nous disposons d’une capacité de stockage presque illimitée et d’une énorme puissance de calcul. Les logiciels deviennent de plus en plus sophistiqués et peuvent être adaptés aux besoins.
Alors pourquoi continuer à se contenter d’approximations ?
Je suppose que nous disposerions d’une manière plus précise d’évaluer les coûts qui contournerait les réserves classiques émises sur les méthodes traditionnelles où nous soulignons toujours qu’il y a une marge d’erreur, avec l’exemple en tête des entités rentables avec une méthode, et en déficit avec une autre.
Les préoccupations qui existaient à l’époque où nous voulions une estimation rapide de ce que nous devions facturer aux clients sur la base d’une simple analyse des coûts, sont obsolètes. Il n’est pas très difficile d’ajouter un module dans un programme ERP pour obtenir une estimation rapide basée sur les données. Lors d’échanges sur le sujet, j’ai souvent entendu l’argument selon lequel il faut des données qualitatives et fiables pour obtenir ce résultat, mais n’était-ce pas déjà le cas avec les méthodes classiques ?
Les processus deviennent de plus en plus complexes, avec des chaînes de valeur combinant un grand nombre d’activités, de ressources et parfois même d’industries différentes. Cela transforme un calcul simpliste prenant en compte seulement quelques indicateurs, en un pari dangereux. Il est peut-être temps de repenser la façon dont on enseigne le contrôle des coûts. Bien sûr, nous devons connaître les bases, Bien sûr, nous devons connaître les bases, Bien sûr, nous devons connaître les bases, les méthodes traditionnelles peuvent toujours s’appliquer aux petites structures, mais nous devons envisager d’apprendre également à utiliser les données que nous collectons plutôt que d’éviter, en fin de compte, de les utiliser.
J’espère lancer une discussion ici, qui pourrait changer le point de vue de certains qui ne sont pas nécessairement conscients qu’il existe des moyens de faire autrement. N’oublions pas : l’innovation disruptive est à l’ordre du jour.