loadingPage en cours de chargement
    ACCUEIL | TÉLÉCHARGER | QCM | DON | ANNONCES | CHAT | FORUM | LIVRE D'OR | PARTENAIRES | CONTACT | BLOG
 
  Rechercher
  separation
  Introduction
  Arithmétique
  Algèbre
  Analyse
  Géométrie
  Mécanique
  Électrodynamique
  Atomistique
  Cosmologie
  Chimie
  Informatique Théorique
  Maths. Sociales
  Ingénierie
  separation
  Biographies
  Références
  Liens
  separation
  Humour
  Serveur d'exercices
  separation
  Parrains
3 connectés
News News :: Erreur Erreur :: Statistiques Visiteurs :: ClearType ClearType :: Imprimer Imprimer :: Bookmark and Share

Mathématiques Sociales

DYNAMIQUE DES POPULATIONS | THÉORIE DES JEUX ET DE LA DÉCISION | ÉCONOMIE
TECHNIQUES DE GESTION
| MUSIQUE MATHÉMATIQUE

67. TECHNIQUES DE GESTION

Dernière mise à jour de ce chapitre: 2017-03-28 02:48:21 | {oUUID 1.807}
Version: 3.2 Révision 32 | Avancement: ~85%
viewsvues depuis le 2012-01-01: 10'064

Table des matières LISTE DES SUJETS TRAITÉS SUR CETTE PAGE

L'objectif de ce chapitre est d'introduire les principales techniques mathématiques de production et de gestion, de maintenance et de qualité dont l'utilisation est devenue indispensable aux ingénieurs, gestionnaires et cadres des entreprises modernes (ceux qui le peuvent font de la science, les autres de la méthodologie...) et qui constituent le minimum-minimorum de la connaissance du métier de la gestion en général. Ce sont des techniques qui datent du début du 20ème siècle et qui ont d'abord été utilisées par l'armée américaine pour la majorité pour ensuite se voir petit à petit implémentées dans les plus grandes entreprises mondiales.

Par ailleurs, c'est un excellent chapitre pour la culture générale du physicien ou du mathématicien... et un acquis pour l'ingénieur!

Beaucoup de techniques ne seront cependant pas présentées ici car ayant déjà été démontrées dans d'autres chapitres du site. Effectivement, les techniques de gestion complexes et critiques font un énorme usage des statistiques et probabilités, de la théorie de la décision, de la théorie des graphes (chaînes de Markov ou non, graphes complets pour la gestion de la communication), de l'analyse financière et des algorithmes d'optimisation. Des chapitres entiers y étant déjà consacrés sur ce site, il serait redondant d'y revenir!

Remarque: Nous parlons souvent de 3M (Méthodes Mathématiques de Management) ou chez les anglophones de "scientific management" pour décrire l'ensemble des outils mathématiques appliqués à la gestion (il existe d'ailleurs un cursus de formation continue à ce sujet d'une cinquantaine de jours) ou encore de SciProM pour "Scientific Project Management). Un terme anglophone courant et qui devient à la mode en Europe pour décrire ce domaine d'application est aussi le "decisioneering" faisant référence au fait que ce sont des outils d'aide à la décision pour les ingénieurs.

Indiquons avant de commencer que malgré leur importance intrinsèque, les techniques quantitatives de gestion (incluant aussi les techniques de recherche opérationnelle, modélisation par Monte-Carlo et le Bootstrapping vues dans le chapitre d'Informatique Théorique ainsi que Six Sigma vu dans le chapitre de Génie Industriel et la Théorie de la Décision) sont encore peu utilisées dans le monde industriel, soit à cause du manque de formation des décideurs (excepté dans le domaine de la finance), soit par le manque de pertinence de l'outil ou sa difficulté de mise en œuvre. Les principales craintes émises par les décideurs quant à l'application de modèles mathématiques dans l'entreprise sont:

1. Les outils sont trop abstraits: Dans cette situation, je rappelle toujours que le concret, c'est de l'abstrait auquel on est habitué!

2. Une prise en compte limitée des facteurs: Pour les questions stratégiques, la réponse pure et parfaite d'une solution mathématique semble rarement applicable de facto. Même si les techniques quantitatives intègrent beaucoup de facteurs, si certains aspects sont relativement faciles à modéliser au sens mathématique du terme (le coût, la rentabilité, la distance, la durée, la cadence, par exemple), d'autres éléments sont en revanche plus difficiles à modéliser: contraintes légales, volonté commerciale de faire barrage à un concurrent, importance des relations avec les élus, climat social, etc. Le poids de ces éléments dans la décision est pourtant important, parfois déterminant.

3. Un investissement important: L'outil mathématique lui-même exige un niveau élevé de connaissances mathématiques, une bonne aptitude à modéliser les problèmes et décrire les facteurs. Ces contraintes sont consommatrices de beaucoup de temps et d'une certaine somme d'argent (que ce soit par développement interne, qui consomme des ressources - ou par développement externe, qui consomme de l'argent). Il est alors nécessaire de trouver un équilibre entre l'investissement nécessaire et les retombées prévues.

4. Pour des événements peu fréquents: L'entreprise ne bénéficie pas de l'effet d'expérience et donc d'une fois sur l'autre, le problème concerne un service différent, ou les responsables ont changé entre deux études. Il est donc difficile d'entretenir les compétences à l'intérieur de l'entreprise. Le décideur devra prendre ces différents aspects en compte lorsqu'il décidera ou non de mettre en œuvre des techniques quantitatives dans son entreprise.

Nous pouvons aussi argumenter que ce qui fait que les techniques scientifiques de gestion (TQG) ou les méthodes mathématiques de management (3M) ne sont guère répandues est que:

1. Dans un environnement peu exigeant le surcroît de puissance qu'offrent les TQG/3M ne justifie pas forcément les efforts nécessaires à leur apprentissage.

2. Les TQG/3M sont exigeantes en raisonnements et rigoureuses, elles ne peuvent donc convenir aux personnes qui ne connaissent ni les uns ni les autres...

Remarque: Méfiez-vous des entreprises - particulièrement des multinationales - qui recherchent des spécialistes en gestion de projets ou en logistique maîtrisant Microsoft Excel, Microsoft Access ou VBA. Car cela signifiera qu'elles utilisent des outils non professionnels pour faire un travail qui lui devrait pourtant l'être avec des outils adaptés (et Microsoft Excel ou Microsoft Access ne le sont pas!!!). Donc en termes d'organisation interne, vous pouvez vous assurer que ces entreprises organisent et analysent n'importe quoi, n'importe comment, avec un outil non adapté et donc que c'est le bordel général en interne.

Nous avons choisi dans cette section de présenter les techniques quantitatives de gestion les plus classiques dans un ordre croissant de difficulté (niveau de technicité). Cela nous semble à ce jour le choix pédagogique le plus pertinent.

Donnons un résumé schématique de la méthode scientifique vue dans le chapitre d'Introduction et qui s'applique assez bien au niveau du monde des affaires en ce qui concerne le management scientifique:

equation
Figure: 67.1 - Processus simplifié type

Les sujets simples sont donnés sans exemples pratiques alors que ceux qui dépassent le niveau de l'école obligatoire sont accompagnés d'exemples pratiques plus ou moins détaillés.

ANALYSE DU SEUIL DE RENTABILITÉ (POINT MORT)

L'analyse du seuil de rentabilité ("break-even analysis" en anglais), appelé aussi "analyse du point mort", est l'ensemble des calculs permettant de déterminer le niveau d'activité minimum à partir duquel une organisation devient rentable pour elle-même par ses économies d'échelle, c'est-à-dire qu'elle cesse de perdre de l'argent sur cette activité. Évidemment, cette technique permet aussi de comparer plusieurs stratégies entre elles.

Le "point mort" est donc assez intuitivement le point d'intersection entre la courbe du chiffre d'affaires (car le chiffre d'affaires est normalement une fonction de plusieurs variables) et la courbe des charges (elle aussi une fonction de plusieurs variables) nécessaires pour produire ce chiffre d'affaires. En d'autres termes, il s'agit des coordonnées correspondantes à l'égalité des deux fonctions (dans la pratique on le représente rarement graphiquement car les variables sont trop nombreuses).

Normalement cette technique doit permettre à un gestionnaire de déterminer des informations comme:

- Prédire le volume de ventes pour couvrir tout juste les coûts (point mort)

- Quel doit être le prix par unité pour couvrir tout juste les coûts (point mort)

- Quel est le niveau des coûts fixes qui équilibre tout juste les gains (point mort)

- Comment les prix influent sur le volume de ventes correspondant à l'équilibre (point mort)

L'analyse du point mot est basée sur l'hypothèse que tous les coûts relatifs à la fabrication d'un bien peuvent être divisés en deux catégories: coûts variables et coûts fixes.

Le coût total equation est défini par la relation:

equation   (67.1)

F représente les coûts fixes, c le coût par unité (supposé indépendant de la quantité) de biens produits et Q la quantité correspondante.

L'hypothèse que le coût par unité soit indépendant de la quantité permet de simplifier le calcul pour avoir le coût total qui est une simple fonction linéaire, mais cette hypothèse n'est plus vraiment nécessaire aujourd'hui avec les tableurs.

Si nous supposons que toutes les unités produites sont vendues, le revenu total equation est défini par:

equation   (67.2)

p est le revenu par unité vendue.

Le point mort est alors l'égalité entre les deux coûts, ce qui signifie:

equation   (67.3)

Ainsi, nous pourrions alors par exemple après quelques opérations algébriques élémentaires, déterminer la quantité qui permet d'arriver au point mort:

equation   (67.4)

Ainsi, connaissant F (coûts fixes), p (revenus par unité produite)  et c (coûts par unité produite), il est possible de déterminer la quantité Q à vendre pour arriver au point mort.

Signalons qu'un sujet qui intéresse beaucoup les gestionnaires c'est l'étude de la variation de certains paramètres en fonction des autres variables. Nous appelons cela "l'analyse de la sensibilité" dans le cas multivarié (analyse se basant sur le coefficient de corrélation Pearson) et "l'analyse par double entrée" dans le cas bivarié. Évidemment dans le cas linéaire, cette analyse est assez triviale.

Remarques: Depuis le début des années 1980, il existe des logiciels très simples à utiliser comme @Risk de Palisade permettant de faire des simulations de Monte-Carlo pour déterminer le point-mort probabiliste et ce même avec des solveurs qui permettent de résoudre des systèmes non linéaires et faire de l'analyse de la sensibilité très poussée. Sinon pour une analyse scolaire, un tableur suffit...

DIAGRAMME DE PARETO

Le diagramme de Pareto, comme nous allons le voir, est un moyen (parmi d'autres) simple pour classer les phénomènes par ordre d'importance. Mais la distribution de Pareto est aussi souvent utilisée en entreprise comme base de simulation stochastique pour des variables aléatoires représentant des investissements chiffrés de projets (à peu près aussi souvent utilisée que la distribution triangulaire, la distribution Bêta ou log-Normale dans l'industrie moderne).

Rappelons alors qu'une variable aléatoire est dite par définition suivre une loi de Pareto si sa fonction de répartition est donnée par (cf. chapitre de Statistiques):

equation   (67.5)

avec equation et equation (donc equation) et pour l'espérance (moyenne):

equation  (67.6)

et la variance:

equation   (67.7)

Pour illustrer ce type de représentation, nous supposerons qu'une étude de réorganisation du réseau commercial de l'entreprise LAMBDA conduise le directeur commercial à s'intéresser à la répartition des 55'074 bons de commande (valeur en bas à droite du tableau) reçus pendant une année donnée selon la ville où sont domiciliés les clients (nous avons retenu ici les 200 premières villes du pays imaginaire d'où les 200 lignes réparties en 5 colonnes).

Pour calculer les paramètres de la loi de Pareto, le lecteur devra se reporter au chapitre de Génie Industriel, car nous n'allons ici avoir qu'une approche qualitative comme le font les gestionnaires, l'analyse quantitative étant réservée majoritairement aux ingénieurs.

Ces données sont reproduites dans le tableau ci-dessous:

ni

Ni

ni

Ni

ni

Ni

ni

Ni

ni

Ni

8965

8965

240

40027

125

46378

88

50916

55

53752

4555

13520

236

40263

124

46862

87

51003

54

53806

3069

16589

224

40487

123

46985

87

51090

54

53860

2336

18925

223

40710

123

47108

86

51176

54

53914

1871

20796

220

40930

121

47229

85

51261

54

53968

1595

22391

215

41145

121

47350

85

51346

50

54018

1327

23718

213

41357

118

47468

84

51430

50

54068

1184

24902

212

41570

118

47586

84

51514

48

54116

1085

25987

202

41772

118

47704

83

51597

48

54164

934

26921

202

41972

117

47821

81

51678

47

54211

843

27764

200

42172

115

47936

79

51757

44

54255

746

28510

189

42363

114

48050

78

51835

43

54298

722

29232

190

42553

112

48162

78

51913

42

54340

710

29943

188

42741

112

48274

77

51990

42

54382

647

30589

185

42926

108

48382

77

52067

41

54423

631

31221

179

43105

108

48490

77

52144

40

54463

607

31828

173

43278

107

48597

74

52218

40

54503

539

32367

170

43448

106

48703

72

52290

39

54542

502

32868

161

43609

105

48808

72

52362

38

54580

462

33330

160

43769

102

48910

72

52434

37

54617

459

33790

158

43927

102

49012

71

52505

37

54654

422

34212

153

44080

102

49114

71

52576

36

54690

372

34584

153

44233

101

49215

71

52647

36

54726

362

34945

149

44382

100

49315

69

52716

34

54760

355

35300

149

44531

100

49415

68

52784

33

54793

347

35647

148

44679

99

49514

67

52851

32

54825

342

35989

147

44826

98

49612

67

52918

31

54856

338

36327

147

44973

98

49710

65

52983

28

54884

329

36656

146

45119

97

49807

64

53047

25

54909

314

36970

146

45265

97

49904

63

53110

22

54931

313

37283

146

45411

96

50000

63

53173

20

54951

310

37593

142

45553

95

50095

63

53236

20

54971

310

37903

140

45693

95

50190

60

53296

20

54991

300

38203

137

45830

94

50284

60

53356

19

55010

284

38755

136

45966

92

50376

58

53414

15

55025

268

38755

135

46101

92

50468

57

53471

13

55038

267

39022

131

46232

91

50559

57

53539

11

55049

265

39287

128

46360

91

50650

57

53528

11

55060

251

39538

127

46487

90

50740

56

53641

8

55068

249

39787

126

46613

88

50828

56

53697

6

55074

Tableau: 67.1  - Dataset pour analyse de Pareto

où les 200 valeurs ni (nombre de bons de commande en provenance d'une ville i) ont été classées par valeurs décroissantes et cumulées dans une colonne Ni.

La première ville se caractérise par 8'965 bons de commande (ce qui correspond à 16.28% du total des bons), la seconde par 4'555, ce qui fait que les deux premières villes ont passé 13'520 bons de commande (ce qui correspond à 24.55% des bons), les trois premières villes, ont passé 16'589 bons de commande (ce qui correspond à 30.12%), etc. Une autre façon de décrire ce phénomène consiste à dire: 0.5% des villes (classées par valeur décroissante du critère) ont passé 16.28% des bons, 1% des villes ont passé 24.55% des bons, etc.

Ces calculs, sont partiellement présentés dans le tableau ci-dessous:

i%

Ni%

i%

Ni%

i%

Ni%

i%

Ni%

i%

Ni%

0.5

16.28

20.5

72.68

40.5

84.86

60.6

92.45

80.5

97.6

1

24.55

21

73.11

41

85.09

61

92.61

81

97.7

1.5

30.12

21.5

73.51

41.5

85.32

61.5

92.77

81.5

97.8

2

34.36

22

73.92

42

85.54

62

92.92

82

97.89

...

...

...

...

...

...

...

...

...

...

19

71.33

39

84.18

59

91.97

79

97.3

99

99.7

19.5

71.79

39.5

84.41

59.5

92.13

79.5

97.4

99.5

99. 99

20

72.24

40

84.64

60

92.29

80

97.5

100

100

Tableau: 67.2  - Données cumulées et normalisées pour analyse de Pareto

traduits graphiquement (selon les traditions d'usage) ci-dessous sous la forme d'un diagramme de Pareto:

equation
Figure: 67.2 - Diagramme de Pareto

ou de manière plus pertinente sous la forme d'un diagramme de Lorenz, appelé plus souvent en anglais sous le nom de "gain chart" (l'abscisse des numéros des villes est remplacée par le %cumulé de villes comme dans le tableau de données ci-dessus):

equation
Figure: 67.3 - Diagramme de Lorenz

Cette analyse met en évidence qu'un nombre faible d'éléments est à l'origine de la majeure partie du phénomène étudié (par exemple, ici 31% des villes génèrent 80% des bons de commande). Ceci explique qu'elle soit l'une des grandes techniques utilisées dans le domaine de la "gestion de la qualité totale" (Total Quality Management) ET dans l'analyse de l'importance des causes d'un problème de qualité. Elle est également utilisée par les gestionnaires pour structurer l'organisation, en particulier pour différencier les processus en fonction de caractéristique de la demande (suivi différencié de la clientèle selon son importance, par exemple) et lorsqu'elle est utilisée pour définir 3 classes, cette technique prend souvent le nom de "Méthode ABC" (cf. chapitre de Génie Industriel).

La ligne en pointillés de ce graphique correspond, elle a ce que nous aurions observé en cas d'équirépartition du phénomène étudié, c'est-à-dire si chaque ville s'était caractérisée par le même nombre de bons de commande.

De façon générale, plus une courbe de Pareto (ou de Lorenz) se rapproche de la droite d'égalité parfaite et plus la répartition de la masse considérée au sein de la population est égalitaire. En effet, dans ce cas, la masse (des salaires, de la richesse, du revenu, etc.) est peu concentrée sur quelques-uns.

Remarque: La présentation de cette analyse a été faite en classant les observations par valeurs décroissantes, mais nous aurions pu tout aussi bien partir d'un classement par valeurs croissantes et, dans ce dernier cas, la courbe obtenue aurait été symétrique, le centre de symétrie étant le point de coordonnées (0.5,0.5).

Dans un environnement industriel, les points d'amélioration potentiels sont quasi innombrables. On pourrait même améliorer indéfiniment, tout et n'importe quoi. Il ne faut cependant pas perdre de vue que l'amélioration coûte aussi et qu'en contrepartie elle devrait apporter de la valeur ajoutée, ou au moins apurer des pertes.

INDICE DE GINI

Le phénomène étudié est d'autant moins équitablement réparti que la courbe s'éloigne de la droite d'équirépartition. Les économistes, gestionnaires ou responsables de départements d'entreprise utilisent parfois (pour leur tableau de bord de performance) un indicateur synthétique pour mesurer ce phénomène et son évolution, "l'indice de Gini" (appelé aussi "coefficient de Gini").

Ce coefficient est défini par le rapport:

equation   (67.8)

où les surfaces A et B se rapportent à la figure ci-après:

equation
Figure: 67.4 - Les deux situations les plus courantes de l'indice de Gini

Le coefficient de Gini est donc un nombre réel compris entre zéro et 1. En cas d'égalité parfaite, il est égal à zéro (car A=0). En cas d'inégalité totale il est égal à 1, car B=0. Par conséquent, à mesure que G augmente de 0 à 1, l'inégalité de la répartition augmente.

Sachant que la courbe de Lorenz est equation on voit que la surface A+B est égale à la moitié de cette surface. Nous avons donc:

equation   (67.9)

Nous pouvons de ce fait écrire:

equation   (67.10)

De plus comme:

equation   (67.11)

Finalement, nous pouvons écrire que:

equation   (67.12)

En utilisant la méthode de calcul d'intégrale des trapèzes (cf. chapitre de Méthodes Numériques) nous avons l'aire B qui est donnée par:

equation   (67.13)

où pour rappel h est la longueur des intervalles supposés tous égaux (ce qui est toujours le cas dans le contexte des analyses de Lorenz) et si la configuration du tableau de données est telle que nous ayons le graphique suivant (ce qui est plutôt rare...):

equation
Figure: 67.5 - Choix pour le calcul de l'indice de Gini

Traditionnellement nous trouvons cette dernière relation sous la forme:

equation   (67.14)

n représente le nombre d'unités statistiques (la population).

Dans la situation où le graphique est sous la forme (cas qui est nettement le plus fréquent en entreprise et correspond par hasard à notre exemple!!):

equation
Figure: 67.6 - Deuxième cas pour le calcul de l'indice de Gini

La méthode des trapèzes nous amène alors à écrire:

equation   (67.15)

Traditionnellement nous trouvons cette dernière relation sous la forme:

equation   (67.16)

Dans le cas qui nous sert d'exemple depuis le début avec le tableau:

i%

Ni%

i%

Ni%

i%

Ni%

i%

Ni%

i%

Ni%

0.5

16.28

20.5

72.68

40.5

84.86

60.6

92.45

80.5

97.6

1

24.55

21

73.11

41

85.09

61

92.61

81

97.7

1.5

30.12

21.5

73.51

41.5

85.32

61.5

92.77

81.5

97.8

2

34.36

22

73.92

42

85.54

62

92.92

82

97.89

...

...

...

...

...

...

...

...

...

...

19

71.33

39

84.18

59

91.97

79

97.3

99

99.7

19.5

71.79

39.5

84.41

59.5

92.13

79.5

97.4

99.5

99. 99

20

72.24

40

84.64

60

92.29

80

97.5

100

100

Tableau: 67.3 - Données cumulées et normalisées pour analyse de Pareto

et en adoptant les notations en conséquence, cela donne:

equation   (67.17)

PERT PROBABILISTE

En restant toujours dans le cadre des statistiques et probabilités relativement aux techniques mathématiques de gestion, il existe une loi empirique en gestion de projet (domaine que nous supposerons connu par le lecteur car trivial) très utilisée dans le cadre des "PERT probabilistes" (Program Evaluation and Review Technic) et incluse dans nombres de logiciels spécialisés afin de faire des prédictions de coûts et de temps (cf. chapitre de Théorie Des Graphes). Nous parlons alors de "Probabilistic Network Evaluation Technic" (P.N.E.T.).

Cette loi, appelée "loi bêta" ou encore "loi de Pert" est souvent présentée sous la forme suivante dans les ouvrages et sans démonstration (...):

equation   (67.18)

et donne la durée probable (espérée) equation d'une tâche élémentaire (non décomposable en sous-tâches) où nous avons equation qui sont respectivement les durées optimiste, vraisemblable et pessimiste de la tâche equation. Nous allons démontrer plus bas la provenance de cette relation et en quoi elle est partiellement fausse!

Remarque: Cette approche classique date de 1962 et est due à C.E. Clark. Elle serait basée sur une analyse de bases de données de tâches de projets. Il faut par contre vérifier systématiquement quel type de loi suivent les tâches dans votre entreprise et ne pas appliquer bêtement et simplement la loi bêta.

Ses principes sont les suivants:

La durée de chaque tâche du projet est considérée comme aléatoire et la distribution Bêta est systématiquement utilisée; les paramètres de cette loi que nous allons démontrer sont déterminés moyennant une hypothèse de calcul assez forte, à partir des valeurs extrêmes a et b que la durée d'exécution peut prendre, et du mode equation.

Il suffit donc de poser les trois questions suivantes:

1. Quelle est la durée minimale physiquement possible?

2. Quelle est la durée maximale au pire?

pour obtenir respectivement les paramètres equation, qui permettent ensuite de calculer la moyenne (espérance) et la variance de cette durée aléatoire.

Ensuite, nous déterminons le chemin critique du projet (par la méthode des potentiels métra supposée connue par le lecteur), en se plaçant en univers certain et en utilisant les durées moyennes (espérées) obtenues avec la loi Bêta, ce qui permet de trouver le(s) chemin(s) critique(.

Ceci fait, nous nous plaçons alors en univers aléatoire et la durée du projet est considérée comme la somme des durées des tâches du chemin critique précédemment identifié. Nous utilisons alors le théorème de la limite centrale vu dans le chapitre de Statistiques (rappelons que ce théorème établit, sous des conditions généralement respectées, que la variable aléatoire constituée par une somme de n variables aléatoires indépendantes et identiquement distribuées suit approximativement une loi Normale, quelles que soient les lois d'origine, dès que n est assez grand) pour approximer la loi de distribution de probabilités de la durée d'exécution du projet.

L'espérance mathématique (ainsi que la variance) de cette loi Normale se calcule comme la somme des espérances mathématiques (ou des variances) de chaque durée des tâches du chemin critique (cf. chapitre de Statistiques) tel que:

equation   (67.19)

et dans le cas particulier où les variables sont linéairement indépendantes, la covariance étant nulle (cf. chapitre de Statistiques) nous avons aussi:

equation   (67.20)

Rappelons que nous avons vu dans les chapitres de Statistiques et Calcul Différentiel Et Intégral que:

equation   (67.21)

et

equation  (67.22)

En gestion nous remarquons que souvent, les durées des tâches suivent une loi que nous appelons "loi bêta de première espèce" (cf. chapitre de Statistiques) donnée par:

equation   (67.23)

Pour un intervalle [a,b] quelconque dans lequel x est compris, nous obtenons la forme plus générale:

equation   (67.24)

Vérifions que nous ayons bien:

equation   (67.25)

Par le changement de variable:

equation et equation   (67.26)

nous obtenons:

equation   (67.27)

Déterminons maintenant l'espérance:

equation   (67.28)

Toujours avec le même changement de variable, nous obtenons:

equation   (67.29)

Or:

equation   (67.30)

Donc:

equation  (67.31)

Calculons maintenant la variance en utilisant la formule d'Huyghens démontrée dans le chapitre de Statistiques:

equation   (67.32)

Calculons d'abord equation.

equation   (67.33)

Toujours par le même changement de variable, nous obtenons:

equation   (67.34)

Or:

equation   (67.35)

Donc:

equation  (67.36)

Pour finir:

equation   (67.37)

Calculons maintenant la valeur modale equation de cette loi de distribution (pour rappel du chapitre de Statistiques il s'agit par définition du maximum global de la fonction de distribution):

equation   (67.38)

Il suffit pour le calculer de résoudre l'équation:

equation   (67.39)

Après dérivation, nous obtenons:

equation   (67.40)

en divisant par equation nous avons:

equation   (67.41)

c'est-à-dire:

equation   (67.42)

Maintenant, le lecteur aura remarqué que la valeur a est la valeur la plus petite et la b la plus grande. Entre deux il y a donc le mode equation.

En gestion de projets, cela correspond respectivement aux durées optimiste equation, pessimiste equation d'une tâche.

Ensuite, nous imposons une hypothèse assez forte:

equation ou equation   (67.43)

Ce qui implique que nous ayons:

equation   (67.44)

ainsi que:

equation   (67.45)

Et finalement:

equation   (67.46)

Ce qui nous donne sous forme synthétique:

equation   (67.47)

Remarque: Les deux dernières expressions de la variance et de l'espérance sont celles que vous pouvez trouver dans n'importe quel livre de gestion de projets (sans démonstration bien sûr...) comme par exemple le fameux PMBOK. Malheureusement, il y a deux erreurs dans cet ouvrage de référence de gestion de projets à ma connaissance (la première erreur a été corrigée plus tard). Effectivement, la première erreur c'est que la valeur modale y est imposée par le chef de projet alors qu'en toute rigueur elle doit être calculée avec la première des trois relations ci-dessus à partir de la durée pessimiste et de la durée optimiste de la tâche!!! La deuxième erreur c'est que le PMBOK dit que la valeur modale est toujours plus petite que l'espérance. Ce qui est évidemment faux! Effectivement en posant a = 0 :

equation   (67.48)

et en simplifiant par b nosu voyons immédiatement que:

equation   (67.49)

Indiquons qu'exactement les mêmes développements effectués jusqu'ici sont valables avec la formulation suivante de la loi bêta à 4 paramètres (qui nous sera aussi très utile dans le chapitre de Génie Industriel pour des calculs de fiabilité):

equation   (67.50)

cette dernière formulation étant celle disponible dans les logiciels ou tableurs comme la version française de Microsoft Excel 11.8346 par exemple en utilisant la fonction LOI.BETA( ) et pour sa réciproque par LOI.BETA.INVERSE( ).

Nous obtenons alors pour l'espérance:

equation   (67.51)

et pour la variance:

equation   (67.52)

et le mode:

equation   (67.53)

Avec:

equation   (67.54)

Soit dans la version française de Microsoft Excel:

- BETADIST(quantile,equation,valeur optimiste, valeur pessimiste)

- BETAINV(probabilité,equation,valeur optimiste, valeur pessimiste)

Sinon pour le reste, les résultats (expressions) restent exactement les mêmes!

exempleExemple:

Tracé de la fonction de distribution et répartition pour la fonction de bêta de paramètres equation:

equationequation
Figure: 67.7 - Fonction de distribution et de répartition de la loi bêta

Nous définissons aussi le "risque d'action" par le rapport (dont l'interprétation est laissée aux responsables de projet et aux clients...):

equation   (67.55)

PROCESSUS SIX SIGMA (LEAN)

Comme nous l'avons vu dans le chapitre de Statistiques, la loi Normale est une fonction en forme de "cloche" donnée par:

equation   (67.56)

dont les écarts-types sont utilisés pour donner l'intervalle de probabilité cumulée de se situer dans ces bornes centrées sur la moyenne comme représenté ci-dessous:

equation
Figure: 67.8 - Rappel des intervalles sigma de la loi Normale

Ceci étant rappelé, nous avons également présenté dans le chapitre de Génie Industriel les probabilités conjointes dans le cadre de Six Sigma pour une chaîne de processus P connectés en série.

Au fait les processus mentionnés ne sont pas forcément des processus industriels mais peuvent être assimilés sous des hypothèses identiques à des processus quelconques (administratifs, procédures, workflows, etc.).

Nous avions vu que la probabilité conjointe (ou cumulée) est appelée dans Six Sigma "Rolled Troughput Yield" (R.T.Y.) ou "Rendement Global Combiné" (R.G.C.) et est donnée par (cf. chapitre de Probabilités):

equation   (67.57)

Par exemple, l'application de la relation précédente donne pour un processus série en 4 étapes dont la fiabilité est de 90% chaque (sur des structures plus complexes, rappelons que nous parlons parfois "d'arbres de probabilités pondérés"):

equation
Figure: 67.9 - Processus série

Nous nous retrouvons donc au final avec une fiabilité de 65.6% soit une probabilité cumulée de défaut pour l'ensemble du processus de 34.4 (vous pouvez imaginer aussi qu'il s'agit de 4 tâches en séquence d'un projet!).

Remarque: Le lecteur attentif aura remarqué que le système série est toujours moins fiable que sa composante la moins fiable!!

Redonnons le tableau au pire selon Six Sigma, soit le tableau en procédé non centré avec une déviation de la moyenne de equation (donc à droite mais on pourrait prendre à gauche et les résultats sont les mêmes) par rapport à la cible et d'écart-type unitaire avec USL et LSL symétriques (ce qui restreint toujours le champ d'application):

Cp

Cpk

Défauts (PPM)

Niveau de qualité Sigma

Critère

0.5

0

501350

1.5

Mauvais

0.6

0.1

382572

1.8

 

0.7

0.2

274412

2.1

 

0.8

0.3

184108

2.4

 

0.9

0.4

115083

2.7

 

1

0.5

66810

3

 

1.1

0.6

35931

3.3

 

1.2

0.7

17865

3.6

 

1.3

0.8

8198

3.9

Limite

1.4

0.9

3467

4.2

 

1.5

1

1350

4.5

 

1.6

1.1

483

4.8

 

1.7

1.2

159

5.1

 

1.8

1.3

48

5.4

 

1.9

1.4

13

5.7

 

2

1.5

3.4

6

Excellent

Tableau: 67.4  - Défauts et niveau de qualité Sigma en procédé décentré

où nous avons démontré dans le chapitre de Génie Industriel que les valeurs PPM étaient données par:

equation   (67.58)

Ce qui donne pour un niveau de qualité de 3 sigmas:

>evalf((1-1/sqrt(2*Pi)*int(exp(-(x-1.5)^2/2),x=-infinity..(1*3))))*1E6+evalf((1/sqrt(2*Pi)*int(exp(-(x-1.5)^2/2),x=-infinity..-(3*(1+1)))))*1E6;

soit une valeur de ~66'810 c'est-à-dire la valeur de la 6ème ligne. Ce qui correspond à ~6.68% en termes de probabilité cumulée de non-qualité (66'810 divisé par 1 million et mis en pourcents) et donc respectivement à une probabilité cumulée de ~93.32% de qualité.

Nous avons le tableau suivant qui peut résumer certaines valeurs importantes du tableau précédent en utilisant la commande Maple 4.00b donnée précédemment:

 

equation

equation

equation

equation

Qualité%

93.32

99.38

99.98

99.9996

equation

1

1.33

1.68

2

Jugement

Mauvais

Limite

Bon

Excellent
Tableau: 67.5  - Valeurs importantes de maîtrise du procédé

Sous l'hypothèse que chaque étape d'un processus série suit la même loi avec les mêmes moments et les mêmes déviations par rapport à la cible nous avons alors pour le RTY:

Étapes/Qualité%

equation

equation

equation

equation

1

93.32

99.38

99.98

99.9996

7

61.63

95.73

99.84

99.9976
10
50.08
93.96
99.77
99.9966
20
25.08
88.29
99.54
99.9932
40
6.29
77.94
99.07
99.9864
60
1.58
68.81
98.61
99.9796
80
0.40
60.75
98.16
99.9728
100
0.10
53.64
97.70
99.966
...
...
...
...
...
Tableau: 67.6  - Niveau de qualité d'un processus/procédé ayant un nombre fini d'étapes

où chaque ligne représente le Rolled Troughput Yield (RTY) donc calculé avec:

equation   (67.59)

i est le nombre d'étapes du processus (1, 7, 10, 20, 40) et où les probabilités sont données par la première ligne (1). Ainsi, avec un niveau de qualité de equation et une déviation à la cible de equation nous avons pour un processus de 20 étapes identiquement distribuées:

equation   (67.60)

ce qui est lamentable! Un procédé industriel en 20 étapes d'un produit complet devrait avoir au minimum un niveau de qualité de 4 sigmas pour être acceptable en termes de rendement et de qualité

Ainsi, l'objectif du Lean Six Sigma dans une entreprise sera d'augmenter le niveau de qualité avec un RTY maximum pour un nombre donné d'étapes d'un processus.

Remarque: Pour le cas parallèle ou le mélange série/parallèle, le lecteur est invité à se rendre dans le chapitre de Génie Industriel.

MODÈLE STATISTIQUE DE CONTRÔLE DES SALAIRES

Basé sur les us et coutumes en statistiques, le contrôle statistique des salaires (C.S.S.) peut se  justifier puisque l'outil et le principe de base est appliqué dans tous les domaines de l'économie (finance, médecine, ingénierie, qualité, biologie, projets, logistique, commerce, etc.)

L'idée empirique, fort simple, est d'analyser la distribution statistique des salaires dans une population (nation, entreprise, département, niveau hiérarchique ou autre...) et de considérer tout ce qui est au-delà de 99.9996% de probabilité cumulée comme une anomalie. Au contraire, ce qui est à l'intérieur de l'intervalle sera justifié conformément aux standards d'usage et ne nécessitera dont ni débat, ni explications hasardeuses.

Déjà, une première règle empirique évidente, est que la variable aléatoire des salaires doit être catégorisée si sa distribution statistique est multimodale. Ce qui est fréquent dans certaines entreprises ou institutions. Il convient ensuite de choisir adéquatement les catégories qui seront fréquemment des niveaux hiérarchiques normalisés au sein de l'institution (ressources, responsables d'équipes, responsables de projets, directeurs de projets, direction...).

Une fois ceci fait, il doit rester une distribution statistique unimodale dont la variable aléatoire est strictement positive (les salaires négatifs étant rares...).

Par exemple, pour l'ensemble des salaires bruts annuels fixes en fin de carrière dans le canton de Genève (Suisse) en 2004 (source: Office Cantonal Genevois du personnel), nous avons la variable aléatoire qui suit une loi log-logistique de paramètres:

equation   (67.61)

Nous avons ainsi:

Probabilité cumulée (ou centile)

Valeur

99%

300'000

99.9%

535'000

99.99%

930'000

99.999%

1'600'000

99.9996%

2'030'000

99.9999%

2'850'000

99.99999%

5'000'000

99.999999%

8'800'000

99.9999998%

13'040'000

Tableau: 67.7 - Centile de la répartition des salaires avec valeur correspondante

Ainsi, si nous nous basons sur les us et coutumes en statistiques de la gestion de portefeuilles et du risque dans les bons instituts financiers, un salaire annuel de plus de 300'000.- CHF à Genève, tous secteurs et hiérarchies confondus, est une anomalie...

Si nous nous basons sur les us et coutumes en statistiques de la gestion du risque et de la qualité dans l'industrie des procédés de fabrication massive, un salaire annuel de plus de 2'030'000.- CHF à Genève, tous secteurs et hiérarchies confondus, est une anomalie...

Si nous nous basons sur les us et coutumes des statistiques les plus pointues en termes de qualité et du contrôle du risque, un salaire annuel de plus de ~13'040'000.- CHF à Genève, tous secteurs et hiérarchies confondus, est une anomalie...

Ainsi, il serait contradictoire que les personnes dirigeantes qui imposent des critères statistiques à leurs collaborateurs en ce qui concerne les services et la production ne les respectent pas eux-mêmes en ce qui concerne leur salaire ou n'impose pas des règles identiques au département des ressources humaines (dont le concept de qualité statistique est souvent inconnu...).

Remarque: Le même raisonnement statistique peut s'appliquer pour la part variable du salaire.

GESTION DES STOCKS

L'enjeu de la gestion des stocks et approvisionnement est important: mettre en place des processus qui optimisent la fonction économique, sous contrainte d'une disponibilité en théorie sans faille. Tels sont les objectifs du gestionnaire de stocks. Cela suppose de disposer d'une visibilité sur ses stocks et des méthodologies appropriées aux différentes situations.

Une production sans stock est quasi inconcevable vu les nombreuses fonctions que remplissent les stocks. En effet, la constitution de stocks est nécessaire s'il y a:

- Non-coïncidence dans le temps ou l'espace de la production et de la consommation: le stock est indispensable dans ce cas, car il est impossible de produire là et quand la demande se manifeste. Les exemples classiques sont la fabrication de jouets ou la confiserie pour la non-coïncidence dans le temps, et les supermarchés pour la non-coïncidence dans l'espace.

- Incertitude sur le niveau de demande ou sur le prix: s'il y a incertitude sur la quantité demandée, on va constituer un stock de sécurité qui permet de faire face à une pointe de demande (en prenant soin d'éviter l'effet "coup de fouet"). S'il y a incertitude sur le prix, on va constituer un stock de spéculation. Par exemple, les compagnies pétrolières achètent plus que nécessaire en pétrole brut lorsque le prix de celui-ci est relativement bas sur le marché.

- Risque de problèmes en chaîne: il s'agit ici d'éviter qu'une panne à un poste ne se répercute sur toute la chaîne d'approvisionnement. Un retard d'exécution au poste précédent ou une grève des transports n'arrêtera pas immédiatement l'ensemble du processus de production s'il y a des stocks tampons.

- Présence de coûts de lancement: dans ce cas, travailler par lots permet une économie d'échelle sur les coûts de lancement de production mais, en revanche, provoque une augmentation des coûts de possession du stock.

Le contrôle du stock et de l'approvisionnement d'une entreprise est donc aussi fondamental dans la vie de celle-ci. Afin de réduire (ou optimiser c'est selon...) un maximum les coûts divers qui tournent autour du stockage, il faut faire encore une fois appel à des connaissances en statistiques mathématiques comme nous allons le voir de suite.

Remarque: L'application de ce type d'outils ne s'adressent pas vraiment aux P.M.E. de moins de 50 employés produisant de petites pièces de manière irrégulière mais plutôt à des multinationales produisant en énorme quantité ou en faible quantité des objets de consommation de taille non négligeable et de manière régulière. Par ailleurs comme auteur de ces pages, je me suis renseigné dans de nombreuses entreprises (dont des multinationales!) et je n'ai trouvé encore aucun logisticien utilisant dans la pratique les modèles mathématiques qui vont être présentés ci-après.

Dans un premier temps, nous allons établir comment déterminer le stock initial nécessaire à une entreprise en se basant sur des données statistiques et ce à partir de modèles simples ensuite de quoi nous ferons de même avec les modèles de réapprovisionnement dont la démarche d'approche est un peu différente et permet comme pour la première d'arriver à des résultats très satisfaisants à grande échelle.

Les modèles que nous allons construire permettront ainsi:

1. De réguler les aléas des flux de fournitures

2. De permettre la production par lots (réduit les coûts de production)

3. De faire face à des demandes saisonnières

Des stocks supplémentaires pouvant engranger des "coûts d'intérêt" (capital immobilisé), des "coûts d'obsolescence" (les produits deviennent entre temps obsolètes), des "coûts de stockage", des "coûts d'assurances" (protection contre les accidents pouvant subvenir sur les produits) et de nombreux autres...

Nous distinguons dans le domaine classiquement trois types de stocks:

1. Le "stock minimum", appelé encore "stock tampon" ou "stock d'alarme" ou "point de commande" ou "seuil de réapprovisionnement" est la quantité de stock à partir de laquelle on lance une nouvelle commande pour augmenter les réserves.

2. Le "stock de sécurité" qui permet de répondre aux aléas les plus fréquents liés à la consommation et à la livraison.

3. Le "stock d'alerte", appelé encore "stock critique" qui est le niveau de stock pour lequel on déclenche une commande au risque de connaître une rupture. Par construction le stock d'alerte est donc la somme du stock de sécurité et du stock minimum.

On considère souvent trois stratégies de gestion de stocks:

1. La "gestion de stock par point de commande": l'approvisionnement du stock est déclenché lorsque l'on observe que le stock descend en-dessous du point de commande.

2. La "gestion calendaire": l'approvisionnement du stock est déclenché à intervalles réguliers T, par exemple, chaque jour ou chaque semaine.

3. La "gestion calendaire conditionnelle": l'approvisionnement du stock est déclenché à intervalles réguliers T, mais uniquement lorsque l'on observe que le stock descend en-dessous du point de commande.

Un stock est constitué pour satisfaire une demande future. En cas de demande aléatoire, il peut y avoir non coïncidence entre la demande et le stock. Deux cas sont évidemment possibles:

1. Une demande supérieure au stock: nous parlons alors de "rupture de stock"

2. Une demande inférieure au stock: nous parlons alors de "stock résiduel"

Le critère de gestion généralement retenu en gestion des stocks est celui de la minimisation des coûts. Nous noterons cette fonction par la lettre C, suivie, entre parenthèses (ou en indice), de la ou des variables de commande du système.

STOCK EN AVENIR INCERTAIN

Commençons notre étude par le cas le plus simple qui suppose que la consommation est statistiquement régulière dans le temps et sous contrôle statistique. Il s'ensuit (cf. chapitres de Statistiques et de Génie Industriel) que la consommation périodique suit alors une loi Normale.

Prenons un exemple concret puisque la théorie a déjà été étudiée en long et en large dans le chapitre de Statistiques.

Considérons un article dont la demande quotidienne suit donc approximativement une loi Normale de paramètres:

equation   (67.62)

Le stock disponible au moment de la commande est de 500 unités et le délai de réapprovisionnement de 5 jours. Nous souhaiterions savoir quelle est la probabilité cumulée d'être au-dessus ou égal à la rupture de stock ainsi que la probabilité cumulée d'être au-dessus de la consommation quotidienne supposée?

Nous avons pour le premier point la consommation moyenne sur 5 jours qui est en utilisant la propriété de stabilité de la loi Normale:

equation   (67.63)

Nous avons alors:

equation   (67.64)

soit en utilisant la version française de Microsoft Excel 11.8346:

=1-LOI.NORMALE(500;450;44.72;1)=13.17%

Et pour la consommation quotidienne, il vient simplement:

=LOI.NORMALE(90;500/5;20;1)=30.85%

Évidemment, dans la pratique la réalité est beaucoup moins simple et de plus, la loi Normale peut avoir une faible probabilité de ventes négatives, ce qui est peu réaliste... Mais c'est déjà un premier modèle qui peut être confronté à la réalité pour voir sa puissance prédictive.

STOCK INITIAL OPTIMAL EN GESTION CALENDAIRE ET à ROTATION NULLE

Imaginons de suite un scénario afin de développer un autre modèle statistique mais un tout petit peu plus élaboré que le précédent (inspiré de l'ouvrage Gestion de la Production de Vincent Giard). Nous nous limiterons cependant ici à une loi statistique discrète et nous referons ensuite un exemple similaire avec une loi continue.

Considérons pour cela que l'entreprise MAC est la spécialiste d'un certain produit dont le coût direct de fabrication par unité est de 25.- et le prix de vente 60.- par unité (prix supposés constants et donc indépendants de la quantité et sans escompte).

La vente quotidienne de ce produit est, en semaine, de 2.5 en moyenne et le relevé des demandes pendant trois mois laisse supposer que celle-ci suit une loi discrète de type de Poisson (cette fois-ci le support est au moins positif contrairement à l'exemple d'avant...), c'est-à-dire que nous avons une distribution de probabilités du nombre X de ces produits au cours d'une journée. Nous tronquerons à equation la réalisation de cette variable aléatoire car la probabilité de ventes supérieures à 10 sera supposée comme nulle.

x

P(X)

Probabilité cumulée

0

0.0821

0.0821

1

0.2052

0.2873

2

0.2565

0.5438

3

0.2138

0.7576

4

0.1336

0.8912

5

0.0668

0.958

6

0.0278

0.9858

7

0.0099

0.9957

8

0.0031

0.9988

9

0.0009

0.9997

10

0.0003

1
Tableau: 67.8 - Probabilités cumulées des ventes

Nous avons alors le tableau ci-dessus qui nous montre que la quantité la plus souvent vendue à un agent économique est à peu près de 2 (valeur modale) et le calcul de l'espérance nous donne pour ce tableau:

equation

résultat qui peut aussi bien être interprété comme la moyenne des ventes quotidiennes que comme la moyenne du niveau de rupture des stocks.

Nous supposerons que le stock est à flux tendu. En d'autres termes, d'un jour à l'autre, aucune unité n'est reportée pour les ventes du lendemain car il n'est plus censé y en avoir (ce que nous appelons la "gestion des stocks par rotation nulle"). La question dès lors est de savoir, le tableau ci-dessus étant donné, combien de produits mettre en fabrication (ou commander) chaque jour pour maximiser le bénéfice et minimiser les pertes.

Dès lors, dans l'optique retenue de minimisation du coût de possession equation (appelé souvent "coût unitaire" de possession) associé aux invendus est de 25.- par unité, tandis que le coût de rupture equation (appelé souvent "coût unitaire de rupture") est égal au manque à gagner consécutif à la vente ratée, c'est-à-dire le prix de vente 60.- soustrait des 25.- soit, un coût de rupture de 35.- par unité.

Remarque: Le coût de rupture n'est pas assimilé qu'à la perte engendrée par une vente ratée dans la pratique mais aussi au coût d'une solution de remplacement temporaire proposée par le vendeur à son client en attente de fournir le bon produit. En interne dans les entreprises, le coût de rupture entraîne souvent un chômage technique des postes en aval lorsqu'une pièce de la chaîne de fabrication n'est plus disponible.

Une gestion rationnelle doit permettre de calculer le stock initial S (autrement dit le nombre de produits à commander ou à fabriquer pour la journée) qui minimise l'indicateur de "coût de gestion" C(S) défini comme étant la somme du coût de possession associé au stock moyen des invendus equation (appelé souvent "stock moyen possédé"), et du coût de rupture associé au stock moyen de ventes ratées equation (appelé souvent "stock moyen des invendus"):

equation   (67.65)

Cette relation est cependant un simplification de la relation:

equation   (67.66)

où le dernier terme est le coût de commande.

Minimiser la fonction de coût C(S) revient du point de vue mathématique à chercher un extremum (minimun) de la fonction de coût de gestion tel que pour la valeur optimale equation de l'approvisionnement initial le coût equation soit immédiatement inférieur à equation c'est-à-dire inférieur par la droite et par la gauche. En d'autres termes:

equation   (67.67)

ou après réarrangement:

equation   (67.68)

inégalités que le schéma ci-dessous peut aider à mieux comprendre:

equation
Figure: 67.10 - Exemple arbitraire d'extremum de la fonction C(S)

À partir de maintenant la question est de savoir comment procéder pour déterminer equation. Au fait l'idée est subtile mais simple tant qu'elle est bien exposée et réfléchie.

Reprenons la distribution de probabilités de la loi de demande quotidienne et supposons que nous voulions calculer les ruptures moyennes (donc l'espérance) pour un niveau donné du stock initial S:

equation   (67.69)

et:

equation   (67.70)

associées aux stocks initiaux respectifs par rapport à la distribution donnée (bien évidemment x doit être pris comme étant supérieur à S). Soit en toute généralité:

equation   (67.71)

Évidemment, si la loi de probabilité est continue (ou du moins approximée comme telle), cette dernière relation s'écrira:

equation   (67.72)

L'idée est alors d'écrire la distribution de densité de probabilité par rapport à la quantité manquante de stock et non plus vendue:

x

P(X)

x- 4

(x- 4)P(X)

x- 5

(x- 5)P(X)

0

0.0821

-

-

-

-

1

0.2052

-

-

-

-

2

0.2565

-

-

-

-

3

0.2138

-

-

-

-

4

0.1336

-

-

-

-

5

0.0668

1

0.0668

-

-

6

0.0278

2

0.0556

1

0.0278

7

0.0099

3

0.0297

2

0.0198

8

0.0031

4

0.0124

3

0.0093

9

0.0009

5

0.0045

4

0.0036

10

0.0003

6

0.0018

5

0.0015

equation

1

-

equation

-

equation

Tableau: 67.9  - Distribution de densité de probabilité par rapport à la quantité manquante

Il ressort du tableau précédent que le fait de faire passer le stock initial S de 4 à 5, diminue la rupture moyenne en la faisant passer de 0.1708 à 0.062. Mais de ce résultat, nous ne pouvons rien faire pour l'instant car à notre niveau actuel du développement, cela signifierait qu'en prenant un stock initial de 10, nous aurions une rupture moyenne nulle (... ce qui n'avance pas à grande chose...) et que si nous prenons aucun stock initial, nous aurions une rupture de stock totale...

Mais cependant nous pouvons tirer un résultat intermédiaire intéressant. Effectivement regardons la manière dont varie la différence de la rupture moyenne (résultat facilement généralisable - nous pouvons faire la démonstration sur demande au besoin):

equation   (67.73)

Le résultat étant identique si la loi de probabilité est continue!

Autrement dit (soyez bien attentif!!!), la diminution de rupture moyenne occasionnée en augmentant d'une unité un stock préalablement dimensionné à equation, est égale à la probabilité cumulée que la demande soit strictement supérieure à celle du stock initial equation.

En d'autres termes, au cas où cela ne serait pas clair, le fait d'augmenter le stock initial diminue certes la rupture moyenne, mais impose en contrepartie qu'il y ait moins d'acheteurs qui risquent de satisfaire l'offre et les seuls qui le peuvent sont ceux qui correspondent à la probabilité cumulée equation.

Finalement, nous pouvons écrire:

equation   (67.74)

Le tableau ci-dessous représente la diminution de rupture moyenne que nous obtenons en accroissant d'une unité le stock (et respectivement la probabilité de clients capables de consommer le stock...):

x

P(X)

Ir (x)-Ir (x + 1)

0

0.0821

0.9179

1

0.2052

0.7127

2

0.2565

0.4562

3

0.2138

0.2424

4

0.1336

0.1088

5

0.0668

0.0420

6

0.0278

0.0142

7

0.0099

0.0043

8

0.0031

0.0012

9

0.0009

0.0003

10

0.0003

0

Tableau: 67.10  - Rupture moyenne en accroissant d'une unité le stock

Maintenant regardons les invendus equation en tant que fonction aléatoire du stock initial S. Leur espérance est bien évidemment donnée par (servez-vous des tableaux au besoin pour comprendre):

equation   (67.75)

Évidemment, si la loi de probabilité est continue (ou du moins approximée comme telle), cette dernière relation s'écrira:

equation   (67.76)

Ce que nous pouvons écrire:

equation   (67.77)

d'où:

equation   (67.78)

qui est donc le stock résiduel de fin de période. C'est donc un résultat remarquable qui va nous permettre de déterminer equation seulement à partir de equation. Nous pouvons aussi à nouveau considérer comme intuitif que le résultat est identique si la loi de probabilité est continue.

Cette dernière relation peut également s'écrire après réarrangement:

equation   (67.79)

où le terme de gauche représente la demande moyenne satisfaite et le terme de droite l'offre moyenne utilisée. Cette relation est donc une relation particulière d'équilibre entre une offre et une demande.

Nous pouvons par ailleurs vérifier cela à partir des tables ci-dessous en mettant un exemple particulier en évidence:

equation

x

4 - x

(4 - x)P(X)

0

4

0.3284

1

3

0.6156

2

2

0.5130

3

1

0.2138

4

0

-

5

-

-

6

-

-

7

-

-

8

-

-

9

-

-

10

-

-

    equation
Tableau: 67.11  - Espérance des invendus

Finalement nous pouvons écrire une expression de equation, fonction de la seule rupture moyenne:

equation   (67.80)

ou ce qui s'écrit après réarrangement:

equation   (67.81)

Il s'ensuit que:

equation   (67.82)

Ce qui donne avec les résultats obtenus plus haut:

equation   (67.83)

Dans ces conditions, les relations:

equation   (67.84)

Deviennent:

equation   (67.85)

d'où:

equation   (67.86)

d'où equation est optimal si:

equation   (67.87)

Dans notre exemple numérique, nous avons:

equation   (67.88)

avec:

equation  (67.89)

d'où le stock optimal initial journalier appelé aussi "stock minimum" à mettre en production (ou à commander) pour minimiser le coût de gestion:

equation   (67.90)

ce qui n'est ni 2 ni 2.5!!! Mais c'est un chiffre qui est bien évidemment très proche de la valeur modale de la distribution initiale.

Il faut noter que cependant dans la pratique, les employés qui font du controlling logistique dans les multinationales n'ont aucune idée des prix, marges et coûts qui ont lieu chez leurs clients alors que ceux-ci leur demande conseil (ils les paient même pour cela!). Alors souvent on prend simplement la valeur modale ou la valeur correspondant à une couverture de 95% de de la demande périodique (cela devient assez arbitraire). Dans le cas de notre petite exercice, la valeur modale du stock initiale arrondi à l'entier supérieur le plus proche serait 2 et la valeur à 95% de 5. Par prudence il y a cependant une tendance à prendre plutôt la valeur modale.

MODÈLES DE WILSON

Il existe plusieurs modèles d'optimisation de gestion de stocks (Statistique, Wilson, ABC, 20/80...). Parmi ceux-ci, nous avons souhaité nous arrêter sur les "modèles de Wilson" avec ses trois variantes qui sont les plus connues (mais pas forcément les plus réalistes...).

Nous considérons donc trois situations:

- L'entreprise se réapprovisionne par lots à l'extérieur et il n'y a alors pas d'inertie des stocks et elle relance une commande lorsque le stock de sécurité est atteint. Nous parlons alors de "modèle de Wilson avec réapprovisionnement".

- L'entreprise se réapprovisionne par une production interne qui implique alors une certaine inertie pour revenir au niveau de stock désiré. Nous parlons alors de "modèle de Wilson sans réapprovisionnement" (dont la totalité des résultats se déduit très vite du premier modèle sans refaire tous les développements).

- L'entreprise se réapprovisionne par lots à l'extérieur et il n'y a alors pas d'inertie des stocks et elle relance une commande lorsque le stock de sécurité est atteint mais avec une inertie et demande à ses clients d'attendre. Nous parlons alors de "modèle de Wilson avec attente".

Remarque: Ce modèle appelé également "modèle du lot économique" permet de déterminer la fréquence et la quantité optimale de réapprovisionnement pour un magasin, une usine... Elle est couramment employée par les services logistiques de grandes structures. Elle a en fait été introduite dès 1913...

Le but est de déterminer la stratégie qu'il faut adopter pour que le total périodique (annuel, mensuel, hebdomadaire, journalier, ...) des commandes ou fabrications de pièces minimise le total des coûts d'acquisition et de possession de stocks pour l'entreprise. Nous parlons aussi quelquefois de "gestion à flux tendu".

L'existence de stocks au sein de l'entreprise amène le gestionnaire à se poser la question du niveau optimal de ces derniers, en évitant deux écueils principaux:

1. Le "surstockage", source de coûts pour l'entreprise (coût du stockage physique, manutention, locaux et surfaces utilisées, coûts annexes, assurances de gardiennage, coût des capitaux immobilisés).

2. Le "sous-stockage" qui risque d'aboutir à des ruptures de stocks préjudiciables à l'activité de production ou à l'activité commerciale de l'entreprise (arrêt de la production, perte de ventes, perte de clientèle, etc.).

Ainsi, les différents modèles de gestion des stocks ont pour objectif de minimiser le coût de gestion dans ce système de contraintes en déterminant la fréquence de réapprovisionnement et la quantité associée.

Voyons d'abord une approche purement qualitative. Pour chaque référence, les quantités en stock évoluent dans le temps par exemple sous une forme:

equation
Figure: 67.11 - Première stratégie de réapprovisionnement

En simplifiant nous obtenons un graphique dit "en dents de scie":

equation
Figure: 67.12 - Diagramme simplifié correspondant en dents de scie

où nous sommes donc dans une situation typique de "gestion de stocks à rotation non nulle" (c'est-à-dire lorsque l'invendu peut être vendu à une période ultérieure.)

Pour éviter la rupture de stock, il faut bien évidemment faire en sorte que l'entrée d'une commande se fasse, au plus tard, lorsque la quantité en stock devient nulle:

equation
Figure: 67.13 - Principe visuel de la stratégie

Si nous considérons une consommation constante d'une quantité N par unité de temps (jour, mois, année,...) et que nous connaissons à l'avance le délai d'approvisionnement (en jour, mois, année...) alors si le tout est mis en des unités équivalentes (journalières par exemple) nous avons le niveau critique qui est donné par:

equation   (67.91)

qui est aussi assimilé à la terminologie justifiée de "point de commande" puisqu'il s'agit de la quantité que nous avons en stock à partir de laquelle il faut lancer une nouvelle commande d'approvisionnement:

equation
Figure: 67.14 - Représentation du point de commande (diagramme en dents de scie)

Ainsi, si la consommation est de 10 unités par jour et que le délai d'approvisionnement est de 15 jours, le niveau critique est alors de 150 unités.

Pour éviter les aléas (grève, transports, variation de consommation, remplacements,...) nous envisageons un stock de sécurité equation:

equation
Figure: 67.15 - Représentation du stock de sécurité sur le diagramme en dents de scie

Nous avons alors pour le niveau critique:

equation   (67.92)

Voyons maintenant l'influence du nombre de livraisons sur le coût de stockage (puisque plus le taux de détention est gros, plus les coûts de stockage sont élevés). Supposons pour cela que le marché consomme 100 unités par mois et ce de manière régulière. Dans le cas d'un seul approvisionnement annuel, la consommation est représentée par le graphique ci-dessous (aucun stock de sécurité afin de simplifier l'exemple):

equation
Figure: 67.16 - Représentation de l'effet d'un seul approvisionnement

où nous voyons immédiatement que le stock moyen est de 600. Ce stock moyen est obtenu par simple moyenne arithmétique ou simplement en utilisant la définition de la moyenne intégrale de la fonction de consommation:

equation   (67.93)

Soit trivialement la moitié du stock maximum (ou autrement vu: la surface du triangle rectangledivisé par T...).

Et si nous divisons la gestion en deux approvisionnements, nous avons alors:

equation
Figure: 67.17 - Représentation de l'effet de deux approvisionnements

soit un stock moyen deux fois inférieur et dès lors un coût de stockage moyen deux fois moindre. Mais bien évidemment il faut y associer le coût d'approvisionnement. C'est à ce niveau de complexité qu'intervient justement la formalisation mathématique de Wilson.

Chaque commande d'achat ou ordre de fabrication coûte donc à l'entreprise. Le "coût de lancement" ou "coût de passation" des commandes ou lancements de fabrications représente tous les frais liés (administratifs, réglages machines, préparation, communications,...) au fait de passer une commande (ou une fabrication) et est supposé être proportionnel à la quantité. Ces coûts sont déterminés à l'aide de la comptabilité analytique.

Ainsi, le coût d'une commande est obtenu en divisant le coût total de fonctionnement du service achat par une grandeur significative et pertinente. Par exemple, le nombre de commandes passées (ou ordres de fabrications) annuellement par exemple. Le coût d'un lancement en fabrication lui sera obtenu en divisant le coût total de fonctionnement du service ordonnancement, auquel, il faut, ajouter les coûts de réglage des machines et des préséries, par le nombre de lancements de fabrication.

Ces valeurs dépendent essentiellement de l'entreprise, de ses choix en matière de comptabilité analytique. Il est difficile de définir une fourchette de valeurs standards. Bon nombre d'entreprises ne savent pas à combien leur revient une commande ou un lancement de fabrication (et bon nombre ne savent tout simplement pas faire une analyse...).

Le coût de possession du stock est constitué des charges liées au stockage physique mais également de la non-rémunération des capitaux immobilisés dans le stock (voire du coût des capitaux empruntés pour financer le stock). Pour cette dernière raison, ce coût est considéré comme étant proportionnel à la valeur du stock moyen et à la durée de détention de ce stock.

Le taux de possession annuel t% est le coût de possession ramené à une unité monétaire de matériel stocké. Il est obtenu en divisant le coût total des frais annuels de possession par le stock moyen annuel.

Ces frais couvrent l'intérêt du capital immobilisé, les coûts de magasinage (loyer et entretien des locaux, assurances, frais de personnel et de manutention, gardiennage, etc.), les détériorations du matériel, les risques d'obsolescence.

Ce taux oscille habituellement entre 15 et 35% de la valeur marchande stockée dans les entreprises, suivant le type des articles et la qualité de leur gestion des stocks.

Wilson a établi une relation basée sur un modèle mathématique simplificateur dans lequel nous considérons que la demande est stable sans tenir compte des évolutions de prix, des risques de rupture et des variations dans le temps des coûts de commande et de lancement (nous sommes alors en "avenir certain").

MODÈLE DE WILSON AVEC RÉAPPROVISIONNEMENT

Les hypothèses très simplificatrices de ce modèle sont les suivantes:

H1. La demande périodique est connue et certaine (déterministe)

H2. Les quantités commandées sont constantes à chaque période

H3. La pénurie (ruptures de stock) a lieu en fin de période (donc il n'y a jamais de défaut de stock)

H4. Le délai de production est constant et l'approvisionnement supposé instantané

H5. Les coûts (stocks, articles, passation,...) sont invariables dans le temps

H7. Le coût de possession est proportionnel à la valeur

H8. L'horizon de planification est infini

et selon les auteurs cette liste d'hypothèses varie plus ou moins (certaines hypothèses étant implicites ou relativement triviales).

Remarques:

R1. Nous supposerons que la gestion du stock s'effectue sur une période temporelle donnée.

R2. D'après ces hypothèses, nous concluons qu'il y aura le même niveau de commande à lancer chaque fois, que le coût total de pénurie est nul.

Nous noterons:

- N la quantité correspondant à une demande ou respectivement à des pièces consommées par période.

- Q la quantité d'approvisionnements ou de pièces lancées en fabrication en une seule fois pendant ce même temps (taille des lots).

- equation le prix unitaire d'achat de la pièce (supposé constant).

- equation le stock de sécurité envisagé pour cette pièce (supposé constant) pour répondre aux aléas par période.

- t le taux de coût de possession en % (supposé constant) et parfois appelé "taux de détention".

- equation le coût d'approvisionnement/acquisition par commande ou de lancement de fabrication.

Nous définissons de par la même occasion, le "coût unitaire de stockage" calculé souvent (mais pas uniquement!) sur la base du prix unitaire d'achat d'une pièce:

equation   (67.94)

Propositions:

P1. Le rapport:

equation   (67.95)

donne "l'inertie des stocks" ou qui peut être vu de manière plus explicite comme étant le "nombre périodique de lancements" (ou la cadence de réapprovisionnement) pour satisfaire la demande. L'inertie des stocks a donc la dimension d'un inverse du temps.

P2. Le "coût d'inertie" ou respectivement le "coût d'acquisition", ou encore "coût de lancement" est donc par unité de période de:

equation   (67.96)

Ce dernier est donc supposé proportionnel à la consommation! Ce qui est important ceci dit est de remarquer que le coût de lancement est inversement proportionnel à la quantité Q et donc qu'il tend vers zéro lorsque Q tend vers l'infini. Ceci dit, normalement on aura dans la majorité des cas théoriques:

equation   (67.97)

P3. Le stock moyen dans l'entreprise dans l'hypothèse d'une consommation (décroissance linéaire du stock) et d'un niveau de sécurité constants dans le temps est trivialement par période:

equation   (67.98)

Le "coût périodique de possession", appelé encore "coût de possession" ou "coût de gestion" ou "coût de stockage" ou "coût de détention"..., est alors:

equation   (67.99)

Il s'agit donc de la fonction d'une droite (dont l'ordonnée à l'origine est non-nulle si le stock de sécurité est non nul) si nous considérons que uniquement Q y est variable. Il est important de remarquer que ce coût ne prend pas en compte les concepts de remise de volume faite par les commerciaux...

Ces propositions nous amènent donc à l'équation du "coût total d'approvisionnement", appelé aussi "coût total de stockage" que nous allons chercher à minimiser:

equation   (67.100)

et qui donne une "courbe (hyperbolique) des coûts cumulés" du type:

equation
Figure: 67.18 - Courbe des coûts cumulés

Trouver la quantité économique equation, c'est trouver la valeur de Q pour laquelle le coût total est minimal (en d'autremes termes c'est chercher la taille du lot qui permette de rentabiliser au mieux tous les coûts de stockage, fabrication,, etc.), c'est-à-dire mathématiquement la valeur equation pour laquelle la dérivée du coût total par rapport à la quantité est nulle:

equation   (67.101)

D'où la "relation de Wilson" (après un calcul élémentaire), appelée aussi simplement "formule de Wilson", pour le "lot/quantité économique optimal":

type=text/javascript   (67.102)

qui est donc pour rappel, le taille du lot qui minimise le coût total (indépendante du stock de sécurité qui s'annule lors de la dérivée). Nous constatons que la quantité économique est proportionnelle à la racine carée de la consommation. Donc grossièrement une article vendu 100 fois plus par une société nécessitera qu'un stock moyen 10 fois supérieur.

Bien évidemment une fois connue la quantité économique, il devient facile de calculer le "coût de gestion optimal par période" equation en injectant equation dans la relation obtenue plus haut:

equation   (67.103)

ainsi que la "cadence ou fréquence optimale de réapprovisionnement" puisque donnée par le rapport:

equation   (67.104)

Nous avons alors après un peu d'arithmétique élémentaire le coût de gestion optimal par période qui est donné par:

equation   (67.105)

Comme souvent, les gestionnaires aiment bien faire de l'analyse de la sensibilité (nous en avons déjà fait mention lors de notre étude du seuil de rentabilité). Dans le domaine de la gestion de stock il est de tradition de faire l'analyse de la sensibilité de la variation relative du coût total de stockage par rapport au coût de gestion optimale par période:

equation   (67.106)

Mais comme le equation (coût du stock de sécurité) est supposé indépendant de la quantité, il est d'usage de ne considérer que la variation relative indépendamment de ce terme telle que:

equation   (67.107)

Enfin, il est d'usage de simplifier la forme analytique de cette dernière relation sous la forme suivante après quelques manipulations algébriques élémentaires:

equation   (67.108)

c'est donc un résultat assez esthétique... que le lecteur remarquera au passage comme étant toujours positif!

Il est évident que nous tirons aussi de la relation de la fréquence optimale de réapprovisionnement la "période optimale de réapprovisionnement" donnée alors par (l'inverse de la fréquence par définition):

equation   (67.109)

Si nous reportons sur un graphique les fonctions:

- coût de lancement (approvisionnement) en fonction des quantités

- coût de possession en fonction des quantités

- coûts totaux en fonction des quantités

alors la quantité économique se trouve à l'intersection des deux courbes, lancement et possession (lorsque le coût de possession est égal au coût d'acquisition), ou au point d'inflexion de la courbe cumulée. Dans la pratique toutefois, il est possible de commander exactement la quantité économique, on choisira une taille de lot répondant aux diverses contraintes et comprise dans la "zone économique":

type=text/javascript
Figure: 67.19 - Représentation de la zone économique

Évidemment dans certaines entreprises un objectif est plutôt d'essayer de diminuer le coût de stockage afin d'atteindre l'équivalent de la demande comme quantité économique. Nous avons alors avec un peu d'algèbre élémentaire:

equation   (67.110)

soit au final le coût de stockage optimal si la quantité d'approvisionnement Q est imposée:

equation   (67.111)

Donc pour résumer, il faut savoir que l'on considère souvent que l'ensemble du modèle de Wilson se résume aux 5 relations ci-dessous:

equation   (67.112)

Il existe un autre type de cas de figure qu'il faut étudier. Si l'on commande en quantités plus importantes en bénéficiant ainsi d'une remise, on augmente certes les coûts de possession mais on réduit théoriquement le nombre de commandes annuelles.

L'objectif pour le gestionnaire est bien sûr de vérifier mathématiquement que la remise consentie par son fournisseur n'entraîne pas de coûts induits supérieurs à la remise (ce serait une preuve d'incompétence du gestionnaire!).

Pour ce faire, il faut ramener tous les coûts à une pièce telle que le coût total unitaire s'écrive:

equation   (67.113)

cette relation est importante, car elle détermine la valeur de la remise pour que cette dernière soit intéressante.

Pour connaître le seuil de remise R pour une quantité donnée, on remplace dans la relation précédente, Q par la quantité visée Q' et equation par equation, R étant la remise.

Nous résolvons alors l'équation et nous obtenons:

equation   (67.114)

Nous déterminerons donc la valeur limite de R sous laquelle la remise ne compense pas les coûts internes.

Dans la pratique nous ne pouvons commander exactement la quantité optimale equation, notamment du fait des unités d'achats imposées par les fournisseurs (quantités minimales, conditionnements, etc.). Il est donc plus judicieux de s'intéresser à la "zone économique", constituée par la partie inférieure (le ventre) de la courbe des coûts totaux.

Du fait des hypothèses simplificatrices, le modèle de Wilson ne peut fournir au mieux qu'un ordre de grandeur si consommation et/ou prix sont sujets à variations (puisqu'elle est extrêmement dépendante des deux paramètres subjectifs: coûts de stockages et lancements).

Le recours aux lancements de fabrication économiques est "anti-flexible" par essence. Ce genre de politique amène fréquemment des conséquences importantes, risque de gonfler le stock de produits finis, reportant les coûts et pertes en aval du processus.

Cependant, le modèle de Wilson a ceci d'intéressant qu'il peut s'appliquer également assez bien à des ressources humaines.

exempleExemple:

L'entreprise MAC utilise un article X330 pour lequel la consommation prévisionnelle de l'année N devrait être de 4'000 articles. Les données sont les suivantes:

- Le coût unitaire de l'article X330 est de equation (peu importe le numéraire)

- Le coût de passation/lancement d'une commande est de equation

- Le taux de possession du stock est de equation par an

- Le stock de sécurité est de 250 unités

Le fournisseur de cet article, pour inciter ses clients à augmenter l'importance de leurs commandes, propose à l'entreprise les conditions suivantes:

C1. Quantités commandées inférieures à 2'000 unités: prix unitaire equation

C2. Quantités commandées comprises entre 2'000 et 3'500 unités: remise de 2%.

C3. Quantités commandées supérieures à 3'500 unités: remise de 3 %.

Travail à faire: Dire quelle solution l'entreprise doit adopter.

Le prix varie donc en fonction de la quantité tel qu'étant donnée une quantité choisie, la remise s'applique d'une façon équivalente à tous les articles (nous parlons alors de "remise uniforme").

D'après l'énoncé et en fonction de Q la quantité d'approvisionnement, nous savons que:

1. Si equation

2. Si equation

3. Si equation

En fonction de la relation de Wilson du lot économique, nous allons calculer la quantité économique equation pour le prix le plus avantageux à savoir equation:

equation   (67.115)

Mais pour avoir droit à equation il faut commander au minimum 3'500 articles il y a donc contradiction et cette solution est donc hors zone. Des calculs identiques (que nous laissons le soin de faire avec la calculatrice quand même...) montrent que seul le lot économique equation de equation correspond à la contrainte equation.

Dès lors, la période optimale de réapprovisionnement correspondante sera:

equation   (67.116)

et le coût de gestion optimal par période:

equation   (67.117)

Attention! Pour ce dernier calcul, certains auteurs incluent dans la coût du stock de sécurité equation la quantité N. Il s'agit d'un choix plutôt discutable et qui nécessiterait d'être précisé.

Enfin, l'impact sur le coût total de gestion si nous augmentons ou diminuons la quantité de plus ou moins 30% par rapport à la quantité économique est donné par:

equation   (67.118)

Donc évidemment, cela ne fait que d'augmenter les coûts et comme nous l'avons vu sur le graphique plus haut, la courbe n'étant pas symétrique, les deux résultats ne sont pas égaux.

MODÈLE DE WILSON SANS RÉAPPROVISIONNEMENT

Dans le modèle précédent, nous avons donc supposé une gestion de stocks en dents de scie de la forme suivante:

equation
Figure: 67.20 - Représentation schématique du modèle de Wilson avec réapprovisionnement

Dans le modèle qui va nous intéresser maintenant, nous allons considérer une gestion de stock avec une inertie du réapprovisionnement souvent due à une production à l'interne sous la forme suivante:

equation
Figure: 67.21 - Représentation schématique du modèle de Wilson sans réapprovisionnement

Donc dans la figure ci-dessus, nous pouvons observer que la demande de production se fait au point de commande et que pendant la production au rythme de P pièces par unité de temps pendant un temps equation, la consommation N par période T (rapportée à l'unité de temps de la production), tape déjà dans les stocks générés.

Devons-nous donc refaire tous les calculs du modèle précédent? La réponse est: non pas en totalité! Car si nous réfléchissons un tout petit peu en observant la fonction hyperbolique du coût total de stockage que nous avons démontrée plus haut:

equation   (67.119)

Il est évident que le premier terme dû au réapprovisionnement n'a aucune raison de changer. Le troisième terme, dû au stock de sécurité, n'a aucune raison de changer non plus! Donc il ne reste que le deuxième terme représenté par le coût de stockage moyen qui est forcément différent!

Donc le stockage moyen n'est plus:

equation   (67.120)

Nous pourrions calculer facilement la surface moyenne du triangle en utilisant la formule de Héron pour le calcul de la surface d'un triangle quelconque démontré dans le chapitre de Formes Géométriques. Mais le problème dans le cas présent, c'est que nous voulons faire apparaître Q dans le stock moyen. Nous ne pourrons alors utiliser la formule de Héron. L'idée va être la suivante (se référer à la figure précédente):

Lorsque l'entreprise n'a plus de stock, elle en lance pendant un temps equation la production à un rythme de P éléments par unité temporelle jusqu'à atteindre en cumul la quantité objectif Q. Nous avons alors:

equation   (67.121)

Mais en même temps qu'elle produit (et après aussi), l'entreprise consomme N éléments par unité temporelle. Le stock réel généré sera alors au temps equation (sous la condition évident que P est supérieur à N) l'inventaire maximum:

equation   (67.122)

Cet inventaire maximum correspond donc à la hauteur de notre triangle quelconque (toujours se référer à la figure précéente) mais nous souhaitons y faire apparaître le stocke obejctif Q. Donc, pour cela, il n'y a maintenant rien de plus simple en utilisant la relation antéprécédente:

equation   (67.123)

Donc le stock moyen devient:

equation   (67.124)

Donc nous voyons que la seule différence entre les deux modèles est le facteur:

equation   (67.125)

Dès lors, les relations obtenues dans le modèle de Wilson avec réapprovisionnement (du moins les plus importantes) et qui étaient pour rappel:

equation   (67.126)

deviennent (la dernière relation ne change pas):

equation   (67.127)

L'adaptation des relations du coût périodique de possession et du coût total d'approvisionnement sont quant à eux immédiats.

Donc à la différence du modèle avec approvisionnement, nous voyons que seulement une nouvelle variable P apparaît est qui est donc la vitesse de production (éléments produits par unité de temps) pour permettre une production de N éléments par unité de temps. Ce que lecteur ne doit pas oublier lors de cas d'application numérique, c'est de rapporter P et N à la même unité de temps.

MODÈLE DE WILSON AVEC RÉAPROVISIONNEMENT ET RUPTURE

Dans les grands classiques d'études scolaires (le reste étant ensuite une combinaires cas des différents scénarios basé sur le même raisonnement), voyons le modèle de Wilson avec réaprovisionnement (instantané) mais où la rupture et la vente à découvert (en contrepartie d'une pénéalité) est autorisé (donc il n'y a pas de stock de sécurité!). Nous représenterons ce scénario par la figure en dents-de-scie suivante:

equation
Figure: 67.22 - Représentation schématique du modèle de Wilson avec réapprovisionnement et rupture

Nous considéreron equation comme étant la perte financière (coût) par unité de pièce pendant la période à découvert (ne pas encaisser l'argent tout de suite fait que nous en perdons rien que par le fait que nous ne pouvons pas le placer sur des fonds à rendement

Pour ce cas là, nous n'avons pas trouvé de manière simple d'éviter de refaire les calculs des relations du modèle de Wilson avec réaprovisionnement (bon si quelqu'un a une astuce nous sommes preneurs). Cependant il s'agit toujours d'algèbre élémentaire donc le lecteur ne devrait souffrire d'aucune difficulté face à ce genre d'exercice de style.

Nous avons d'abord trivialement en se référant à la figure ci-dessus:

equation   (67.128)

D'abord, le coût de stockage moyen est trivialement de:

equation   (67.129)

Le coût moyen de vente en rupture est lui aussi donné trivialement par:

equation   (67.130)

Le coût moyen total sur une période est alors de:

equation   (67.131)

Rapportons maintenant cela au temps d'une période:

equation   (67.132)

Le coût total moyen par période est alors de:

equation   (67.133)

Le problème ici c'est que Q dépend de M et inversement. Nous allons donc devoir faire usage des dérivées partielles pouf fixer tantôt l'un et tantôt l'autre. Donc pour trouver la quantité économique, nous allons arbitrairement d'abord déterminer quelle est la quantité M qui va minimiser le coût total moyen par période (ceci afin de se débarasser par anticipation de la présence de la variable M dans l'expression de la quantité économique). Nous avons alors en prenant la dérivée partielle (donc sous-entendu que nous maintenons toutefois Q constant):

equation   (67.134)

Soit:

equation   (67.135)

Maintenant, pour la quantité économique, nous avons respectivement en prenant la dérivée partielle (dons sous-entendu que nous fixons M):

equation   (67.136)

En y injectant le résultat antéprécédent il vient:

equation   (67.137)

Soit après quelques manipulations algébrique élémentaires:

equation   (67.138)

Ce qui donne finalement:

equation   (67.139)

Nous avons alors explicitement:

equation   (67.140)

La période optimale de réapprovisionnement est alors:

equation   (67.141)

La quantité m économique de rupture donnant le déclenchement de lancement de restockage est alors:

equation   (67.142)

Un difficulté pratique de ce modèle est de déterminer equation. L'idée est alors de l'estimer sur la durée maximale d'attente supposée du client ayant fait une commande lors d'une rupture. En partant de:

equation   (67.143)

Et en mettant au carré dans l'idée d'extraire equation:

equation   (67.144)

Nous avons donc finalement une équation du deuxième degré:

equation   (67.145)

Dont les deux racines réelles sont:

equation   (67.146)

La racine qu'il faut garder est celle qui donne un coût de rupture positif. Soit:

equation   (67.147)

Avant de passer à l'exemple pratique, le résumé se réduit à:

equation   (67.148)

exempleExemple:

L'entreprise MAC livre un article X330. Dans le but de ne pas perdre ses clients, les gestionnaires décident d'un temps de rupture optimal (sous-entendu: maximuM) de 2 jours. Nous avons les données suivantes:

equation   (67.149)

Ce qui donne:

equation   (67.150)

ANALYSE DE LA SENSIBILITÉ

Dans le domaine de la gestion (projets, finance, statistique) et du cas multivaré, l'analyse de la sensibilité est une technique simple basée sur l'utilisation du coefficient de corrélation linéaire (de Pearson) démontré dans le chapitre de Statistiques dont une écriture possible est (dans le cas bivarié):

equation   (67.151)

et une écriture parfaitement équivalente démontrée dans le chapitre de Méthodes Numériques:

equation   (67.152)

avec pour rappel:

equation   (67.153)

L'idée est que si nous avons une variable principale qui dépend de manière sous-jacente de plusieurs variables alors nous calculons le coefficient de corrélation (ou le coefficient de détermination qui est simplement le carré du coefficient de corrélation) de la variable principale avec chacune des variables sous-jacentes.

Prenons un exemple simple et particulier au monde de la gestion de projets. Imaginons un projet dont le planning est basé un chemin critique basé uniquement de deux tâches A et B. La première tâche A s'étale sur une durée dont la loi est Normale de paramètres:

equation   (67.154)

soit une durée espérée de 8 jours et un écart-type de 1 jour et la tâche B s'étale sur une durée suivant une loi bêta (selon recommandation du PMI...) de paramètres (5,12), soit une durée optimiste de 5 jours et une durée pessimiste de 12 jours:

equation   (67.155)

Faisons pour l'exemple une simulation de Monte-Carlo à 1'000 itérations avec la version anglaise de Microsoft Excel 11.8346 (puisque la majorité des gestionnaires travaillent avec la version anglaise):

equation
Figure: 67.23 - Simulation de deux petites tâches respectivement avec une distribution Normale et bêta

Ensuite, nous calculons toujours avec la version anglaise de Microsoft Excel 11.8346 le coefficient de corrélation:

equation
Figure: 67.24 - Calcul du coefficient de corrélation entre les sommes et les tâches

ce qui donne:

equation
Figure: 67.25 - Corrélation correspondante

Soit sous la forme d'un graphique de type "tornado chart" comme il est d'usage dans le domaine de l'analyse de la sensibilité:

equation
Figure: 67.26 - Tornado chart obtenu avec Microsoft Excel 11.8346

Il est dangereux d'utiliser le coefficient de corrélation (de Pearson) lorsque la relation entre la variable principale et les variables sous-jacentes n'est pas linéaire! Cependant, les logiciels peuvent identifier de quel autre type de relation il s'agit (exponentielle, logarithmique, puissance, polynomiale) et faire une transformation pour ramener l'équation à celle d'une droite. Cependant, cette manipulation peut aussi amener à des erreurs grossières dans certains cas. La majorité des logiciels spécialisés utilisent alors la définition empirique de la régression que nous avons vue dans le chapitre de Méthodes Numériques:

equation   (67.156)

et utilisent alors la recherche opérationnelle (cf. chapitre de Méthodes Numériques) pour déterminer les paramètres de l'équation qui minimisent le equation selon la relation précédente.

Un logiciel spécialisé pour obtenir très rapidement ce genre d'analyse sur des situations complexes est @Risk de Palisade qui donne lui le graphique suivant:

equation
Figure: 67.27 - Tornado chart de la même simulation obtenu avec @Risk

Enfin, quand nous avons un très grand nombre de variables sous-jacentes, il peut être intéressant de regrouper les coefficients de corrélation par intervalles avec un graphique du type suivant (exemple pris de la bourse) où l'ordonnée représente le % du nombre de variables:

equation
Figure: 67.28 - Analyse des groupes de corrélation de variables

Ainsi, par exemple, ci-dessus 32% des variables ont un coefficient de corrélation nul avec la variable principale (qui est l'indice de performance du portefeuille concerné) et 14% ont un coefficient de corrélation compris entre +0.75 et +1.

Il est aussi courant de représenter l'influence en % de chaque variable sur la variable principale en faisant la moyenne des rapports entre les deux. Ce qui donne le graphique suivant si nous en avons un grand nombre:

equation
Figure: 67.29 - % d'influence sur la variable principale en fonction de la corrélation

Ainsi, par exemple, nous pouvons observer sur le graphique ci-dessus qu'une variable a une influence moyenne de +4% sur l'indice du portefeuille avec une corrélation de +0.5.

Bref... libre cours pour faire le graphique que l'on veut en fonction des besoins de son entreprise!

Enfin, indiquons que certains contrôleurs financiers parlent à tord "d'analyse de la sensibilité" lorsqu'ils font des analyses à double entrée à l'aide de tableurs.Voyons de quoi il s'agit avec le petit exemple simple illustré ci-dessous avec le tableur MS Excel 14.0.7151.

BIENS D'ÉQUIPEMENT

Les installations, les biens d'équipement subissent une dépréciation progressive due à l'usure ou à l'obsolescence. Cette baisse de valeur, enregistrée comme une charge en comptabilité, est appelée "amortissement comptable". Il ne faut pas confondre l'amortissement financier vu dans le chapitre d'Économie qui correspond au remboursement d'une dette et l'amortissement comptable qui est une diminution de valeur des moyens de production.

Certains types de biens ont une perte de valeur assez uniforme dans le temps contrairement à d'autres qui se déprécient plus rapidement les premières années. Nous allons présenter ici quelques-unes des méthodes comptables utilisées en pratique qui décrivent l'un ou l'autre de ces phénomènes.

AMORTISSEMENT LINÉAIRE

Définition: Nous parlons d'un "amortissement linéaire" d'un bien lorsque sa valeur d'immobilisation est diminuée (amortissement) d'un montant périodique (annuel dans la comptabilité) constant durant sa durée de vie:

Ainsi, si nous notons equation le montant du k-ème amortissement et equation la valeur initiale du bien d'équipement et equation sa valeur finale souhaitée (qui dans la plupart des cas sera nulle), nous avons:

equation   (67.157)

Il est possible d'obtenir la valeur d'amortissement en utilisant la fonction AMORLIN( ) de la version française de Microsoft Excel 11.8346.

Le taux d'amortissement équivalent constant basé sur la valeur d'achat et résiduelle est alors donné évidemment par:

equation   (67.158)

À remarquer que ce taux constant ainsi que la valeur finale sont parfois imposés par la législation dans certains pays (comme c'est le cas en Suisse par exemple) jusqu'à une valeur résiduelle nulle ou non nulle elle aussi définie par la législation!

AMORTISSEMENT ARITHMÉTIQUE DÉGRESSIF

Définition: Lorsque la valeur d'immobilisation (amortissement) d'un bien décroît inversement à l'ordre des périodes (années en comptabilité) nous parlons alors "d'amortissement arithmétique dégressif" (donc pas de taux d'amortissement imposé par l'État possible!).

Par exemple, un bien d'une durée de vie de 4 ans, sera amortissable de 4/10 la première année, 3/10 la seconde, 2/10 la troisième et 1/10 la dernière. La base commune "10" (dans cet exemple) étant la somme arithmétique 1+2+3+4 afin que la totalité des fractions soit égale à l'unité. Il s'agit d'une règle purement fiscale américaine " Sum-of-Years Digits" (SYD).

Remarque: Il ne faut pas confondre "l'amortissement arithmétique dégressif" avec "l'amortissement dégressif" qui consiste à appliquer un coefficient multiplicateur (édicté par le fisc) au pourcentage d'amortissement linéaire correspondant et que nous ne traiterons pas sur ce site (sauf demande explicite d'un lecteur). Il ne peut être utilisé que pour des biens neufs et ne concerne pas tous les types d'immobilisation. Ce taux d'amortissement dégressif s'applique chaque année sur la valeur comptable résiduelle du bien.

Soit equation le k-ème amortissement et equation la valeur initiale du bien d'équipement et equation sa valeur finale souhaitée (qui dans la plupart des cas sera nulle) nous avons alors:

equation   (67.159)

ce qui peut s'écrire:

equation   (67.160)

et comme nous l'avons démontré dans le chapitre des Suites Et Séries:

equation   (67.161)

ce qui nous amène à écrire:

equation   (67.162)

Il est possible d'obtenir l'amortissement à une période k en utilisant la fonction SYD( ) de la version française de Microsoft Excel 11.8346.

AMORTISSEMENT GÉOMÉTRIQUE DÉGRESSIF

Définition: Lorsque la valeur d'immobilisation d'un bien décroît selon un taux d'amortissement constant basé sur la valeur résiduelle de la période précédente (donc en quelque sorte comme un intérêt composé à taux négatif), nous parlons alors "d'amortissement géométrique dégressif simple".

Ainsi, la valeur du bien après n années est définie par:

equation   (67.163)

avec donc:

equation   (67.164)

Remarque: Nous constatons que la valeur de t% étant comprise dans l'intervalle entre [0,1[ la limite de equation quand n tend vers l'infini n'est jamais nulle. Ainsi, la valeur résiduelle ne le sera jamais non plus !

Sachant par définition de cet amortissement que:

equation   (67.165)

nous obtenons:

equation   (67.166)

En injectant l'expression du taux dans la relation précédente, nous obtenons:

equation   (67.167)

Nous remarquons donc que les valeurs d'amortissement ne nécessitent pas de connaître le taux de manière explicite. Il suffit de connaître la valeur finale et initiale. C'est justement pour cela que la fonction DB( ) de la version française de Microsoft Excel 11.8346 ne demande pas le taux d'amortissement.

À remarquer que ce taux constant ainsi que la valeur finale sont parfois imposés par la législation dans certains pays (comme c'est le cas en Suisse par exemple) jusqu'à une valeur résiduelle nulle ou non nulle elle aussi définie par la législation!

Remarque: L'amortissement géométrique dégressif convient particulièrement aux biens ayant une très forte dépréciation les premières années.

CHOIX D'INVESTISSEMENTS

Par définition, un investissement est l'acquisition ou le développement d'un bien (quelle que soit sa forme, matérielle ou non) par une entreprise, une collectivité ou un individu. Un investissement implique dans le cadre économique simple:

1. Une dépense immédiate, payable en une ou plusieurs fois

2. Des entrées futures, appelées "cash-flows"

3. Une valeur résiduelle

Il existe plusieurs critères et techniques pour les choix d'investissements, que nous présenterons ci-après, qui permettent d'opter pour un investissement A ou B: celui de la "valeur actuelle nette" (VAN), celui du "taux interne de rentabilité" (TRI) ou encore celui de "délai de récupération" (DR) appelé aussi "délai de recouvrement".

Remarque: Il ne faut pas oublier aussi que les techniques de décisions (cf. chapitre de Théorie Des Jeux Et De La Décision) ont une énorme importance lorsque les sommes considérées atteignent des valeurs non négligeables.

VALEUR ACTUELLE NETTE

Comme nous l'avons spécifié plus haut, un investissement implique trois points. Ce qui intéresse bien évidemment l'investisseur, c'est qu'en valeur actuelle, l'investissement rapporte plus que ce qui est dépensé.

Voyons une situation-type: Une entreprise souhaite acquérir une nouvelle machine valant 6'000.-, ce qui devrait permettre d'abaisser les coûts de production de 1'000.- durant 5 ans. Nous estimons que dans 5 ans, la valeur résiduelle de cette machine sera de 3'000.-. Doit-on acheter cette machine si cet investissement peut être financé par un emprunt à 10%?

Quelles informations avons-nous ici?

1. La dépense immédiate equation

2. La valeur finale ou résiduelle du bien d'équipement après 5 ans equation

3. Les cash-flows de chaque année equation (qui sont constants sur toute la période dans cet exemple)

4. Le taux d'intérêt (taux géométrique moyen du marché) de l'emprunt correspondant equation

Quelles informations, ou questions intéressantes, financièrement parlant, pouvons-nous poser par rapport aux données ci-dessus?:

1. Quel serait le capital initial qui au taux du marché nous permettrait de retirer 1'000.- par année pendant 5 ans (jusqu'à ce que l'on solde le compte)?:

equation   (67.168)

ce qui s'écrit si equation (nous retrouvons la relation de la rente certaine postnumerando vue dans le chapitre d'Économie):

equation   (67.169)

Dans notre exemple cette somme (après un petit calcul) revient à environ 3'790.-.

En d'autres termes, il nous suffirait de mettre en épargne 3'790.- pendant les mêmes 5 ans, pour en retirer 1'000.- par année jusqu'à solder le compte. Donc pour l'instant, un investissement de 3'790 pour économiser (gagner) 1'000.- par année semble beaucoup plus favorable qu'en dépenser 6'000.- pour le même retour, sur la même durée...

Déjà là, nous pouvons dire que l'achat de la machine est défavorable.

Mais il ne faut pas oublier aussi un deuxième facteur... la valeur résiduelle de notre machine!!!

2. Quel serait le capital initial qui au taux du marché nous rapporterait une valeur équivalente à la valeur résiduelle de notre machine (c'est une valeur immobilisée au même titre qu'une épargne, donc nous pouvons nous intéresser à ce qu'il adviendrait si cette somme provenait d'une épargne) ?

equation   (67.170)

Dans notre exemple, cette somme revient environ à 1'862.-

En d'autres termes, il nous suffirait de mettre en épargne 1'862.- pendant les mêmes 5 ans, pour obtenir une somme égale à la valeur résiduelle de notre machine. Et alors?

Eh bien la conclusion est assez simple.... La somme:

equation   (67.171)

représente le retour sur la base d'une épargne initiale pour obtenir, par rapport aux informations de valeur résiduelle et de cash-flow, la somme finale équivalent à l'achat de notre machine. Or, dans cet exemple, cette somme nous donne environ 5'652.-.

Ce résultat est important car il est à comparer avec l'investissement que nous voulions faire initialement. Deux options s'offrent donc à nous:

1. Acheter la machine à 6'000.- avec les cash-flows et les valeurs résiduelles que nous connaissons

2. Épargner 5'652.- pendant la même période, avec les mêmes cash-flows pour nous retrouver avec une épargne finale qui devrait être équivalente à celle de la valeur résiduelle de notre machine.

Or, que pouvons-nous conclure de notre exemple? Eh, bien simplement que nous nous trouvons dans un cas défavorable si:

equation   (67.172)

Soit, explicitement:

equation   (67.173)

Dans la version française de Microsoft Excel 14.0.7106, il suffit d'écrire (l'écriture est un peu traître):

=-6000+VAN(10%;1000;1000;1000;1000;4000)=-346.60.-

En d'autres termes, pour le financier (ou chef de projet), le calcul intéressant à faire est le suivant:

type=text/javascript   (67.174)

qui:

1. Lorsqu'il est négatif correspond à un investissement qu'il vaut mieux éviter

2. Lorsqu'il est nul est un investissement indécidable

3. Lorsqu'il est positif est un bon investissement

Dans certains cas scolaires et livres de gestion de projets, la relation de la VAN ci-dessus est simplifiée, car ils supposent que seul un investissement... est fait en début de projet. Ainsi, nous avons:

equation   (67.175)

Enfin, précisons que le rapport:

equation   (67.176)

est souvent appelé "coefficient d'actualisation" de la n-période.

Ainsi, la VAN est utilisée comme critère décisionnel dans les grandes entreprises pour chiffrer l'apport spécifique d'un projet au résultat financier de l'entreprise, en tenant compte du coût du capital utilisé via le taux d'actualisation.

Donc dans le cas d'un choix entre plusieurs investissements, nous choisirons celui dont la VAN est la plus grande. Si les cash-flows sont non déterministes il faudra alors calculer l'espérance et la variance de la VAN. Les spécialistes abrègent souvent le calcul de l'espérance de la VAN par l'abréviation VANe pour "valeur actuelle nette espérée" ou plus fréquemment en anglais "expected net present value" (eN.P.V.) ou encore "risk-adjusted net present value" (rN.P.V.). Le lecteur pourra trouver un exemple de calcul de VANe dans le serveur d'exercice (sinon, sur demande, nous intégrerons directement l'exemple sur la présente page).

Remarque: La VAN est aussi souvent appelée "quasi-rente actualisée" ou encore en anglais "net present value" (N.P.V.). Nous trouvons également souvent la dénomination "méthode des cash-flows actualisés".

Si nous considérons en avenir certain avec un investissement initial unique de 10'000.- avec un taux d'actualisation constant de 10% et un cash-flow parfaitement périodique de 3'250.-, 3'750.-, 4'250.-, 4'750.- nous avons la représentation tabulaire traditionnelle:

Année

Action

Cash-Flow

C.A.

C.F.A.

0

Investissement

-10'000

1

-10'000

1

Entrée

3'250

0.909

2'955

2

Entrée

3'750

0.826

3'099

3

Entrée

4'250

0.751

3'193

4

Entrée

4'750

0.683

3'244

SOMME

F.N.T:

6'000

F.N.T.A:

2'491

Tableau: 67.12  - Actualisation détaillée sous forme comptable

où dans le tableau ci-dessus F.N.T. signifie "Fond Net de Trésorerie" ("net cash flow" en anglais), F.N.T.A. "Fond Net de Trésorerie Actualisé", C.A. "Coefficient d'Actualisation" et C.F.A. "Cash-Flow Actualisé".

Ainsi dans ce tableau, l'investissement rapporte 2'491.- de plus qu'une opération de placement à 10% après 4 ans en avenir certain (univers déterministe).

Nous remarquerons au passage qu'à partir de la 3 année, l'investissement initial est remboursé. Nous parlons alors de "période de payback".

TAUX DE RENTABILITÉ INTERNE

Définition (technique): Le "taux de rentabilité interne" (TRI), appelé aussi parfois "taux limite de rentabilité" ou "efficacité marginale du capital" est le taux d'actualisation t% pour lequel la valeur actualisée des rentrées nettes de fonds résultant d'un projet d'investissement est égale à la valeur actualisée des décaissements requis pour réaliser cet investissement.

Pour citer la définition selon J.M. Keynes: l'efficacité marginale du capital est le taux d'escompte qui, appliqué à la série d'annuités constituée par les rendements escomptés de ce capital pendant son existence entière, rend la valeur actuelle des annuités égale au prix d'offre de ce capital.

En d'autres termes, cela revient à se demander quel est le taux moyen géométrique du marché pour lequel la V.A.N. du projet est nulle. Soit à satisfaire la relation:

equation   (67.177)

qui ne peut que se calculer rapidement avec des outils informatiques (l'outil Cible dans Microsoft Excel 11.8346 par exemple) ou plus simplement en utilisant la fonction TRI( ) intégrée dans presque tous les tableaux (donc Microsoft Excel).

Si le taux de rendement interne est trop faible, le placement sur les marchés financiers (spéculation) est plus intéressante alors que l'investissement industriel (ceci est cependant une situation relativement dangereuuse et qui doit être corrigé par les banques centrales).

exempleExemple:

Un ami nous propose de vendre votre machine pour un investissement de 2'000.- (correspondant à sa valeur résiduelle) dans un projet ayant un cash-flow qui double chaque période sur une base de 400.- assurée pendant 3 périodes alors que le taux moyen géométrique d'intérêt du marché est de 5%. Lee TRI (taux de rendement interne) à partir duquel le VAN est nul est donné avec la version française de Microsoft Excel 14.0.7106:

=TRI({-2000;400;800;1600)=15.117%

Donc entre deux investissements, nous choisissons dans les entreprises celui dont le TRI est le plus élevé et satisfaisant aux contraintes politiques et économiques internes.

Ce type de calcul s'applique donc sur le retour sur projets contre investissements sur le marché et non pas au retour sur projets contre exploitation. Ainsi, il s'agit d'un outil calculatoire d'aide à la décision purement financier et non industriel ou commercial.

DÉLAI DE RÉCUPÉRATION ET D'AMORTISSEMENT

Le "délai de récupération" (DR), appelé aussi "délai de recouvrement" ou "pay back" (en anglais) est un autre indicateur pour l'aide à la décision dans le cadre des choix d'investissements de projets et plus simple à l'utilisation (et à la compréhension) que la VAN.

Cet indicateur a pour simple et seul objectif de montrer quand, dans le temps, l'investissement sera remboursé. En d'autres termes, il indique le nombre de périodes nécessaires pour que la somme des cash-flows couvre l'investissement initial. C'est une information très simple à déterminer qui revient à chercher le plus petit entier p tel que:

equation   (67.178)

ou encore:

equation   (67.179)

En d'autres termes, c'est le moment d'un projet où les cash-flows équilibrent l'investissement initial.

Définition: Le "délai d'amortissement" est le nombre de périodes nécessaires tel que:

equation   (67.180)

ou encore:

equation   (67.181)

THÉORIES DES FILES D'ATTENTE

Les théories des files d'attente sont des outils extrêmement puissants et vastes (une présentation complète nécessite au bas mot 300 pages A4) permettant de prendre en compte et de modéliser les goulots d'étranglement dans les processus des entreprises soit au niveau de la logistique, des centrales téléphoniques, des requêtes sur les serveurs, des caisses de grands magasins ou encore dans les toilettes des grands stades sportifs (...) en fonction des hypothèses et contraintes de départ.

Généralement, les clients voient évidemment dans l'attente une activité sans valeur ajoutée et, s'ils attendent trop longtemps, ils associent cette perte de temps à une mauvaise qualité de service. De la même façon, au sein de l'entreprise, des employés inoccupés ou des équipements inutilisés représentent des activités sans valeur ajoutée. Pour éviter ces situations, la majorité des entreprises ont mis en place des processus d'amélioration continue dont le but ultime est l'élimination de toute forme de gaspillage, notamment l'attente. Tous ces exemples révèlent l'importance de l'analyse des files d'attente. A remarquer qui si une entreprise ou administration n'a pas les moyens financiers ou intellectuels de faire de la théorie des files d'attentes, le respect minimum envers les clients est au moins d'indiquer à l'aide d'un affichage peu onéreux, le temps d'attente ou de mettre à disposition des moyens de distractions (télévision, journaux ou magazines)!

Système

Clients

Service

Comptoir-réception

Personnes

Réceptionnistes

Atelier de réparation

Machines

Techniciens

Garages

Camions

Mécaniciens

Hôpital

Patients

Infirmiers

Ordinateur

Tâches

Processeurs, disques, rubans

Aéroport

Appareils

Pistes d'envols

Réseau routier

Véhicules

Feux de circulation

Atelier de fabrication

Tâches

Machines/Ouvriers

Téléphone

Appels

Échangeurs

Transport en commun

Voyageurs

Autobus/Métros

Buanderie

Lignes

Laveuses/Sécheuses

...

...

...

Tableau: 67.13 - Exemples de files d'attente typiques

Ces théories se révèlent notamment utiles pour justifier des investissements, des embauches ou des achats d'équipements. De façon plus générale, elle est une partie intégrante des techniques mathématiques de gestion lorsqu'il est nécessaire de rechercher un optimum économique entre des coûts d'attente et des coûts de service d'un système.

La problématique type dans les entreprises peut s'exprimer ainsi:

- Quel est le nombre optimal de stations/terminaux à mettre en service permettant de traiter la demande tout en évitant une file d'attente trop importante et le départ de certains clients?

- Quel est le temps d'attente moyen d'un client/employé devant la station/terminal?

- Quel est le nombre moyen de clients en attente dans la file?

Ces questions permettent d'exprimer des objectifs en matière de qualité et de niveau de service:

1. Un temps d'attente moyen ou médian dans le service ou dans la file à ne pas dépasser

2. Une probabilité d'attente maximale

3. Un nombre de clients moyen en attente donné

En pratique, lorsque le client est externe à l'entreprise, le coût d'attente est difficile à évaluer, car il s'agit d'un impact plutôt que d'un coût pouvant être comptabilisé. Cependant, on peut considérer les temps d'attente comme un critère de mesure du niveau de service. Le gestionnaire décide du temps d'attente acceptable et il met en place la capacité susceptible de fournir ce niveau de service.

Lorsque le client est interne à l'entreprise, nous pouvons établir directement certains coûts se rapportant au temps d'attente des clients (machines). Par ailleurs, il ne faut pas conclure trop rapidement que pour l'entreprise, le coût du temps d'attente d'un employé qui attend est égal à son salaire durant le temps d'attente. Cela impliquerait que la baisse nette des gains de l'entreprise, du fait de l'inactivité d'un employé, est égale au salaire de ce dernier, ce qui, a priori, n'est pas évident. L'employé, qu'il travaille ou qu'il attende, reçoit le même salaire. Par contre, sa contribution aux gains de l'entreprise est réellement perdue, car la productivité baisse. Quand un opérateur de machine est inactif parce qu'il attend, sa force productive (qui peut comprendre, outre son salaire, une proportion des coûts fixes de l'entreprise) est perdue. En d'autres termes, il faut tenir compte non pas de la ressource physique en attente, mais plutôt de la valeur (coût) de toutes les ressources économiques inactives, et évaluer ensuite la perte de profit à partir de la perte de productivité. L'objectif de l'analyse des files d'attente est de trouver un compromis entre le coût associé à la capacité de service et le coût d'attente des clients.

Ces théories font donc appel à des méthodes statistiques et algébriques que nous avons étudiées dans les chapitres de Statistiques et de Théorie Des Graphes. Elles n'en sont alors que plus passionnantes.

Pour présenter le sujet, plutôt que de faire une généralisation abstraite, nous avons choisi de développer la théorie autour d'un exemple concret et classique qui est le télétrafic. Une généralisation à tout autre cas d'étude se faisant ensuite relativement facilement par analogie.

Considérons donc une centrale téléphonique regroupant les lignes d'un ensemble d'immeubles d'une ville et ne possédant pas autant de lignes allant vers le réseau que de lignes allant vers les différents particuliers qu'il dessert.

Nous pouvons donc légitiment nous demander de combien de lignes nous avons besoin pour desservir tous ces abonnés.

Pour dimensionner son réseau, un opérateur va devoir calculer le nombre de ressources à mettre en oeuvre pour qu'avec une probabilité extrêmement proche de 1, un usager qui décroche son téléphone puisse disposer d'un circuit. Pour cela, il va falloir développer quelques relations de probabilité de blocage. Ces relations vont demander une modélisation statistique des instants de début et de fin d'appels ainsi que des durées de ces appels. Les paragraphes qui suivent vont donc introduire les lois de probabilités utilisées pour ces dimensionnements.

Enfin, avant de commencer, nous souhaitons mettre à disposition le tableau récapitulatif ci-dessous des notations les plus importantes que le lecteur découvrira au fur et à mesure de sa lecture et auquel il pourra se reporter en cas de confusion:

Variables

Information

Unité

equation

Flux d'arrivée de clients dans la file d'attente (communication), appelé également "taux moyen d'arrivée des appels", ou encore "fréquence moyenne d'arrivées".

L'inverse equation donne le temps moyen entre arrivées (appels) dans la file d'attente.

equation

equation

Flux de départ de clients (communication) correspondant au taux de traitement. L'inverse equation donne le temps moyen d'attente pendant le service (donc une fois arrivé en fin de file d'attente) appelé aussi "temps moyen de service".

equation

A ou equation

Taux d'utilisation du service (par unité de serveur). Assimilé au concept de trafic (un peu abusivement) ou de charge. Est égal au rapport equation et doit être strictement inférieur à 1 pour éviter l'engorgement.

-

C

Nombre de clients au total dans le système

-

equation

Nombre de clients en attente dans la queue

-

equation

Nombre de clients en service (traitement)

-

T

Temps d'attente dans le système

[s]

equation

Temps d'attente dans la queue

[s]

equation

Probabilité d'avoir k clients dans le système

-
Tableau: 67.14 - Notations conventionnelles des files d'attente

et précisons que les paramètres à prendre en compte son souvent:

- Le type de processus d'arrivée des clients (données)

- La distribution statistique du temps de service (traitement)

- Le nombre de caisses (serveurs)

- La capacité du système (souvent supposée infinie dans la pratique...)

- La taille de la population

- Le discipline du service

MODÉLISATION DES DURÉES D'ARRIVÉES M/M/...

Dans ce modèle M/M/... dont nous expliquerons l'origine de la notation plus tard, nous considérons des appels qui débuteraient de manière aléatoire. Prenons ensuite un intervalle de temps t et divisons cet intervalle en n sous-intervalles de durée t/n.

Nous choisissons n suffisamment grand pour que les hypothèses suivantes soient respectées:

H1. Une seule arrivée d'appel peut survenir dans un intervalle t/n

H2. Les instants d'arrivée d'appels sont indépendants les uns des autres (le taux d'arrivée n'est pas influencé par le nombre d'appels provenant de la population). Ce qui présuppose une population infinie.

H3. La probabilité qu'un appel arrive dans un sous-intervalle donné est proportionnelle à un facteur constant près à la durée du sous-intervalle.

Nous écrivons alors la probabilité de un appel equation dans un sous-intervalle (1) de la manière suivante:

equation   (67.182)

où le 1 en indice du p représente donc l'analyse sur 1 appel, le 1 entre parenthèses le fait que l'analyse se fait sur 1 sous-intervalle et enfin le terme equation représente le coefficient de proportionnalité entre la probabilité et la durée t/n du sous-intervalle.

L'hypothèse de départ consistant à considérer comme nulle la probabilité d'avoir plusieurs appels dans un sous-intervalle s'écrit alors:

equation   (67.183)

La probabilité de n'avoir aucun appel durant un sous-intervalle de temps t/n s'écrit donc:

equation   (67.184)

En développant, nous obtenons:

equation   (67.185)

et en utilisant la propriété énoncée juste au-dessus:

equation   (67.186)

La probabilité d'avoir k arrivées d'appels durant n intervalles de temps s'obtient alors en considérant le nombre de manières de choisir k intervalles parmi n... (puisqu'il ne peut y avoir plus d'un appel par intervalle).

Pour chacune de ces solutions, nous aurons alors forcément k intervalles avec une arrivée d'appel et n-k intervalles avec aucune arrivée d'appel. Nous avons vu dans le chapitre de Statistique que la loi qui permettait d'obtenir la probabilité de choisir un certain arrangement d'issues binaires parmi un nombre total d'issues était la loi de Bernoulli donnée par:

equation   (67.187)

Il vient donc dans notre cas de figure que la probabilité d'une des solutions sera:

equation   (67.188)

La probabilité globale s'obtient en sommant les probabilités de tous les cas, ce qui nous donne la loi binomiale (cf. chapitre de Statistiques):

equation   (67.189)

Ou encore, en remplaçant les probabilités par leurs valeurs en fonction de equation:

equation   (67.190)

La limite de la probabilité equation lorsque n tend vers l'infini va être égale à la probabilité d'avoir k arrivées d'appel durant un intervalle de temps t. Nous notons equation cette probabilité:

equation   (67.191)

En reprenant alors les différents termes de l'expression de equation, il vient:

equation   (67.192)

En utilisant les développements de Taylor (cf. chapitre de Suites Et Séries):

equation   (67.193)

Soit en ne prenant que le premier terme, c'est-à-dire en considérant x très petit:

equation   (67.194)

Donc:

equation   (67.195)

et pour la dernière partie:

equation   (67.196)

d'où après regroupement:

equation   (67.197)

Cette fonction de distribution est donc extrêmement importante, car elle représente la probabilité d'observer k arrivées d'appels dans un intervalle de durée t (ou le nombre de clients qui se trouvent devant une caisse dans un intervalle de durée t) et il s'agit donc d'une distribution de Poisson (cf. chapitre de Statistiques). Dans la pratique, il faut donc s'assurer avant d'utiliser les relations qui vont suivre que cette distribution soit bien respectée (avec un test du Khi-deux typiquement).

Considérons maintenant la fonction de répartition, appelée "fonction de répartition d'Erlang", qui pour un intervalle de temps t donné donne la probabilité cumulée d'avoir un nombre k d'arrivées supérieur ou égal à n:

equation   (67.198)

Si nous dérivons cette fonction par rapport à t cela donne la "fonction de distribution d'Erlang" (le lecteur aura peut-être remarqueé que retrouvons donc dans l'avant-dernière ligne un exemple pour le mangement du cocnept de "série télescopique" qui avait été introduction dans la section de Suites et Séries):

equation   (67.199)

et donc nous retrouvons une forme particulière de la fonction de distribution de la loi Gamma vue dans le chapitre de Statistiques. Rappelons au passage l'équivalence déjà présentée dans le chapitre de Statistiques dans la version française de Microsoft Excel 14.0.6123 entre la loi de Poisson, la loi du Khi-2 et la loi Gamma:

equation   (67.200)

Il s'ensuit par analogie avec la forme générale de la loi de Poisson que le  paramètre equation est le taux moyen d'arrivée (taux moyen d'apparition) d'appels par unité de temps (ou en anglais "Poisson Arrivals See Time Average": PASTA...). Typiquement il s'agira d'un nombre moyen d'appels par seconde (voir les estimateurs de la loi de Poisson dans le chapitre de Statistiques).

Ainsi, nous avons pour espérance et variance (cf. chapitre de Statistiques) du nombre d'appels:

equation   (67.201)

exempleExemple:

Une TPE souhaitant mettre en place une hotline estime qu'au début elle recevra par journée de 8 heures, 4 appels téléphoniques (soit une probabilité de 1 chance sur 2 d'avoir un appel par heure et donc un taux moyen equation de 0.5 appels par heure). Alors la probabilité qu'elle reçoive exactement 4 appels (k) par jour et au moins 4 appels (k) par jour selon le modèle théorique de la théorie des files d'attente est de:

equation   (67.202)

où nous avons utilisé la fonction POISSON( ) intégrée dans la version française de Microsoft Excel 14.0.6123.

Maintenant, introduisons la variable aléatoire equation représentant le temps séparant deux arrivées d'appel. Nous définissons pour cela la probabilité A(t) qui est la probabilité que le temps equation soit inférieur ou égal à une valeur t:

equation   (67.203)

Nous avons donc:

equation   (67.204)

Or, equation représente la probabilité cumulée qu'il n'y ait aucune arrivée d'appels durant un temps t. Cette probabilité cumulée a justement été établie plus haut:

equation   (67.205)

Nous en déduisons:

equation   (67.206)

Il s'agit donc de la fonction de répartition d'une loi exponentielle! Nous pouvons aussi introduire la densité de probabilité de la variable aléatoireequation. Nous obtenons ainsi:

equation   (67.207)

Remarque: Rappelons que dans le chapitre de Statistiques, nous avons souvent fait la démarche inverse. C'est-à-dire compte tenu d'une densité de probabilité a(t) nous cherchions la fonction de répartition A(t) via une intégration sur le domaine de définition de la variable aléatoire.

La densité de probabilité permet donc de calculer la durée moyenne entre deux arrivées d'appel:

equation   (67.208)

En intégrant par parties, il vient:

equation   (67.209)

Nous obtenons ainsi, que pour un taux d'arrivée de equation appels par seconde, le temps moyen entre appel est égal à equation (résultat relativement logique mais encore fallait-il le démontrer rigoureusement). Effectivement, si nous avons equation qui vaut 2 appels par heure, le temps moyen d'arrivée est bien de 0.5 heures (1/2) entre appels.

Supposons maintenant qu'aucun appel ne soit arrivé jusqu'à un temps equation et que nous souhaitions calculer la probabilité qu'un appel arrive durant une durée t après le temps equation.

Nous devons donc calculer la probabilité d'avoir une durée entre deux appels inférieure à equation tout en étant supérieure à equation.

Cette probabilité s'écrit equation. En utilisant la formule de Bayes (cf. chapitre de Probabilités):

equation   (67.210)

mais avec les notations idoines, il vient:

equation   (67.211)

Cette probabilité peut encore s'écrire:

equation   (67.212)

En reprenant les expressions des différentes probabilités:

equation   (67.213)

Nous voyons donc que la probabilité d'apparition d'un  appel durant un temps t après une durée equation pendant laquelle aucun n'est arrivé est la même que la probabilité d'apparition d'un appel pendant une durée t, indépendamment de ce qui a pu arriver avant. Nous considérons donc que le phénomène (la loi exponentielle) est sans mémoire.

MODÉLISATION DES DURÉES DE SERVICE M/M/...

Dans ce modèle M/M/... dont nous expliquerons encore une fois l'origine de la notation plus tard, nous allons étudier les lois de probabilité qui modélisent les durées des appels (sous-entendu: en service une fois la fin de la file d'attente atteinte). Pour cela, nous procédons comme précédemment.

Nous considérons donc un intervalle de temps de durée t que nous décomposons en n sous-intervalles de durée t/n. Nous choisissons n de sorte que les hypothèses suivantes restent justifiées:

H1. La probabilité qu'un appel se termine durant un sous-intervalle est proportionnelle à la durée du sous-intervalle.

Nous noterons:

equation   (67.214)

cette probabilité, expression dans laquelle equation représente le coefficient de proportionnalité.

H2. La probabilité qu'un appel se termine durant un sous-intervalle est indépendant du sous-intervalle considéré.

Nous introduisons alors la variable aléatoire equation représentant la durée d'un appel et la probabilité H(t) que la durée d'un appel soit inférieure ou égale à t:

equation   (67.215)

La probabilité qu'un appel ayant débuté à t = 0 ne se termine pas avant t s'écrit alors:

equation   (67.216)

Cette probabilité est égale à la probabilité que l'appel ne se termine dans aucun des n sous-intervalles de durée t/n:

equation   (67.217)

En faisant tendre n vers l'infini, nous obtenons:

equation   (67.218)

Nous obtenons donc l'expression de la probabilité qu'un appel ait une durée inférieure ou égale à t:

equation   (67.219)

Nous pouvons en déduire la densité de probabilité associée, notée h(t):

equation   (67.220)

qui correspond donc à une loi exponentielle (le temps qu'un client emploie pour être servi à une caisse - durée de service - ou pour que son appel soit traité une fois en fin de file d'attente suit donc une loi exponentielle!). Dans la pratique, il faut donc s'assurer avant d'utiliser les relations qui vont suivre que cette distribution soit bien respectée (avec un test du Khi-deux typiquement).

De la même manière que dans les paragraphes précédents, la durée moyenne d'appel (laps de temps moyen entre deux fins d'appels en service) s'obtient en calculant (toujours la même intégration par parties que plus haut):

equation   (67.221)

En conclusion, nous avons equation appels qui cessent par seconde et nous avons une durée moyenne d'appel en service égale à:

equation   (67.222)

Effectivement, si nous avons par exemple 2 appels en service qui cessent par heure, cela nous donne une durée moyenne de 0.5 heure (1/2) de service par appel.

Le rapport:

equation   (67.223)

représente donc le nombre d'appels qui apparaissent dans la file d'attente sur le nombre d'appels en service qui se terminent pendant un intervalle de temps (temps de service moyen), c'est-à-dire qui représente en fait tout simplement le trafic (ou autrement dit: l'intensité de trafic) ou d'un autre point de vue l'utilisation moyenne du service dont l'unité est le "Erlang" (nous rappellerons cette définition plusieurs fois par la suite...).

exempleExemple:

Dans un magasin, on compte 240 clients par heure et il faut 28 secondes en moyenne pour traiter un client (temps de service moyen). Sachant que la durée de service suit une loi exponentielle et la distribution des arrivées une loi de Poisson, quelle est l'intensité du trafic et le taux d'occupation des caisses si le magasin n'en a que deux?

Le trafic est donc donné par le nombre de clients par heure divisé par le nombre de clients traités par heure. Comme il faut 28 secondes pour en traiter un et qu'il y a 3'600 secondes dans une heure, nous avons l'intensité de trafic suivante:

equation   (67.224)

La charge moyenne (ou taux d'occupation) par caisse, sachant qu'il y en a deux, est donc de:

equation   (67.225)

C'est cette dernière valeur qui sera prise au final comme valeur du trafic A par station pour les calculs ultérieurs.

Les probabilités d'apparition d'appels et de fin d'appels qui ont été développées dans les paragraphes précédents permettent de modéliser le processus complet d'apparition et de fin d'appels.

NOTATION DE KENDALL

Une notation a été développée par Kendall pour représenter les files d'attente suite aux développements intensifs (et nombreux) des modèles mathématiques les concernant. La forme réduite de cette notation est:

A/B/C

A représente le processus d'arrivée des clients dans le système (loi de distribution), B représente la distribution du temps de service des clients du système (loi de distribution) et C le nombre de serveurs du système.

Par exemple, la notation M/M/1 signifie que les clients arrivent dans le système selon une loi de Poisson modélisée par une chaîne de Markov (cf. chapitre de Probabilités), que le temps de traitement suit une distribution de type exponentiel (modélisé par une chaîne de Markov aussi) et le système constitué d'un seul serveur selon le principe du premier arrivé premier servi dans une file d'attente à population infinie et régime permanent. Ce qui correspond respectivement aux trois relations suivantes que nous avons démontrées plus haut pour la probabilité d'arrivée de k appels dans un temps donné:

equation   (67.226)

la probabilité que le temps de traitement (temps de service) soit égale à une certaine valeur:

equation   (67.227)

et la probabilité d'avoir k clients (communications):

equation   (67.228)

La lettre M est utilisée pour indiquer que les processus employés sont du type markovien (sous-entendu exponentiels).

En général, nous utilisons la notation:

A/B/C/d:e

d représentant le nombre maximum de clients pouvant être présents simultanément dans le système. Ce nombre entier varie entre 1 et l'infini. Quand la capacité mémoire de la file est considérée comme illimitée, ce paramètre est souvent omis. Quant à e, il représente la discipline de service. Par exemple:

-  FIFO pour premier arrivé, premier servi (First In-First Out appelé aussi FCFS pour First Come-First Serve). Tous les modèles théoriques que nous allons développer ci-dessous seront de type FIFO!

- LIFO pour dernier arrivé premier servi (Last In-First Out appelé aussi LCFS pour Last Come-First Serve)

- SJF pour servir le travail le plus court d'abord (Shortest Job First)

- SRO pour servir en ordre aléatoire (Service in Randon Order)

et encore d'autres...

Ce dernier paramètre est omis si la discipline est FIFO. Ainsi, M/M/1 s'écrirait sans rien omettre:

equation

On trouve également des variantes dans la littérature de la définition ci-dessus ce qui n'aide pas toujours à la lecture...

MODÉLISATION DES ARRIVÉES ET DÉPARTS M/M/1

À chaque instant un certain nombre d'appels vont apparaître et d'autres vont se terminer. Nous pouvons donc modéliser l'état où l'on se trouve à un instant donné comme une chaîne d'états.

Chaque état représente le nombre d'appels en cours. Nous concevons donc bien que si, à un instant donné, il y a k appels, nous ne pouvons passer que dans deux états adjacents selon nos hypothèses: k-1 et k+1.

Nous reconnaissons alors une chaîne de Markov (cf. chapitre de Probabilités). La probabilité de passer d'un état i à un état j pendant un temps dt sera donc notée:

equation   (67.229)

Nous introduisons alors les probabilités de transition d'état suivantes:

- Étant dans l'état k, la probabilité equation pour passer à l'état k + 1 durant un intervalle de temps dt sera notée equation

- Étant dans l'état k, la probabilité equation pour passer à l'état k-1 durant un intervalle de temps dt sera notée equation

- Étant dans l'état k + 1, la probabilité equation pour passer à l'état k durant un intervalle de temps dt sera notée equation

- Étant dans l'état k - 1, la probabilité equation pour passer à l'état k durant un intervalle de temps dt sera notée equation

equation
Figure: 67.30 - Schéma de principe

Les grandeurs equation et equation sont des taux d'arrivée (apparition) et de départ (fin) d'appels du même type que ceux utilisés lors des paragraphes précédents. La seule différence tient au fait que ces taux ont en indice l'état où se trouve le système.

Nous pouvons alors introduire la probabilité d'état, c'est-à-dire la probabilité d'être dans un état k à un instant t. Notons pour cela equation cette probabilité (à rapprocher de la notation equation utilisée pour les chaînes de Markov à temps discret dans le chapitre de Probabilités).

La variation de cette probabilité durant un intervalle de temps dt est alors égale à la probabilité de rejoindre cet état en venant d'un état k-1 ou d'un état k+1 moins la probabilité de quitter cet état pour aller vers un état k-1 ou vers un état k+1.

Ce qui s'écrit:

equation   (67.230)

En supposant le système stable, c'est-à-dire en supposant qu'il se stabilise sur des probabilités d'état fixes lorsque le temps tend vers l'infini, nous pouvons écrire que:

equation   (67.231)

Nous pouvons alors noter equation d'où finalement:

equation   (67.232)

Nous aurions pu introduire cette dernière relation d'une autre manière: Elle exprime simplement le fait que la probabilité de partir d'un état est égale à celle pour y arriver (c'est peut-être plus simple ainsi).

Cette relation est vérifiée pour tout equation avec les conditions mathématiques suivantes (car sinon ces termes n'ont aucun sens mathématique):

equation   (67.233)

et la condition logique réelle suivante (des appels non encore existants ne peuvent finir...):

equation   (67.234)

Remarque: Insistons sur le fait que la stabilité des probabilités signifie qu'il y a une probabilité égale de quitter l'état equation que de le rejoindre.

En écrivant le système d'équation précédent, nous trouvons:

equation   (67.235)

Nous trouvons alors assez facilement la forme générale:

equation   (67.236)

Le système se trouvant obligatoirement dans un des états nous avons la relation suivante qui doit obligatoirement être respectée:

equation   (67.237)

En remplaçant avec la relation antéprécédente:

equation   (67.238)

Ce qui donne aussi:

equation   (67.239)

et donc:

equation   (67.240)

Si nous considérons maintenant un système avec une seule ligne et de capacité infinie (régime permanent), les grandeurs equation (taux d'arrivée des appels) et equation (taux de départ des appels) auront des valeurs identiques pour tout k. C'est-à-dire que nous considérons que le taux d'arrivée ainsi que le taux de départ sont constants quelle que soit la position dans laquelle on se trouve dans la file d'attente. Nous avons alors la dernière relation qui se simplifie:

equation   (67.241)

En utilisant le résultat démontré dans le chapitre sur les Suites Et Séries (série de Gauss) nous avons sous des conditions précises nécessaires de convergence (A doit être strictement plus petit que 1):

equation   (67.242)

Puisque k représente le nombre d'appels, cette dernière relation donne la probabilité d'avoir 0 appel (clients) pour un trafic permanent donné A sur la ligne.

En utilisant:

equation   (67.243)

nous avons alors en toute généralité pour ce type de système la probabilité d'avoir k appels en régime permanent qui est donné par:

equation   (67.244)

Il en vient que l'espérance du nombre de communications (clients) dans le système (dans la queue + en service) est alors par définition de l'espérance:

equation   (67.245)

puisque equation représente la probabilité pour qu'il y ait à tout instant k appels dans le système (file d'attente + en service). Or, nous avons vu dans le chapitre sur les Suites et Séries que:

equation   (67.246)

et si q est strictement inférieur à 1 et que n tend vers l'infini, nous avons immédiatement:

equation   (67.247)

Si nous dérivons cette dernière relation:

equation   (67.248)

et en multipliant par q il vient alors:

equation   (67.249)

Il vient alors au final pour l'espérance du nombre de clients dans le système:

equation   (67.250)

Si nous souhaitons connaître l'espérance du nombre de clients en attente dans la queue uniquement, il faut bien comprendre qu'à chaque instant nous avons donc une probabilité equation qu'il y ait k clients dans le système mais comme 1 parmi ceux-ci est alors toujours en service (donc hors de la queue d'attente) il reste que nous en avons toujours k-1 réellement en attente. Donc:

equation   (67.251)

Connaissant le nombre de communications (ou de clients) que nous avons sur l'unique ligne dans tout le système, nous avons alors l'espérance du temps d'attente (temps d'attente moyen), notée E(T) qui sera donnée par le rapport de l'espérance du nombre de communications (clients) en régime permanent sur la ligne E(C) par le taux d'arrivée des appels.

equation   (67.252)

Ce résultat, appelé "relation de Little" (ce dernier ayant démontré rigoureusement que la relation est valable pour n'importe quel type de file d'attente), est intuitif dans le cas présent. Effectivement, prenons un appel type au hasard. Quand il arrive dans le système, il va se trouver statistiquement face à E(C) en train d'attendre. Quand il quittera le système, il y aura été un temps moyen  E(T). Donc pendant ce temps moyen, equation appels seront arrivés derrière lui dans le système. En régime permanent, le nombre d'appels laissés derrière lors du départ doit égaler le nombre d'arrivées. D'où l'égalité equation dont on déduit alors immédiatement la relation de Little.

Nous avons alors pour l'espérance du temps d'attente dans le système:

equation   (67.253)

Pour déterminer le temps d'attente dans la queue seule, il suffit de soustraire le temps de traitement/service de par la propriété de linéarité de la moyenne (durée d'appel moyenne en service):

equation   (67.254)

Pour résumer, car il y a beaucoup de paramètres et résultats, nous avons donc pour une file d'attente de type M/M/1 (selon la notation de Kendall):

Information

M/M/1

Probabilité système vide

equation

Probabilité d'attente

A

Nombre moyen de clients dans le système

equation

Nombre moyen de clients en attente

equation

Nombre moyen de clients en service

A

Temps moyen de séjour dans le système

equation

Temps moyen d'attente dans la queue

equation

Condition d'atteinte de l'équilibre

equation

Probabilité d'avoir k clients

equation

Tableau: 67.15 - Résumé des relations importantes d'une file M/M/1

Nous voyons que certaines relations divergents vers l'infini lorsque le trafic permanent A (rapport des entrées sur) tend vers l'unité. Raison pour laquelle nous avions imposé plus haut que ce paramètre soit strictement inférieur à l'unité.

Il faudrait pour chaque type possible de file d'attente faire les démonstrations détaillées des relations correspondantes ce qui est long et laborieux (c'est un métier/spécialisation à part entière et il exixte des ouvrages de plus de 400 pages sur le sujet).

exempleExemple:

Supposons que l'on dispose d'une machine à commande numérique traitant des pièces une à la fois. Supposons que equation (nombre de pièces arrivant en moyenne par heure) et que equation (nombre de pièces sortant en moyenne par heure). Nous avons alors:

equation   (67.255)

ce qui correspond au trafic ou taux d'occupation de la machine. Donc il y a 20% de probabilité pour que le système soit vide et 80% de probabilité pour qu'il y ait une attente.

equation   (67.256)

ce qui correspond donc au nombre moyen de pièces dans le système (machine + en attente).

equation   (67.257)

ce qui correspond donc au nombre moyen de pièces en attente en dehors de la machine.

equation   (67.258)

ce qui correspond à un temps moyen de séjour de 30 minutes dans le système.

equation   (67.259)

ce qui correspond à une attente moyenne de 24 minutes dans la file d'attente.

Et la probabilité qu'il y a ait 5 pièces dans le système (exécution + attente):

equation   (67.260)

PROBABILITÉ DE MISE EN ATTENTE M/M/k/k (FORMULE D'ERLANG-B)

Nous allons nous intéresser ici à un système disposant de N canaux de communication (chaque canal est censé supporter un débit de un appel avec réponse immédiate). Si les N canaux sont occupés, les appels qui arrivent sont considérés comme perdus (absence de tonalité par exemple). Nous parlons alors de blocage ou ruine du système. Il s'agit donc d'une file d'attente limitée de type M/M/k/k selon la notation de Kendall, appelée également "système à perte".

Nous allons chercher à estimer cette probabilité de blocage en fonction du nombre de canaux disponibles et du trafic.

Compte tenu de ce qui a été énoncé sur le caractère sans mémoire du processus d'arrivée d'appels, nous pouvons considérer que la probabilité:

equation   (67.261)

d'avoir k appels à l'état k est indépendante de l'état du système tel que:

equation   (67.262)

Ainsi, à chaque état k du système la loi de probabilité de type Poisson est valable. La différence de traitement c'est que plutôt que de considérer des états, nous allons considérer qu'un canal de communication peut être envisagé comme un état propre.

Pour la probabilité de fin d'appel, nous avons par contre:

equation   (67.263)

Effectivement, cette probabilité traduit juste le fait que si k appels sont en cours chacun a une probabilité equation de se terminer, d'où la somme qui donne equation. Nous avons alors:

equation   (67.264)

Ainsi, en injectant ces relations dans:

equation   (67.265)

il vient:

equation   (67.266)

En introduisant alors (qui doit être strictement inférieure à 1 si nous voulons que les développements suivants convergent vers une valeur finie: chaîne de Markov ergodique):

equation   (67.267)

qui représente pour rappel le nombre d'appels qui apparaissent sur le nombre d'appels qui se terminent pendant un intervalle de temps (temps de service moyen), ce qui représente en fait tout simplement le trafic (ou autrement dit: l'intensité de trafic), il vient alors:

equation   (67.268)

ou encore en introduisant le 1 dans la sommation:

equation   (67.269)

Puisque k représente le nombre d'appels, cette dernière relation donne la probabilité d'avoir 0 appel (clients) pour un trafic permanent donné A dans le système.

En reportant equation dans l'expression suivante de equation (probabilité d'être dans l'état k donc...) obtenue plus haut:

equation   (67.270)

il vient:

equation   (67.271)

et en considérant le caractère sans mémoire, nous avons la relation:

equation   (67.272)

Il vient:

equation   (67.273)

où les k peuvent malheureusement porter à confusion. Il convient de faire un peu le ménage. Au numérateur, le k fait référence au nombre de canaux (serveurs, lignes, opérateurs ou terminaux) et au dénominateur le N aussi. Il convient donc de réécrire cela de manière plus convenable:

equation   (67.274)

qui donne donc la probabilité de mise en attente (et donc de saturation/blocage) d'un système disposant de N canaux à capacité finie selon le principe du premier/arrivé premier servi (FIFO: First In/First Out) et pour un trafic A (exprimé donc en "Erlang") et dans lequel les communications sont perdues si mises en attente.

Cette relation est parfois notée dans les ouvrages spécialisés sous la forme:

equation   (67.275)

Cette relation est très importante en théorie des files d'attente et porte le nom de "formule d'Erlang-B".

equation
Figure: 67.31 - Probabilité de saturation (plot de la fornction Erlang-B)

Elle est à la base du dimensionnement des réseaux à commutation de circuits. En effet, le problème du dimensionnement d'un commutateur de circuits est le suivant: Étant donné le trafic en nombre de communications par unité de temps A en Erlang, trouver le nombre d'unités de service k tel que la probabilité qu'un appel arrive dans un système devenu bloquant soit inférieur à une certaine valeur.

La probabilité obtenue représente alors la qualité de service offerte par le réseau du point de vue de l'usage. Quant au trafic A, il est estimé en fonction du nombre de postes téléphoniques existants et/ou à venir sur la base d'une activité moyenne par poste et par application (téléphone, télécopieur, terminal, serveur informatique, etc.).

exempleExemple:

E1. Quelle est la probabilité de saturation d'une hotline (dont la durée de service suit une loi exponentielle et la distribution des arrivées suit une loi de Poisson) sachant que le trafic A de la ligne est estimé à 2 Erlang (1 appel par heure pour 1 appel traité par ½ heure - donc rapport de 2 sur 1) pour une seule ligne téléphonique (N=1) en utilisant le modèle d'Erlang-B?:

equation   (67.276)

E2. Dans une entreprise, on a dénombré aux heures de pointe 200 appels d'une durée
moyenne de 6 minutes à l'heure (temps de service moyen). Quelle est la probabilité de saturation avec 20 opérateurs (sachant que la durée de service suit une loi exponentielle et la distribution des arrivées une loi de Poisson)?

La plus grosse difficulté ici est de calculer le trafic! Il y a donc 200 appels par heure avec 10 appels traités seulement par heure (puisque 6 minutes par appel dans une heure de 60 minutes font 10 appels). Le trafic A est donc de 200/10 soit 20 Erlang. En appliquant alors la relation précédente, nous avons:

equation   (67.277)

Dans l'industrie, on admet un taux de saturation de 0.01%. En jouant avec un tableur comme Microsoft Excel et l'outil Valeur cible, nous trouvons rapidement que N doit alors être égal à 30.

PROBABILITÉ DE MISE EN ATTENTE M/M/k/∞ (FORMULE D'ERLANG-C)

Considérons maintenant un système pour lequel les appels peuvent être mis en d'attente avant d'être servis lorsque les k serveurs sont bloqués. Il s'agit donc d'une file d'attente à capacité illimitée de type M/M/k/∞ selon la notation de Kendall.

Avec ce système, nous avons toujours:

equation   (67.278)

mais pour la probabilité de fin d'appel l'analyse devient plus subtile. D'abord il y a la probabilité que les appels qui se trouvent sur les canaux N disponibles cessent et qui est donnée par:

equation   (67.279)

Mais dès que le nombre d'appels est plus grand que le nombre de canaux de communication disponible, la probabilité que cessent les appels est:

equation   (67.280)

Ce qui exprime que quel que soit le nombre d'appels, N ont la probabilité d'être mis en attente dès que k (le nombre d'appels) est supérieur ou égal à N.

Ainsi, pour résumer:

equation   (67.281)

En utilisant:

equation   (67.282)

Nous obtenons par décomposition du terme produit:

equation   (67.283)

D'où finalement:

equation   (67.284)

En utilisant l'expression de equation:

equation   (67.285)

Nous pouvons décomposer la sommation:

equation   (67.286)

et décomposer le deuxième produit:

equation   (67.287)

Sous l'hypothèse que:

equation  (67.288)

La somme:

equation   (67.289)

peut être simplifiée. Effectivement, en posant:

equation   (67.290)

il vient:

equation   (67.291)

et comme nous l'avons montré lors de notre étude de la fonction Zeta (cf. chapitre de Suites Et Séries) cette somme peut s'écrire sous la forme:

equation   (67.292)

Donc:

equation   (67.293)

Donc finalement:

equation   (67.294)

Puisque k représente le nombre d'appels, cette dernière relation donne la probabilité d'avoir 0 appel (clients) pour un trafic permanent donné A dans le système.

Nous avons donc pour equation:

equation   (67.295)

La probabilité cumulée de mise en file d'attente se note C(N, A). Elle est égale à:

equation   (67.296)

en procédant exactement comme dans les paragraphes précédents, nous avons finalement:

equation   (67.297)

qui donne donc la probabilité de mise en attente (et donc de saturation/blocage - c'est-à-dire que tous les serveurs sont bloqués) dès l'arrivée dans un système disposant de N canaux à capacité infinie selon le principe du premier arrivé/premier servi (FIFO: First In/First Out) et pour un trafic A (exprimé donc en "Erlang") et dans lequel les communications peuvent être mises en attente (à l'opposé du modèle Erlang-B). Cette dernière relation est appelée "formule d'Erlang-C". Traditionnellement on note:

equation   (67.298)

le "W" venant de l'anglais "Wait" (attendre).

Le modèle proposé ci-dessus est bien évidemment critiquable, car en réalité la capacité de la file d'attente est finie et certains clients abandonnent lorsque l'attente est trop longue.

exempleExemple:

Si nous prenons un taux d'arrivée de 1 appel par minute et une durée moyenne de service de 5 minutes, nous avons alors:

equation   (67.299)

Si nous prenons un nombre N de 7 serveurs, nous avons:

equation   (67.300)

Donc 32.41% de probabilité cumulée d'être mis en attente. Ce qui un peu beaucoup... (une règle empirique consiste à chercher le nombre N de serveurs afin que cette dernière valeur descende en dessous des 20%).

ASSURANCES

L'assurance est une opération pour laquelle une personne (l'assureur) groupe en mutualité d'autres personnes (les assurés) afin de les mettre en situation de s'indemniser mutuellement des pertes éventuelles (les sinistres) auxquelles les expose la réalisation de certains risques, au moyen des sommes (primes ou cotisations) versées par chaque assuré à une masse commune gérée par l'assureur.

Le dénominateur commun de la majorité des lois définit le contrat d'assurance comme un contrat en vertu duquel, moyennant le paiement d'une prime fixe ou variable, une partie, l'assureur, s'engage envers une autre partie, le preneur d'assurance, à fournir une prestation stipulée dans le contrat au cas où surviendrait un événement incertain que selon le cas, l'assuré ou le bénéficiaire, a intérêt à ne pas voir se réaliser.

Évidemment, l'opération d'assurance a pour effet le transfert (total ou partiel) des conséquences financières du risque subi par l'assuré vers une société d'assurance. Dès lors, à la souscription du contrat, l'assureur et l'assuré conviennent:

- D'un événement ou d'une liste d'événements, repris dans la police d'assurance, et garantis par l'assureur.

- D'une prime payée par l'assuré à l'assureur.

Les dépenses prises en charge par l'assureur peuvent correspondre:

- Soit à des indemnités à verser à des tiers, au titre de la responsabilité (civile, professionnelle ou autre) de l'assuré.

- Soit à la réparation des dommages subis par ce dernier.

Les hypothèses d'usage de l'assurance sont les suivantes:

H1. D'un point de vue juridique, un contrat d'assurance est un "contrat aléatoire" valide uniquement pour couvrir des risques ayant une composante aléatoire.

H2. La "règle du jeu" du risque doit être stable dans un laps de temps considéré comme long (au moins quelques années).

H3. La perte maximale possible ne doit pas être trop importante par rapport à la marge de solvabilité de l'assureur.

H4. La prime moyenne du risque doit être identifiable et quantifiable selon des variables statistiques explicatives bien choisies afin éventuellement de permettre une segmentation de la gestion des risques (petite anecdote: lorsque les actuaires sont critiqués pour leurs pratiques de ségmentation, nous entendons souvent la réponse: "nous ne faisons pas de la discrimination, mais de la différenciation"...).

H5. Les risques doivent être indépendants (et s'ils sont identiques distribués en termes de probabilités et de pondération c'est mieux...) et démontrables comme étant tels significativement en utilisant les outils statistiques.

H6. Il doit exister un marché dans le sens que l'offre et la demande d'assurance doivent arriver à un prix d'équilibre (en quelque sorte l'équivalent de l'absence d'opportunité d'arbitrage en finance).

H7. L'espérance mathématique est considérée comme le prix de la prime pure juste à faire payer aux assurés.

Définitions:

D1. La "prime pure" est dans le domaine de l'assurance choisie comme étant l'espérance mathématique de la charge; elle correspond à la prime minimale que peut demander un assureur pour ne pas, statistiquement, faire ruine de façon certaine.

D2. Le "chargement de sécurité" est le montant qui vient s'ajouter à la prime pure et permettant à l'assureur de pouvoir résister à la volatilité des remboursements.

D3. Le "chargement de frais de gestion" est le montant qui vient s'ajouter aux deux précédents et est lié au fonctionnement de leur société, de la gestion des contrats, du recouvrement des primes, du placement des actifs (prime technique de base), des taxes...

D4. Le "chargement de frais commerciaux" vient s'ajouter aux trois précédents et est lié à l'acquisition des contrats (commissions des intermédiaires, frais des réseaux commerciaux, publicité).

D5. Au final, l'ensemble des coûts se retrouve dans la "prime commerciale" qu'est celle communiquée au client.

Nous pouvons déjà en conclure que dans le cas d'un système d'assurance étatique obligatoire ou facultatif, les frais de gestion et commerciaux seront toujours inférieurs, sous l'hypothèse d'une méthode managériale égale, à un système privé.

CALCUL DE PRIME

L'assureur ne connaît donc pas exactement le montant des sinistres qui va survenir. En tarifant les contrats au niveau de la prime pure (et en supposant une distribution des pertes symétriques), l'assureur perd de l'argent une année sur deux. En l'absence de fonds propres, cette situation conduirait immédiatement à la faillite.

Pour se protéger, l'assureur ajoute donc à sa prime un chargement de sécurité. De nombreuses méthodes permettant de le déterminer sont possibles, aucune n'ayant à ce jour supplanté largement les autres:

- Chargement proportionnel à la prime pure. Le coefficient de proportionnalité reflète l'idée que l'assureur a de la volatilité du risque.

- Chargement dépendant de l'écart-type des pertes. Cette méthode est une légère formalisation de la précédente. Elle pose problème, car elle introduira un chargement de sécurité qui dépendra des cas de gains (perte réelle inférieure à la prime pure)

- Chargement dépendant d'un certain quantile des pertes (par exemple le troisième quartile). Un tel chargement permet de garantir que la prime sera suffisante dans un nombre de cas déterminé à l'avance, mais ne donne aucune information sur les cas de pertes techniques.

Considérons le cas où la population serait hétérogène, in extenso deux classes equation de risque coexistent dans la population de poids respectifs equation avec bien évidemment:

equation   (67.301)

Considérons une assurance maladie avec deux catégories d'assurés (jeunes en bonne santé A /seniors à risque B).

Pour simplifier l'exemple à l'extrême, imaginons que l'assureur sait, à l'aide de ses statistiques internes, qu'un individu du groupe A va coûter à l'assurance une somme définie par une loi de distribution statistique que nous noterons dans le cadre de ce chapitre:

equation   (67.302)

Soit à tout coût x est associée une certaine probabilité cumulée donnée par la fonction equation. De même pour le groupe B:

equation   (67.303)

Si nous prenons alors au hasard un individu dans le portefeuille, si equation désigne le groupe (notation traditionnelle en assurance), l'assureur devrait donc réclamer en primes pures pour le groupe A:

equation   (67.304)

soit l'espérance de la fonction equation.

Idem pour le groupe B:

equation   (67.305)

Et pour un individu pris au hasard dans les deux groupes:

equation   (67.306)

Ce dernier cas étant appelé "mécanisme de solidarité". Ainsi, les bons risques paient pour les mauvais risques...

La variance de la prime pure sera elle donnée par la relation démontrée dans le chapitre de Statistiques lors de l'étude des propriétés de la variance (variance de deux séries statistiques):

equation   (67.307)

où nous voyons que le terme:

equation   (67.308)

au numérateur correspond à l'homogénéité des deux groupes. Et donc que l'hétérogénéité fait accroître la variabilité de la prime pure dans le mécanisme de solidarité.

Imaginons maintenant le cas où:

equation   (67.309)

et une assurance privée (1) qui pratique le mécanisme de solidarité et une autre assurance (2) qui ne le pratique pas. Dans le cas présent, nous devons distinguer deux situations d'un point de vue économique:

Si tous les assurés sont rationnels (sous-entendus un peu... égoïstes) alors:

- Les jeunes en bonne santé représentant le groupe A vont aller chez l'assurance privée (2) qui a segmenté les risques et permet donc aux jeunes de payer moins cher.

- Les seniors en moins bonne santé représentant le groupe B vont allez chez l'assurance privée (1) qui n'a pas segmenté les risques, mais qui par idéologie a appliqué le principe de solidarité.

La conclusion est que l'assurance privée (1) va rapidement faire faillite car:

- Les bons risques ne compensent plus le rabais de solidarité par égoïsme

- Nous sommes sur un marché concurrentiel où les assurances ne sont pas idéologiques...

Ce constat s'appelle le "problème d'anti-sélection" ou de "sélection inverse" basée sur l'approche G. Akerlof, prix Nobel d'Économie en 2001.

La conclusion est que la privatisation des assurances basées sur un principe étatique (législation) de solidarité ne peut pas fonctionner sans engendrer des coûts supplémentaires aux primes pures à cause d'une anti-sélection périodique qui engendre un flux constant d'assurés d'une assurance à une autre et donc engendre des coûts administratifs et informatiques phénoménaux! Donc en tout point la suppression de la concurrence reste meilleure en terme de solidarité mais par contre pas en termes d'emplois pour les salariés des assurances (qui se trouveraient alors en grande majorité au chômage...).

Ainsi, la suppression de la concurrence pour des services d'assurances qui ont toutes des prestations de qualité équivalentes (comme c'est le cas pour l'assurance maladie en Suisse par exemple...) élimine le principe d'anti-sélection, applique de manière concrète le mécanisme de solidarité voulu par l'état et enfin diminue les coûts administratifs dus aux va-et-vient des assurés et des développements d'outils informatiques de gestion maison coûtant des millions à chaque assurance et qui engendrent des coûts qui au final sont répercutés sur le prix de la prime commerciale!

À ceci, il faut rajouter que pour diminuer la volatilité globale (écart-type global), une assurance devrait en théorie segmenter les risques à l'infini ce qui en fait un système non viable pour certains domaines particuliers de l'assurance.

Mais il faut se rappeler que cette conclusion n'est valable que si les prestations des assurances sont identiques (ou quasi similaires) sur un marché donné!

Signalons également un souci récurrent dans le domaine des assurances, appelé "aléa moral", qui se base sur le constat que les personnes qui s'assurent ont tendance à être moins prudentes que les personnes qui ne s'assurent pas. En d'autres termes, l'assurance génère du risque.

PRISE EN COMPTE DE L'EXPERIENCE

Pour l'instant, pour déterminer une prime d'assurance, nous avons noté qu'il était possible d'intégrer des variables exogènes (sexe, âge, enfants, puissance du véhicule, nationalité, environnement, etc.).

Mais un point important à ne pas négliger est le retour d'expérience des sinistres d'un assuré. Voyons en un exemple concret.

Supposons que le nombre de sinistres sur un an, pour un assuré donné, suive une loi de Poisson (loi des événements rares) donnée pour rappel par (cf. chapitre de Statistiques):

equation   (67.310)

ce qui se note dans le domaine des assurances:

equation   (67.311)

Supposons que  la population des assurés est séparée en trois classes de risques suivant chacune une distribution de Poisson telle que:

equation   (67.312)

En d'autres termes, il y a 70% de la population totale qui suit une loi de Poisson d'espérance 1 (classe de bons risques), 20% qui suit une loi de Poissons d'espérance 2 (classe de risques moyens), et 10% qui suit une loi de Poisson d'espérance 3 (classe de mauvais risques).

Évidemment l'espérance globale d'un individu du portefeuille est alors de l'espérance de la "distribution mixte":

equation   (67.313)

Supposons que les coûts d'un incident soient fixes et de type indemnitaires de 1'000.-. Nous pouvons alors nous demander quelle devrait être la prime pour un assuré, sachant que la première année, il a eu 2 sinistres. Ce qui revient à se demander, quel est le nombre d'accidents qu'il risque d'avoir la deuxième année.

Si nous notons equation le nombre d'accidents de la première année, et equation le nombre d'accidents a posteriori connaissant equation nous nous retrouvons donc avec un problème de probabilité conditionnelle (une démarche bayésienne autrement dit...) conforme à ce que nous avons étudié dans le chapitre de Probabilités:

equation   (67.314)

où nous avons adopté conformément à la tradition dans le domaine la notion de "|" pour signaler la probabilité conditionnelle.

Mais nous ne pouvons pas calculer le numérateur, car nous ne savons pas à l'avance quelle sera la valeur de equation. Nous allons donc calculer l'espérance conditionnelle espérée afin de contourner ce problème:

equation   (67.315)

Nous avons d'abord:

equation   (67.316)

Ce dernier calcul (espérance de la distribution mixte) étant noté dans le domaine de l'assurance de la manière suivante:

equation   (67.317)

Si nous considérons les deux variables aléatoires comme indépendantes:

equation   (67.318)

Il vient alors immédiatement que:

equation   (67.319)

Nous retombons donc sur une valeur connue correspondant à la prime pure:

equation   (67.320)

identique au calcul de:

equation   (67.321)

Donc les variables aléatoires equation sont confondues avec celle de la classe de risque!

Ce système n'est alors bien évidemment pas conforme au bonus-malus. Nous devons alors considérer que les deux variables aléatoires ne sont pas indépendantes (au fait c'est la définition même du bonus-malus!).

Ainsi, si les deux variables aléatoires ne sont pas indépendantes, nous avons:

equation   (67.322)

Et alors:

equation   (67.323)

À comparer avec la prime pure sans bonus-malus de 1.4!

Ce qui est délicat avec cette méthode, c'est que lorsque l'on cumule les années... cette approche bayésienne devient pénible. Effectivement, imaginons que nous souhaiterions déterminer la prime pure de la troisième année sachant que la deuxième année, l'assuré a eu 1 accident. Nous avons alors l'espérance conditionnelle:

equation   (67.324)

que nous laissons le soin au lecteur de développer...

Nous remarquons de ce qui a été vu ci-dessus que l'espérance d'une distribution mixte définie par:

equation   (67.325)

est donc trivialement:

equation   (67.326)

FACTEUR D'ACTUALISATION D'UNE ASSURANCE RETRAITE

Recherchons maintenant quelque chose qui n'a absolument rien à voir avec ce que nous venons de calculer et qui est le "facteur d'actualisation" par lequel nous devons diviser un solde d'épargne au début de la retraite, pour répartir ce montant sur chaque année durant la retraite, selon l'espérance de vie ainsi que les taux d'intérêt et d'inflation. L'approche ici sera donc de simplifier en se questionnant sur quel niveau d'épargne il sera nécessaire d'avoir accumulé au début de la retraite pour obtenir une rente de 1.- (réelle) chaque année durant la retraite. C'est à partir de ce niveau d'épargne nécessaire pour recevoir 1.- qu'il sera possible d'utiliser n'importe quel solde d'épargne pour dériver quelle rente sera disponible à l'épargnant.

En premier lieu, nous allons définir les paramètres utilisés:

- m Nombre de périodes à la retraite (années ou mois)
- equation Solde d'épargne à la période k
- p Prestation périodique (que nous supposerons ici annuelle)
- i Taux périodique d'inflation (supposé ici constant et annuel)
- R Taux de rendement moyen géométrique du marché (supposé constant et annuel)
- equation Facteur d'actualisation à l'âge m

Ainsi, comme mentionné plus haut, nous sommes à la recherche du niveau d'épargne initial, equation, qui permettra d'obtenir une prestation périodiques (donc annuelle dans le cas présent), p, égale à 1.- indexée sur l'inflation i.

En commençant à partir du solde initial equation, en présumant que les prestations sont versées au début de l'année (praenumerando), nous pouvons dériver le solde restant à la fin de la première période de retraite ainsi:

equation   (67.327)

Plus précisément, le retraité aura encaissé un montant p pour la première période, laissant le résiduel être exposé au rendement moyen géométrique du marché R.

Ensuite, d'une manière similaire et en considérant que les prestations sont indexées sur l'inflation i, nous pouvons calculer ce solde en fin de deuxième période et de toute période k subséquente:

equation   (67.328)

ou:

equation   (67.329)

ou encore:

equation   (67.330)

et ainsi de suite... Il vient alors:

equation   (67.331)

ou autrement écrit:

equation   (67.332)

Ainsi nous avons, à un terme près, une série géométrique de raison q connue dans le dernier terme. Nous avons effectivement démontré dans le chapitre de Suites Et Séries que pour j allant de 0 à n celle-ci vaut :

equation   (67.333)

et donc:

equation   (67.334)

Il nous est donc possible de réécrire, pour la dernière période de retraite m, le solde de la manière suivante:

equation  (67.335)

Remarquons que dans le cas peu probable et particulier où le rendement moyen géométrique du marché est égal à l'inflation, c'est-à-dire si equation, nous avons:

equation   (67.336)

À ce stade, la raison pour laquelle le terme equation est un paramètre important est qu'il s'agit du solde du retraité à la fin de sa période de retraite, c'est-à-dire au décès (mort). Il sera ici présumé que le retraité ne planifie pas de legs et donc que

equation   (67.337)

Conséquemment, pour equation, cela revient à trouver S pour lequel:

equation   (67.338)

Nous pouvons alors établir dans ce cas que pour equation:

equation   (67.339)

Et dans le cas peu probable et particulier où le rendement moyen géométrique du marché est égal à l'inflation, c'est-à-dire si equation, nous avons:

equation   (67.340)

et nous déduisons un résultat logique:

equation   (67.341)

Pour la suite, revenons au cas réaliste où equation et donc avec:

equation   (67.342)

et notons:

equation   (67.343)

La relation antéprécédente s'écrit alors sous une forme un peu plus condensée:

equation   (67.344)

où:

equation   (67.345)

est donc le facteur d'actualisation. De plus, nous avons la relation suivante donnant l'espérance d'être en vie à l'age a (âge correspondant à l'âge supposé de décès dans le cas présent) démontrée dans le chapitre de Dynamique Des Populations:

equation   (67.346)

avec pour rappel la fonction e(a,s) représentant l'espérance de vie conditionnelle à l'âge a et pour le sexe s.

ASSURANCES DE RENTES

Nous allons maintenant étudier une rente qui n'est pas versée d'une manière certaine mais d'une manière "viagère", c'est-à-dire qui dépend de la survie de l'assuré. Il va donc falloir c'est multiplier chaque terme de rente par la probabilité qu'il lui soit versé.

Évidemment, dans la majorité des cas, ce qui va nous intéresser sera la "valeur actuelle" des rentes viagères afin de savoir ce que devra payer l'assureur (et donc ce qu'il devra avoir capitalisé). Il existe deux types de rentes viagères courantes. Nous allons voir en quoi consiste chacune. Mais avant cela, rappelons que nous avons vu dans le chapitre de Dynamique Des Populations que la probabilité d'être en vie à une x + 1 sachant qu'on est en vie à un age x est donné par:

equation   (67.347)

et rappelons (suite à la demande d'un lecteur) que la valeur actuelle d'un capital equation à taux constant payable dans 1 année est donné par (cf. chapitre d'Économie):

equation   (67.348)

Ce qui donne donc la somme à placer à un taux t% pour avoir après un an le capital equation.

En combinant probabilité de survie et valeur actuelle, nous pouvons définir dans le cas d'une rente la prime unique de la prestation comme étant:

equation   (67.349)

Si l'assuré est en vie à l'échéance, c'est l'assuré qui gagne au jeu (en réalité ils gagnent très souvent les deux...), dans le cas contraire c'est l'assureur (qui alors lui dans ce cas là est vraiment très gagnant!).

Bien évidement dans le cas ci-dessus, extrêmement simplifié, il n'y a qu'un seul versement de la part de l'assureur. Mais dans la réalité il peut y en avoir plusieurs (c'est ce que nous allons étudier), le versement de l'assuré peut ne pas être sous la forme d'une prime unique, le taux moyen géométrique du marché peut ne pas être constant (ce dernier cas étant traité normalement avec des simulations de Monte-Carlo).

Donc même si ce que nous allons voir est très simplifié par rapport à ce qui se fait dans les assurances par les actuaires, cela donne déjà une piste de recherche pour des modèles plus élaborés.

RENTE VIAGÈRE TEMPORAIRE

La rente viagère temporaire consiste pour l'assureur à verser des termes de rentes, tant que l'assuré est en vie mais au maximum durant n années après qu'il ait atteint un âge x donné mais tout de suite après que l'assuré ait payé sa prime unique (qui correspond justement à l'âge x en question). L'objectif est donc de déterminer le capital (valeur actuelle) que doit avoir amassé l'assureur au moment du commencement du paiement de ces rentes (ce capital pouvant aussi être demandé sous forme de paiements multiples plutôt que sous la forme d'une prime unique).

Évidemment ce cas est peu réaliste car peu de personnes vont payer une prime unique (grosse somme d'argent) à un moment x de leur vie pour commencer tout de suite à recevoir des rentes. Mais c'est pédagogiquement intéressant avant d'aborder le type de rente viagère différée et qui est un peu plus réaliste.

La rente viagère temporaire praenumerando (in extenso: la valeur actuelle de la rente viagère unitaire payable praenumerando tant que l'assuré est en vie mais au maximum pendant n années) est donnée par la relation suivante qui découle des développements effectués dans le chapitre d'Économie à la différence que l'on y trouve des coefficients de probabilité de survie:

equation   (67.350)

où pour rappel (cf. chapitre d'Économie), nous avons le facteur d'escompte (dans le cas présent nous devrions plutôt utiliser le terme de "facteur de capitalisation") qui est:

equation   (67.351)

En toute généralité, le terme (cf. chapitre de Dynamiques Des Populations):

equation   (67.352)

est appelé "valeur probable du capital différé".

La rente viagère temporaire postnumerando (valeur actuelle d'une rente viagère unitaire payable postnumerando tant que l'assuré est en vie mais au maximum pendant n années) est elle donnée par:

equation   (67.353)

exempleExemple:

Nous souhaitons verser une rente de 1'000.- durant 3 ans à un homme de 40 ans. La prime unique qu'il devra payer si ni l'intérêt, ni la mortalité n'interviennent dans les calculs, ensuite si seulement l'intérêt est considéré dans les calculs et enfin en prenant en compte l'intérêt et la mortalité est donnée respectivement par les trois relations suivantes:

equation   (67.354)

RENTE VIAGÈRE DIFFERÉE

Les rentes viagères différées constituent la majorité des contrats d'assurance de rentes. L'assuré s'acquitte toujours d'une prime unique, pour recevoir une rente s'il est en vie à un certain âge (à l'âge de sa retraite par exemple), donc commencer à recevoir la rente k années après avoir payé la prime unique, mais cette fois-ci jusqu'à son décès.

La rente viagère différée praenumerando (valeur actuelle d'une rente viagère unitaire différée de k années et payable praenumerando jusqu'à décès de l'assuré) est donnée par:

equation   (67.355)

equation est la dernière valeur (numéro de ligne) de la table de mortalité. Le lecteur remarquera peut-être que si nous posons = 1 (sans différé) et equation, nous retombons sur une rente viagère temporaire postnumerando equation.

Donc normalement pour un même âge x et une même durée de rente supposée, la valeur actuelle de la rente viagère différée (prime unique) est inférieur à celle de rente viagère temporaire et ce d'autant plus petit que le différé est grand.

La rente viagère différée postnumerando (valeur actuelle d'une rentre viagère unitaire différée de k années et payable postnumerando jusqu'à décès de l'assuré) est donnée par:

equation   (67.356)

Évidemment, les deux rentes ci-dessus ont la même fin car étant donné que c'est jusqu'à la mort, c'est difficile de payer en postnumerando de la mort...

Signalons encore qu'il est possible mathématiquement de créer une rente temporaire ET différée mais c'est rare et donc nous n'en ferons pas l'étude ici.

Remarque: Contrairement aux rentes certaines, il n'existe pas ici de formule simplifiée permettant un calcul rapide de ces rentes basées sur les tables de mortalité. L'utilisation d'un tableur ou la programmation de ces fonctions permet de calculer facilement les valeurs actuelles des prestations viagères. À l'époque où l'informatique n'avait pas cours, on construisait des tables appelées "nombre de commutations" qui permettaient d'obtenir les informations voulues.

En Savoir Plus

- Gestion de la production, V. Giard, Éditions Economica (2ème édition), ISBN10: 2717815279 (1068 pages) - Imprimé en 1988

- Statistiques descriptives pour les gestionnaires, V. Giard, Éditions Economica, ISBN10: 2717828893 (111 pages) - Imprimé en 1995

- Queueing Modelling Fundamentals (2ème édition), Éditions John Wiley & Sons, Ng Chee-Hock + Soong Boon-Hee, ISBN13: 9780470519578 (294 pages) - Imprimé en 2008


Haut de page

ECONOMIE (3/3) MUSIQUE MATHÉMATIQUE


Like2   Dislike0
66% sur 100%
Notée par 30 visiteur(s)
12345
Commentaires: [0] 
 
 


W3C - HTMLW3C - CSS Firefox
Ce travail est dans le domaine public
2002-2017 Sciences.ch

Haut de page