
GÉNIE MARIN & MÉTÉO | GÉNIE
MÉCANIQUE | GÉNIE ÉLECTRIQUE
GÉNIE ÉNERGÉTIQUE | GÉNIE
CIVIL | GÉNIE BIOLOGIQUE | GÉNIE
AÉROSPATIAL
GÉNIE CHIMIQUE | GÉNIE INDUSTRIEL |
GÉNIE LOGICIEL
74.
GÉNIE
INDUSTRIEL (2/2) |
Dernière mise à jour de ce chapitre:
2017-12-31 17:59:42 | {oUUID 1.798}
Version: 3.0 Révision 12 | Avancement: ~60%
vues
depuis le 2012-01-01:
8'879
LISTE
DES SUJETS TRAITÉS SUR CETTE PAGE
CONTRÔLE DE RÉCEPTION
Le "contrôle de réception" ou "contrôle
statistique des lots" est un domaine extrêmement
important, vaste et mathématiquement
technique du contrôle statistique de la qualité dans l'industrie
(alimentaire, pharma, biens de grande consommation) et des sociétés
de services (prestations à répétition, contrôles des processus,
sondages). Son but, selon la norme NF X06-021, est de permettre
l'application à un lot contrôle (de produits ou prestations) de
l'une ou l'autre des décisions suivantes: Acceptation ou Rejet à différentes étapes
d'une production/développement pour vérifier si un lot est recevable
pour les étapes suivantes ou pour vérifier le produit fini avant
envoi au client.
Remarque: Nous allons ici présenter
que les bases car les cas particuliers nécessitent un
bagage mathématique considérable! C'est
par ailleurs pour cette raison que de nombreuses entreprises
(PME ou multinationales) qui utilisent des étudiants stagiaires
ou employés
non mathématiciens pour définir les contrôles
qualité afin d'économiser
de l'argent se retrouvent par la suite avec des problèmes
considérables
au niveau du respect des lois et des normes! Cependant, ce que
nous allons présenter ici constitue le minimum-minimorum
de la connaissance de tout responsable ou ingénieur qualité ou
responsable du contrôle de la réception fournisseurs
actif dans une organisation quelconque (industrielle ou administrative)
sous peine d'avoir aucune crédibilité! Par
ailleurs méfiez vous des entreprises - particulièrement des
multinationales - qui recherchent des spécialistes
qualité maîtrisant Microsoft Excel ou Microsoft Access.
Car cela signifiera qu'elles utilisent des outils non professionnels pour
faire un travail
qui lui devrait
pourtant l'être avec
des outils adaptés (et Microsoft Excel ou Microsoft Access
ne le sont pas)!!! Donc
en termes d'organisation interne, vous pouvez vous assurer que
ces entreprises organisent et analysent n'importe quoi, n'importe
comment, avec un outil non adapté et donc que c'est le bordel général
en interne.
Le but du contrôle
de réception n'est pas d'estimer la qualité d'un lot mais uniquement
de l'accepter ou de le rejeter. Le contrôle de réception n'est
pas non plus un substitut aux méthodes de contrôle de procédé comme
les cartes de contrôle ou l'analyse de capabilité. Une utilisation
dynamique de ces derniers outils durant la fabrication aura pour
conséquence de réduire et, dans certains cas, d'éliminer les besoins
d'effectuer du contrôle de réception
Il existe principalement trois approches pour évaluer un lot:
- Soit accepter le lot sans inspection (utile dans des situations
où une relation de confiance absolue règne entre le client et le
fournisseur).
- Soit prélever un échantillon (échantillonnage)
et en tirer des conclusions sur le lot complet (utilité dans
la majorité des
cas car peu coûteux et motive fortement le fournisseur à améliorer
sa qualité mais il y a un risque à rejeter de bons
lots ou d'en accepter des mauvais). Par exemple PSA Mulhouse
contrôle 5% des véhicules qui sortent des ces usines chaque jour.
- Soit inspecter la totalité des individus du lot (utile quand
le fournisseur ne peut pas prouver qu'il maîtrise son procédé et
est capable de produire dans les spécifications ou quand la caractéristique
suivie est critique).
Pour que le résultat d'un contrôle d'un lot par échantillonnage
soit fiable, il est trivialement primordial que, lors du prélèvement
d'un échantillon d'individus, aucune préférence ne soit accordée à certains
individus du lot. Idéalement, chaque individu du lot doit avoir
la même probabilité d'être pris dans l'échantillon.
La ou les caractéristiques contrôlées peuvent être:
- Qualitatives (attributs): l'aspect d'un produit, la présence
ou l'absence d'un caractère non-conforme, le non respect d'un contrôle
de calibre, un résultat atteint ou non. Les individus sont alors
directement classés en conformes ou non-conformes repérés par le
nombre de défauts qu'ils comportement.
- Quantitatives (variables ou mesures): caractéristique mesurée
sur une échelle continue: volume, longueur, poids,...
Signalons enfin qu'il y a deux façons de classifier les
plans de réception. La première famille consiste à définir
les deux catégories suivantes:
- le "contrôle de la proportion d'individus
non-conformes par comptage" ou "contrôle
par attribut": Une ou
plusieurs caractéristiques de type qualitatif ou quantitatif sont
contrôlées sur chaque individu dans le but de le classer en conforme
ou non-conforme suivant certains critères. La décision est prise
d'après le nombre d'individus non-conformes trouvés dans le (ou
les) échantillons prélevés.
- le "contrôle de la proportion d'individus non-conformes
par mesurage" ou "contrôle par variable". Une caractéristique
est mesurée sur chaque individu d'un échantillon et la décision
est prise en fonction de la moyenne et de la dispersion de la caractéristique
calculée sur l'ensemble des individus prélevés.
Nous pouvons également classifier les plans de réception selon
le nombre d'échantillons prélevés.
- Un "plan d'échantillonnage simple" consiste à prendre n individus
dans le lot et de prendre une décision sur la base de ceux-ci.
- Un "plan d'échantillonnage double" consiste à prélever
un premier échantillon dans le lot et d'en tirer une des trois
conclusions possibles: (1) accepter le lot, (2) rejeter le lot,
(3) rééchantillonner. Si un second échantillon est prélevé, les
informations des deux échantillons sont rassemblées pour décider
d'accepter ou de rejeter le lot (si nous répétons cette stratégie,
nous parlons alors de "plan d'échantillonnage multiple").
- Un "plan d'échantillonnage progressif ou séquentiel" est
le cas extrême du plan d'échantillonnage multiple. Les unités sont
prélevées une à une et après chaque prélèvement une décision est
prise: (1) accepter, (2) rejeter, (3) prélever une nouvelle unité.
Exemple:
Un producteur de boissons gazeuses désire contrôler une propriété des
bouteilles qui lui sont fourniers. Pour cela, il utilise un plan
de réception simple avec contrôle de la proportion d'individus
non-conformes par mesurage quand un lot de bouteilles lui est livré:
1. Prélever un certain nombre n d'unités (bouteilles) du lot
(échantillonnage simple)
2. Mesurer à quelle pression chacune des n bouteilles éclate
(contrôle destructif)
3. Calculer des indicateurs statistiques des valeurs observées.
4. Suivre la règle de décision d'acceptation ou de rejet que
nous devrons déterminer.
Remarque: Comme les cartes de contrôle,
l'application d'un plan d'échantillonnage est un test d'hypothèse.
Il peut mener à des
décisions correctes ou fausses. Les risques encourus sont ceux
d'accepter un lot qui n'est pas conforme ou de rejeter un lot qui
est conforme.
Évidemment l'échantillonnage comporte des avantages et désavantages.
Voyons la liste des avantages les plus communs:
A1. Cela coûte moins cher car on ne contrôle pas tout...
A2. Il y a moins de manipulations des produits donc moins de
déchets
A3. Il y a besoin de mobiliser moins de personnes ou de machines
de contrôle
A4. Cela réduit considérablement les erreurs d'inspection
A5. Le retour d'un lot complet juste à cause d'un échantillon
non accepté à tendance à plus motiver le fournisseur à faire de
la qualité...
Mais cela comporte aussi des désavantages comme:
D1. Le risque d'accepter de mauvais lots et d'en rejeter des
bons...
D2. Requière plus de compétences des employés et des contrats
bien écrits...
PLAN D'ÉCHANTILLONNAGE
PAR MESURE SIMPLE POUR UNE UNIQUE TOLÉRANCE AVEC ÉCART-TYPE
CONNU
Pour ce type de plan d'échantillonnage, nous supposerons que
l'échantillon n est
beaucoup plus petit que le lot total (d'un facteur 10 au moins)
et que l'écart-type est connu!
La caractéristique X mesurée pour chaque individu de l'échantillon
est supposée suivre une loi Normale d'espérance et d'écart-type
et de variance identique et le calcul de ces deux derniers paramètres
est basé sur l'utilisation de la moyenne empirique (estimateur
de maximum de vraisemblance de l'espérance) et de l'estimateur
sans biais de l'écart-type (estimateur de maximum de vraisemblance
de l'écart-type). Cette hypothèse implique que le produit du fournisseur à une
fabrication sous contrôle statistique.
Exemple:
Dans le cadre de notre exemple, le producteur de boissons gazeuses,
il reçoit des lots de 10'000 bouteilles (donc l'échantillon satisfera
la condition susmentionnée).
Nous noterons:
et
(74.1)
Nous conviendrons que le client et le fournisseur se sont entendus
sur des limites de spécification (limites de tolérance). Nous noterons
comme à l'habitude ces limites USL et LSL.
Soit D la proportion (inconnue) de produits non-conformes
(défectueux), elle est donnée naturellement dans le domaine de
la maîtrise
statistique des procédés par:
(74.2)
Dans la pratique, afin d'économiser de l'argent dans le cadre
des tests de qualité nous essayons de réduire (reformuler) tout
problème de contrôle à un unique calibre. Au fait le problème peut
toujours avec ou sans reformulation se réduire à avoir une proportion
de non-conforme en dessous de LSL ou au-dessus de USL pour
rejeter le lot si la fabrication du fournisseur est bien sous contrôle
statistique. D'où le fait que dans la pratique les développements
mathématiques ne sont faits que par rapport à une seule borne que
nous noterons alors LSL pour "limite
de spécification
du lot".
Ainsi, nous réduisons les problèmes à (ou nous nous arrangeons à avoir
les problèmes qui se réduisent à cette formulation):
ou
(74.3)
Exemple:
Dans le cadre de notre exemple, le producteur de boissons gazeuses,
il s'agit de la résistance à la pression d'un lot de 10'000 bouteilles
que nous souhaiterions contrôler. Le producteur s'est mis d'accord
avec son fournisseur sur une limite de spécification inférieure
pour cette caractéristique, LSL valant 22.5, limite qu'une majorité des
bouteilles doit dépasser. Ainsi:
(74.4)
Nous supposons que des données passées ont permis d'estimer précisément
l'écart-type et que l'on peut donc le considérer comme connu et
valant 1.5 et qu'il est sous contrôle statistique.
Car évidemment si la proportion de non-conforme est supérieure
(respectivement inférieure) à ce que définit le contrat de qualité dans
une borne, elle le sera aussi à la borne opposée dans des proportions
identiques puisque le processus de fabrication du fournisseur est
par hypothèse sous contrôle statistique.
Avant de partir plus loin dans les développements mathématiques,
il y a une chose importante qu'il faut se rappeler:
Si nous nous imaginons être un fournisseur, il est évident
que nous souhaiterions avoir un niveau de qualité tel que
la probabilité cumulée
que le client rejette à tort un lot soit faible (car en
tant que fournisseur nous serons contractuellement obligés
de reprendre le lot même si un deuxième contrôle
ultérieur complet s'avère
qu'il a tort!). Pour cela, le fournisseur définit une
valeur du
pourcentage de produit non-conforme ("niveau
de qualité acceptable":
NQA) en dessous de laquelle il juge que le lot ne peut être refusé que
très
rarement. De plus, il définit également comme étant
la probabilité cumulée maximale de se voir refuser
un lot qui a une proportion de non-conforme plus petite ou égale à (il
s'agit donc de la probabilité cumulée avec laquelle
un client rejetterait à tort
un lot). Ceci se note:
(74.5)
est
appelé bien évidemment... "risque du
fournisseur" et
est en général de l'ordre de 0.1 à 10%.
Enfin si nous nous imaginons être le client, il est évident
que nous souhaiterions que la probabilité cumulée
d'accepter à tort
un lot qui ne respecte pas le contrat qualité soit faible
pour des raisons évidentes de coûts. Pour cela, le client
de son côté définit
une valeur du
pourcentage de produit non-conforme ("niveau
de qualité limite":
NQL) au-delà de
laquelle il juge que le lot ne peut être accepté que très
rarement. Il définit également comme étant
la probabilité cumulée maximale de devoir accepter
un lot qui a une proportion de non-conforme plus grande ou égale à (il
s'agit donc de la probabilité cumulée avec laquelle
on accepterait à tort
un lot du fournisseur). Ceci se note:
(74.6)
est
appelé bien évidemment... "risque du
client" et est en
général aussi de l'ordre de 5 à 10%.
Pour résumer la situation peut-être illlustrée
par le tableau suivant (qui est en tout point similaire au tableau
des erreurs
de Type I et II vu dans le chapitre de Statistiques):
|
Le lot est bon (NQA) |
Le lot est mauvais (NQL) |
|
Risque  |
Décision correcte |
Acceptation |
|
Risque 
|
Exemple:
Dans le cadre de notre exemple - le producteur de boissons gazeuses
- qui reçoit des lots de 10'000 bouteilles dont la résistance à la
pression (LSL) doit être supérieure à 22.5 avec un écart-type sous
contrôle statistique et valant 1.5, le fournisseur et le client
ont chacun fixé les risques qu'ils sont prêts à courir:
- Le fournisseur désire qu'un lot avec moins de 1% de bouteilles
non-conformes soit refusé par erreur par le client dans au plus
5% des cas. Soit:
(74.7)
- Le client désire qu'un lot avec plus de 5% de bouteilles non-conformes
soit accepté à tort dans moins de 10% des cas. Soit:
(74.8)
Remarque: La règle de décision d'acceptation ou de rejet du lot
pour un contrôle par mesure est en générale basée sur la moyenne
arithmétique de la caractéristique estimée sur base de l'échantillon
plutôt que sur base d'une estimation de taux de non-conforme.
Pour la suite, quand nous écrivons:
(74.9)
la particularité c'est que dans la pratique D est imposé est
donné. Le reste est soit à calculer, soit à éliminer (effectivement
le praticien doit normalement uniquement parler en termes de probabilité cumulées
et proportions et facteurs pour définir sa politique de qualité et LSL n'est
ni une probabilité cumulée, ni une proportion, ni un facteur indépendant
de la chose que l'on analyse!). Dès lors nous écrivons:
(74.10)
avec donc la variable centrée réduite habituelle:
(74.11)
Évidemment nous en tirons que la valeur limite est:
(74.12)
où est
donc le percentile de niveau D de la distribution centrale
normale réduite (comme à l'habitude). Malheureusement, nous avons
toujours LSL qui est là. Pouvons-nous nous en soustraire?
Pour cela, nous avons dans l'hypothèse que la mesure est sous contrôle
statistique:
(74.13)
La probabilité cumulée d'accepter
(nous aurions pu le faire pour le rejet mais il faut choisir un
des deux pour l'exemple...) le lot quand le taux de non-conforme
est D s'en
déduit dans le cadre de l'utilisation de la moyenne de la mesure:
(74.14)
dans le cas particulier où la mesure ne doit pas être inférieure à une
certaine valeur donnée (comme c'est le cas pour l'exemple des bouteilles
susmentionné!).
Nous avons alors:
(74.15)
Nous avons alors un résultat très intéressant! La probabilité cumulée
d'accepter le lot quand le taux de non-conforme est D est
alors dans le cas particulier où il s'agit d'une mesure en dessous
de laquelle il ne faut pas aller:
(74.16)
et de le rejeter dans le cas d'une mesure au-delà de laquelle
il ne faut pas aller:
(74.17)
et ce qui est bien c'est que le problème se réduit à un percentile aisé à choisir
(norme ou choix politique), d'un nombre d'individus n, et
d'un facteur k donc que des éléments indépendants de la
mesure elle-même et alors utilisable dans n'importe quel métier
pour n'importe quel type d'objet (et en plus nous avons éliminé l'écart-type)!!
Évidemment, le fournisseur et le client doivent se mettre
d'accord pour un plan d'échantillonnage afin d'établir des tests
qualité correspondant
aux attentes de l'un et de l'autre. Ce que nous savons jusqu'à maintenant
c'est qu'ils s'imposent respectivement un ce
qui leur permet de calculer respectivement immédiatement les .
Il faut cependant calculer le nombre d'individus n et le
facteur k qui satisfont les exigences respectives.
Pour cela, rappelons que si est
donc le risque du fournisseur (probabilité cumulée que le client
rejette à tort le lot) et le
risque du client (probabilité cumulée d'accepter à tort un lot
du fournisseur) et:
(74.18)
la probabilité cumulée d'accepter un lot avec limite inférieure,
alors nous devons résoudre le système suivant:
(74.19)
ou:
(74.20)
pour que le fournisseur et le client aient le plan d'échantillonnage
qui correspondent aux exigences de chacun!
Nous allons choisir le premier (car il faut bien en choisir un...).
Celui-ci peut d'ailleurs se récrire:
(74.21)
Il vient alors:
(74.22)
Ce qui peut s'écrire:
(74.23)
Soit:
(74.24)
d'où nous tirons finalement n:
(74.25)
d'où au final:
(74.26)
et k:
(74.27)
d'où au final:
(74.28)
Exemples:
E1. Dans le cadre de notre exemple - le producteur de boissons
gazeuses - qui reçoit des lots de 10'000 bouteilles dont la résistance à la
pression (LSL) doit être supérieure à 22.5 avec un écart-type sous
contrôle statistique et valant 1.5, le fournisseur et le client
ont chacun fixé les risques qu'ils sont prêts à courir:
(74.29)
Nous avons alors en utilisant la version anglaise de Microsoft
Excel 11.8346 (j'ai préféré faire
ce choix car le nom des formules y est beaucoup... beaucoup plus
court qu'en français):
(74.30)
et (calculé avec les mêmes fonctions Microsoft Excel que nous omettrons
donc de préciser):
(74.31)
Le plan d'échantillonnage consiste alors à prélever et analyser
un échantillon de taille 18, calculer la moyenne et
appliquer la règle de décision suivante:
(74.32)
Supposons qu'un échantillon de taille 18 soit prélevé et donne
les résultats suivants:
25.6, 26.0, 23.0, 27.0, 27.5, 29.0, 28.5, 26.0,
25.6
25.8, 26.5, 28.8, 27.3, 25.2, 27.1, 29.8, 26.5,
27.8
Nous avons alors:
(74.33)
et donc le lot est accepté. Il faut savoir que beaucoup de praticiens
préfèrent le calcul suivant utilisant un "indice
de qualité", noté Q, utilisant
simplement la relation suivante:
(74.34)
donc le lot est accepté.
Remarque: Il est quand même conseillé
dans la pratique de calculer l'estimateur non biaisé de l'écart-type
de l'échantillon pour vérifier
qu'il ne s'éloigne pas trop de l'écart-type du contrat (même s'il
ne peut pas être identique pour de petits échantillons)!
E2. Un deuxième calcul-type fait par les praticiens (souvent
par pure curiosité ou parfois pour faire un rapport de la stratégie
de la qualité à la direction) qui découle du premier exemple est le
suivant: Quelle est la probabilité cumulée que l'on rejette avec n et k donnés,
un lot dont la proportion de non-conformes D serait de 5%?
Dès lors, nous utilisons la relation démontrée suivante:
(74.35)
Soit avec les valeurs précédentes:

(74.36)
et la probabilité cumulée qu'on l'accepte est alors de 1-89.70%
soit 10.29%.
CALCUL DES PARAMÈTRES PAR UTILISATION
DE LA NORME AF-X06-023
La norme AFNOR X06-023 propose une méthode quelque peu différente
pour déterminer k et n, non directement basée sur
les risques du client et du fournisseur mais sur un paramètre appelé "niveau
de qualité acceptable" (NQA.). En outre, cette norme
tient également compte de la taille du lot à tester (considérée
plus haut comme infinie) et du niveau de contrôle désiré.
Remarque: La norme ISO 3951:1981 correspondante
donne à ma connaissance
des valeurs très différentes de celle de l'AFNOR pour des raisons
qui m'échappent (j'espère que c'est juste parce que je n'ai pas
compris quelque chose...).
Définition: Le NQA.,
est le pourcentage d'individus non-conformes qui ne doit pas être
dépassé pour
qu'une production, contrôlée
sur une série de lots, puisse être considérée comme satisfaisante.
En d'autres termes, quand une production est stable avec un pourcentage
d'individus non-conformes au plus égal au NQA., la grande majorité des
lots présentés au contrôle doivent être acceptés par le client.
Donc en général le NQA. est proche - mais pas égal! - de (pour
rappel: la proportion de non-conforme tel qu'il y ait une probabilité cumulée que
le client rejette à tort le lot).
La méthode proposée est du type "recette de cuisine" mais
est imposée par certaines normes européennes donc les industriels
n'ont pas d'autre choix que de l'appliquer. Mais, finalement, les
valeurs numériques sont relativement proches de celles obtenues
avec les relations démontrées précédemment. Au fait leur vraie
utilité, c'est qu'elles sont simples à mettre en oeuvre dans des
situations beaucoup plus complexes que celles que nous venons d'étudier.
En fonction du contexte, la norme propose d'appliquer différents
niveaux de contrôle:
- Le contrôle normal qui est à adopter quand nous sommes en relation
de confiance étroite avec le fournisseur et avons un oeil en temps
réel sur la qualité de sa production à l'aide d'outils informatiques
de surveillance à distance.
- Le contrôle renforcé qui est plus strict que le contrôle normal
(n est plus grand) et a pour but de mieux protéger le client
contre le risque de devoir accepter des lots à tort. Ce type de
contrôle doit être effectué temporairement quand il y a de sérieuses
raisons de penser que la qualité de la production n'est pas (ou
plus) ce qu'elle doit être jusqu'à un retour à la normale (suspension
de livraisons entre temps).
- Enfin, le contrôle réduit qui est le plus économique et qui
peut être appliqué quand sur la base de lots précédemment contrôlés
et acceptés, nous pouvons croire que le fournisseur maîtrise particulièrement
la qualité de son procédé.
Exemples:
E1. Dans le cadre de notre exemple - le producteur de boissons
gazeuses - qui reçoit des lots de 10'000 bouteilles dont la résistance à la
pression (LSL) doit être supérieure à 22.5 avec un écart-type sous
contrôle statistique et valant 1.5, le fournisseur et le client
ont chacun fixé les risques qu'ils sont prêts à courir:
(74.37)
Nous devons alors en utilisant cette norme définir le NQA.
Comme mentionné dans la définition, en général le NQA. est proche
de (mais
pas égal!). Donc le NQA. sera posé comme valant 1%.
La norme exige le choix d'un niveau de contrôle. Nous prendrons
celui de type II. Une table disponible dans la norme nous dit que
nous devons utiliser le code L pour la prochaine étape.
Enfin, la dernière table nous donne donc pour un NQA.de 1% et
un code L la cellule suivante:
ce qui correspond à:

|
n |
k |

|
La norme indique donc qu'un échantillon de
taille 25 doit être
utilisé et un k de 1.97! Ce plan assure des risques
un peu moins grands que le plan calculé plus haut mais
est plus coûteux,
car nécessite plus d'échantillons.
E2. Les praticiens lors de l'utilisation de cette norme souhaitent
souvent pouvoir calculer le risque fournisseur et client associé au
NQA choisi et paramètres correspondants donnés par la norme.
Alors en utilisant:
(74.38)
Il vient:
(74.39)
Soit dans le cadre de notre exemple et en utilisant toujours la
version anglaise de Microsoft Excel 11.8346:
(74.40)
Soit:
(74.41)
à comparer aux 5%. De même comme:
(74.42)
alors:
(74.43)
Soit dans le cadre de notre exemple et en utilisant toujours la
version anglaise de Microsoft Excel 11.8346:
(74.44)
il vient:
(74.45)
et au final:
(74.46)
à comparer aux 10%.
PLAN D'ÉCHANTILLONNAGE
SIMPLE PAR ATTRIBUTS
Les plans par attributs sont plus simples que les plans par échantillonnage,
mais ils sont souvent plus coûteux (en nombre de prélèvements)
que les plans pour mesures et ne sont donc à conseiller que quand
nous ne pouvons pas résumer l'information sur la qualité d'une
unité par des mesures ou que les coûts associés aux analyses sont
trop élevés par rapport à une simple classification des unités
en conforme ou non-conforme.
Le "plan d'échantillonnage simple
par attributs" est
une procédure de contrôle de réception consistant à prélever au
hasard un échantillon de taille n donnée dans le lot. Les
unités prélevées (de manière homogène!) sont ensuite inspectées
et classées comme conformes ou non-conformes. Soit X le
nombre de composants non-conformes trouvés dans l'échantillon.
Si ,
la qualité du lot est jugée bonne et le lot est accepté (A).
Si avec
dans les plans simples R=A+1 la qualité du lot est
jugée mauvaise et le lot n'est pas accepté.
Exemple:
Des bouteilles par lot de taille N=10'000 sont reçues
par un client. La procédure de contrôle utilise le plan empirique
par attributs suivants: on prélève un échantillon de taille n=200.
Le critère d'acceptation A est et
le critère de rejet R est .
Mentionnons avant de partir dans les détails des calculs de la
stratégie d'un plan d'échantillonnage simple par attributs les
principes des plans d'échantillonnage double et multiple pour la
culture générale:
Le "plan d'échantillonnage double
par attributs" est
une procédure de contrôle de réception ayant deux stades de décision.
Elle consiste à prélever d'abord un premier échantillon de taille
inférieure à celui que l'on prélèverait pour un plan d'échantillonnage
simple. Le premier stade de décision est basé sur les informations
fournies par ce premier échantillon. Si la qualité du premier échantillon
est jugée suffisamment bonne, le lot est accepté. Si elle est jugée
suffisamment mauvaise, le lot n'est pas accepté. En revanche si
la qualité du premier échantillon est jugée intermédiaire, un second échantillon
est prélevé et inspecté dans le but d'accepter ou de refuser le
lot. Les critères de décision du second stade sont basés sur les
informations recueillies sur les deux échantillons.
Exemple:
Des bouteilles par lot de taille N=10'000 sont reçues
par un client. La procédure de contrôle utilise le plan empirique
par attributs suivants: on prélève un premier échantillon de taille .
Le critère d'acceptation A au premier stade est et
le critère de rejet R est .
Si la qualité est non satisfaisante, nous prenons un deuxième échantillon
de taille avec
un critère d'acceptation A au deuxième stade de et
le critère de rejet R est .
Nous reviendrons sur un exemple beaucoup plus détaillé de double
échantillonage un peu plus loin!!
Le "plan d'échantillonnage multiple par attributs" est
simplement une généralisation du plan d'échantillonnage
double par attributs en ayant D étapes de décision
au lieu de 1 pour le plan simple ou 2 pour le plan double...
Revenons à nos développements mathématiques d'un plan d'échantillonnage
simple par attributs. Si n est la taille du lot, p la
taille de l'échantillon et m le nombre total de défectueux
dans le lot alors la probabilité d'avoir k défectueux parmi p est
(toujours avec la notation du coefficient binomal non-conforme
à la norme ISO 31-11):
(74.47)
Afin d'être conforme à la tradition du domaine de l'échantillonnage,
faisons un premier changement de notation. Notons n la taille
de l'échantillon et N la taille du lot. Il vient alors:
(74.48)
Faisons un deuxième changement de notation. Notons p la
proportion de non-conformes dans le lot. Il vient alors la notation
traditionnelle d'usage:
(74.49)
Ainsi, la probabilité cumulée d'acceptation d'un lot de qualité p est
donnée par:
(74.50)
Exemple:
Quelle est la probabilité cumulée de tirer 5 éléments
non-conformes (critère d'acceptation) d'un lot de 10'000
bouteilles (N)
dont nous avons pris un prélèvement de 200 individus
(n),
dont la proportion de non-conformes est connue comme étant
de 5% (p). Alors avec Microsoft Excel 14.0.6123
nous obtenons comme probabilité cumulée d'acceptation:
(74.51)
Remarque: Une erreur (bêtise)
classique dans les entreprises consiste à penser que le
critère d'acceptation est proportionnel
à la taille du lot. En d'autres termes que si pour 10'000
bouteilles, le fait de tester un échantillon de 200 pièces
(2%) donne une probabilité
cumulée d'acceptation de ~6%, alors sur 1'000 bouteilles,
un échantillons
de 20 pièces (2%) donne la même probabilité cumulée
d'acceptation. Au fait, avec Microsoft Excel 14.0.6123, nous avons alors non plus
6.05% mais alors 99.7%...
la différence est donc considérable!!
Si nous rappelons (voir la partie concernant les plans d'échantillonnage
par mesure) que est
donc le risque du fournisseur (probabilité cumulée que le client
rejette à tort le lot de qualité dont la proportion de non-conformes
est )
et le
risque du client (probabilité cumulée d'accepter à tort un lot
du fournisseur de qualité dont la proportion de non-conformes est )
alors pour que le fournisseur et le client aient le plan d'échantillonnage
qui correspondent aux exigences de chacun nous devons résoudre
le système suivant:
(74.52)
À ma connaissance, il n'est pas possible de résoudre
ce système
analytiquement. Les techniques de recherche opérationnelle
utilisant la méthode du simplexe, la méthode des
gradients ou de Newton échouent
lamentablement à trouver une solution à ce système
(ce qui est normal). Par contre, avec les algorithmes évolutionnaires
(outil disponible dans Microsoft Excel 14.0.6123)
on peut trouver des solutions acceptables, mais les paramétrages
ne sont pas aisés.
Dès lors, en supposant que la taille des lots soumise à l'inspection
est grande par rapport à la taille de l'échantillon, et en exploitant
l'approximation binomiale de la loi hypergéométrique (approximation
démontrée dans le chapitre de Statistiques), nous avons:
(74.53)
L'avantage de cette approximation est immense!
La taille totale N du lot n'intervient plus dans le problème!
Exemple:
E1. Quelle est la probabilité cumulée de tirer 5 éléments
non-conformes (critère d'acceptation) d'un lot de 10'000
bouteilles (N)
dont nous avons pris un prélèvement de 200 individus
(n),
dont la proportion de non-conformes est connue comme étant
de 5% (p). Alors avec la version anglaise de Microsoft Excel 14.0.6123
nous obtenons:
(74.54)
E2. Cette dernière relation est aussi utilisée en
ingénierie de la fiabilité. Effectivement, supposons que nous souhaitons
savoir quel est le nombre d'éléments n que
nous devons prendre pour faire un plan de démonstration de fiabilité
montrant avec 90% de probabilité cumulée que le nombre de A défaillances
(non-conformes) est nul sachant que leur fiabilité est de 80%.
Alors cela revient à trouver n tel
que nous soyons au plus proche de:
(74.55)
Donc la valeur la plus proche n pour cela
est de prendre 11 éléments (c'est la valeur que retourne
le logiciel de référence de la fiabilité qu'est
Weibull++). On se retrouve alors avec:
=BINOMDIST(0;11;20%;1)=8.59%
Dans le cadre du domaine de la fiabilité, il
est d'usage d'appeler cette approche "plan
de démonstration
de test de la fiabilité binomial non-paramétrique"....
E3. Voyons encore un dernier exemple relatif à la
fiabilité. Rappelons que nous avons démontré plus haut que pour
la loi de Weibull à un paramètre, nous avions:
(74.56)
Et supposons que des tests prédécents
nous ont montré
que à un temps t égal à 2'000 jours,
nous avions une fiabilité de 80% et que nous savons que
le paramètre de forme
comme vaut
2. Nous souhaiterions savoir quelle taille d'échantillons
nous devons prendre pour qu'un plan de test de la fiabilité de
1'500 jours montre avec au plus 90% de probabilité cumulée
au maximum une non-conformité (panne). Pour cela, nous allons
d'abord déterminer le paramètre d'échelle:
(74.57)
Il vient alors que pour ce même test à 1'500 jours,
nous avions une fiabilité de:
(74.58)
En injectant dans la loi binomiale, nous avons alors:
(74.59)
Donc la valeur la plus proche n pour cela
est de prendre 32éléments (c'est la valeur que retourne
le logiciel de référence de la fiabilité qu'est
Weibull++). On se retrouve alors avec:
=BINOMDIST(1;32;1-88.2%;1)=10.50%
Remarque: Là aussi... une
erreur (bêtise) classique dans les entreprises consiste à penser
que le critère d'acceptation est proportionnel à la
taille du lot. En d'autres termes que si pour 10'000 bouteilles,
le fait de tester un échantillon de 200 pièces (2%)
donne une probabilité cumulée d'acceptation de ~6%,
alors sur 1'000 bouteilles, un échantillon de 20 pièces
(2%) donne la même probabilité cumulée d'acceptation.
Au fait, avec Microsoft Excel 14.0.6123, nous avons non plus pas 6.23% mais alors
99.7%... la différence est donc considérable!!
Pour en revenir à la théorie.... le système
que nous avions alors avec la loi Hyperégométrique peut alors s'écrire:
(74.60)
Mais
encore une fois, il n'est pas possible (à ma connaissance)
de résoudre le système précédent analytiquement.
En 1967, H. R. Larson a alors créé un abaque de la loi binomiale
cumulative fréquemment désigné sous
le terme de "nomographe binomial de
Larson" (je n'en
ai jamais trouvé ni vu un pour la loi hypergéométrique malheureusement...)
qui permet de résoudre approximativement le problème de la détermination
de la valeur de A et de n pour le plan d'échantillonnage:

Figure: 74.1 - Source:
Montgomery, D. C. (1996), Introduction to Statistical Quality Control
(3e
ed.), Ed. Wiley
Exemple:
Un lot de bouteilles est livré sous forme de lots de 10'000 unités
correspondant à N. Nous cherchons à mettre en place un plan
de contrôle de la réception par attributs avec la probabilité cumulée
(risque) de
1% que le client rejette à tort le lot avec moins de 2.5% ( )
de non-conformes. De son côté le client souhaite une probabilité cumulée
(risque) de
10% d'accepter à tort un lot avec plus de 5% ( )
de non-conformes (au fait les exigences sont indépendantes
de la taille du N du lot).
Le but est de déterminer donc la valeur de A et de n à l'aide
du nomographe. Pour cela, comme indiqué sur le nomographe, il faut
tracer deux droites:
- Points de départs des deux droites: 0.99 (100%-1%) et 0.1 (10%)
de l'axe de droite.
- Points d'arrivée des deux droites: 0.025 (2.5%) et 0.05 (5%)
de l'axe de gauche.
et l'intersection des deux droites donnera les paramètres recherchés.
Soit dans le cas présent:
(74.61)
Nous voyons aussi que si nous injectons ces deux valeurs dans:
(74.62)
avec Microsoft Excel, nous sommes en réalité loin
du compte! Donc l'erreur du nomographe peut amener à donner
l'impression de grossières approximations! Mais
changez dans Microsoft Excel la valeur 30 par 27 et la valeur 700 par
695 et vous
verrez en réalité ce que vous pouvez en conclure...
Nous voyons aussi via cet exemple qu'un plan d'échantillonnage
par attribut est effectivement aussi beaucoup plus coûteux qu'un
plan par mesurage (puisque nous avons repris le même exemple avec
les mêmes paramètres que dans la partie des plans d'échantillonnage
avec mesures).
Le lecteur aura aussi remarqué que N n'influence
pas sur la valeur de A et n lorsque nous utilisons
le nomographe. Donc si nous utilisons des outils informatiques
pour chercher la solution, nous avons pour contrainte que n sera
compris entre 0 et 1'000 et A entre 0 et 150.
Remarque: Enfin, indiquons que certains utilisent l'approximation
Poissonienne de la loi binomiale (lorsque la probabilité de non-conformité
est
très faible que la taille du lot est très grande et même parfois
quand ces critères sont loin d'être respectés...).
Revenons maintenant sur le double échantillonage en utilisant
l'approximation binomiale qui était pour rappel:
(74.63)
et considérons un plan à double échantillonage avec:
(74.64)
et où la proportion de non-conformes est
connue comme étant
de 5%. Alors, dans ce cas la probabilité cumulée d'avoir
par exemple au moins1 non-conforme au premier échantillonage
et correspondant donc à la probabilité d'acceptation du lot est de:
(74.65)
Donc jusque là rien de spécial! Maintenant
pour obtenir la probabiltié d'acceptation du second lot,
nous devons lister toutes les manières dont le second échantillonage.
Supposons pour l'exemple que le lot est accepté qu si et seulement
si le nombre cumulé de non-conformes sur les deux échantillonages
est compris entre 2 et 3 unités
(choix arbitraire mais simplifié pour l'exemple).
Nous avons alors les combinaisons suivantes possibles
de tirage entre les deux échantillonages: {0,2}{0,3},{1,1},{1,2},{3,0},{2,1},{2,0}.
Mais comme nous acceptons le lot si le premier échantillonage donne
un nombre de non-conformes inférieur ou égal à 1, il reste alors
seulement les combinaisons suivantes {3,0},{2,1},{2,0}à considérer
en double échantillonage. Donc il nous faut calculer les probabilités
suivantes:
(74.66)
CALCUL DES PARAMÈTRES PAR UTILISATION
DE LA NORME ISO 2859-1
La norme ISO 2859 (qui découle du standard MIL 105E) est consacrée
aux règles
d'échantillonnage
pour les contrôles par attributs. Au même titre que la
norme AFNOR X06-023 elle est basée le concept de NQA.
(pourcentage d'individus non-conformes qui ne doit pas être dépassé pour
qu'une production, contrôlée sur une série
de lots, puisse être considérée comme satisfaisante).
Selon cette norme, il faut que le NQA soit une des 26 valeurs
recommandées par la norme. Nous choisirons pour niveau d'inspection
le numéro II (ils sont décrits dans la norme). Par rapport à l'effectif
choisi, comme pour la norme AFNOR, ISO 2589 donne un code (lettre)
qui va être utilisée ensuite dans une table. Enfin, en fonction
du type de plan (simple, double ou triple) on trouve les paramètres A et n.
Exemples:
E1. Dans le cadre de notre exemple - le producteur de boissons
gazeuses - qui reçoit des lots de 10'000 bouteilles, le
niveau de qualité NQA est donc de 1%. Comme pour l'exemple
avec la norme AFNOR, nous prendrons un contrôle de type
II basé sur un plan simple.
Une table disponible dans la norme nous dit que nous devons utiliser
le code L pour la prochaine étape. Ensuite, pour un contrôle simple,
la norme nous dit d'utiliser la table IIA.
Nous y lisons alors que n doit être égal à 200 et que A vaut
5. Nous constatons donc que la valeur obtenue est très différente
de celle calculée théoriquement. Honnêtement la raison de cette
différence m'est inconnue...
E2. Les praticiens lors de l'utilisation de cette norme souhaitent
souvent pouvoir calculer le risque fournisseur et client associé aux
facteurs n et A donnés par la norme relativement
au NQA. choisi pour un lot d'une qualité donnée. Alors comme
dans le cas présent, 200/10'000 est plus petit que 10%, nous pouvons
utiliser l'approximation binomiale de la loi hypergéométrique.
Supposons que nous souhaitons donc calculer le risque fournisseur
pour le de l'exemple précédent (celui avec l'utilisation du nomographe):
(74.67)
d'où un risque fournisseur de 100%-61.59% soit 38.40% ce qui
est considérable. Ainsi, ce plan d'échantillonnage obtenu via les
normes est adapté à des proportions de non-conformes de beaucoup
inférieures à 2.5% (au fait inférieur à ~1.25%).
Pour le risque client, nous procédons de la même manière:
(74.68)
ce qui est par contre plus acceptable. Au fait nous constatons
que la norme est plus adaptée aux critères du client que du fournisseur.
Remarque: Le logiciel QuickControl Pro de la société Logystem
SA par exemple gère l'échantillonage selon les normes ISO 2859
et 3951.
COURBE D'EFFICACITé POUR L'ÉCHANTILLONNAGE
La courbe qui représente les probabilités d'acceptation
d'un lot en fonction de la qualité effective (proportion
de pièces défectueuses) du lot s'appelle "courbe
d'efficacité du plan d'échantillonnage" ("operating
characteristic curve for sampling" ou "operating
characteristic function for sampling" an anglais).
Cette courbe s'obtient donc en traçant sur un graphique
la probabilité cumulée d'acceptation du lot que nous
notons sur ce type de graphique, en fonction de la proportion
présumée de pièces non-conformes (que nous
notons p) dans le lot.
Exemple: Pour un contrôle de qualité par attributs,
nous appliquons le plan de contrôle basé sur le prélèvement
de 200 individus, le lot sera accepté si le nombre d'éléments
défectueux est inférieur ou égal à 5.
Nous souhaitons tracer la probabilité d'accepter un lot
où le pourcentage de défectueux est p, pour p variant
de 0 à 7% par pas de 0.1%.
Nous avons alors avec la version française de Microsoft Excel 14.0.6123 pour
les premières
lignes:
Figure: 74.2 - Données pour une
courbe d'efficacité obtenue avec Microsoft Excel 14.0.6123
Ce qui donne graphiquement:
Figure: 74.3 - Graphique correspondant
aux valeurs calculées dans Microsoft Excel 14.0.6123
Une manière élégante de représenter
une courbe d'efficacité est
la suivante:
Figure: 74.4 - Concept général
d'une courbe d'efficacité (source: ISBN 978-2-297-01111-2)
La courbe d'efficacité montre que la probabilité d'accepter un
lot défectueux diminue lorsque le pourcentage de produits
défectueux dans le lot augmente: lorsque la
qualité est bonne, la probabilité d'accepter
le lot est élevée ; lorsqu'elle
est mauvaise, la probabilité d'accepter
le lot est faible. La
courbe se caractérise par différents points:
- Au point A, le pourcentage de produits défectueux du
lot est de 0 %, il y a 100 % de chances que le client
accepte le lot. Le fournisseur ne court aucun risque
- Au point B, le pourcentage de défectueux effectif est
de 2 %. Ce pourcentage correspond au Niveau de qualité acceptable
(NQA) défini
d'un commun accord entre le client et le fournisseur.
Mais, comme le contrôle est effectué à l'aide
d'échantillons aléatoires, il
se peut que le lot soit rejeté par
le client. Le risque pour le
fournisseur est de 5 %. Réciproquement, il y a une probabilité de
95 % (1– )
que le client accepte le lot.
- Au point C, le pourcentage de défectueux effectif est
de 7 % correspondant au Niveau de qualité limite
(NQL). La probabilité d'acceptation
d'un lot de ce niveau de qualité est égale
au risque client .
Il y a exactement à ce point 10 % de chance
d'accepter un lot mauvais, ce qui signifie que
le client va conserver un nombre de défectueux
supérieur à ce qu'il
souhaite.
- Au point D, le pourcentage de produits défectueux effectif
du lot est de 100 % ; il y a 0 % de chance d'accepter un tel lot.
Ce type de courbe d'efficacité basé sur de gros
lots échantillonés
(dixit l'utilisation de la loi binomiale) est appelée dans
le cas de l'utilisation
de la loi binomiale: "courbe d'efficacité
de type B" (CE-B). Si évidemment la taille de
l'échantillon
est significative par rapport à la taille du lot nous utiliserons
la loi hypergéométrique et nous parlerons alors de: "courbe
d'efficacité de type A" (CE-A).
CARTES DE CONTRÔLES (CC) DE LA QUALITÉ
Une carte de contrôle (appelée aussi parfois "carte
séquentielle")
est une représentation empirique plane de la variation d'une mesure
précise d'un processus ou d'un procédé où l'axe vertical représente
l'indicateur quantitatif choisi et l'axe horizontal le temps (c'est
donc une sous-famille des "run charts").
Cette méthode de contrôle qualité non destructive et dite "on-line" (car
l'acquisition peut se faire en temps réel) permettant de mettre
en évidence des causes spéciales de variations et d'optimiser les
fréquences de réglages (étalonnage) aurait été créée par l'ingénieur
physicien Walter A. Shewhart alors employé chez Bell Labs dans
les années 1920 et s'est imposée en tant que standard international
dès 1991 sous la norme ISO 8258. C'est d'ailleurs aussi Shewhart
qui inspira le non moins connu W. Edwards Deming (statisticien)
dans le domaine de la gestion de projets et de la qualité (tous
les maîtres dans le domaine de la gestion de projets de pointe
ont une formation scientifique...).
Remarque: Le sujet des cartes de contrôle est immensément vaste
et il y a une littérature anglophone très abondante sur le sujet.
Nous souhaitons ici ne donner que les fondamentaux (donc uniquement
les cartes de base!) afin de montrer une application pratique des
statistiques d'ordre et des statistiques des valeurs extrêmes développées
en détail dans le chapitre de Statistiques. Pour placer un ordre
de grandeur, la majorité des logiciels spécialisés proposent entre
20 et 30 cartes de contrôle différentes!
En début d'utilisation de cartes de contrôle, il est conseillé de
mettre des cartes sur toutes les caractéristiques mesurables importantes
du produit. Les cartes obtenues révèlent en général rapidement
quelles cartes sont nécessaires ou inutiles. Les cartes inutiles
ou inadaptées seront retirées et d'autres cartes éventuellement
ajoutées.

Figure: 74.5 - Principe d'une carte
de contrôle
Les limites peuvent être soit imposées/spécifiées par un client
et dès lors nous les notons USL et LSL, sinon elles
sont calculées en interne et dès lors nous les notons UCL (Upper
Control Limit) et LCL (Lower Control Limit). Pour améliorer
l'efficacité d'une carte de contrôle, nous ajoutons parfois sur
la carte des limites plus étroites appelées "limites
de surveillance" (dans
la réalité nous représentons quasiment systématiquement les limites
calculées ET imposées par la politique qualité sur la carte de
contrôle).
Remarque: Dans la pratique je recommande fortement de représenter à la
fois CL, UCL, LCL et comme dans la réalité il
y normalement toujours des limites et objectifs qui sont imposés
contractuellement par le client, de représenter aussi la cible T et UCL et LCL sur
le même graphique quand cela est possible!!!
La carte de contrôle est donc un outil de mesure permettant de
visualiser la variation et donc de déterminer le moment où apparaît
une cause assignable entraînant une dérive d'un processus ou procédé de
fabrication/administratif ou encore une variation d'une valeur
financière sur les marchés boursiers qui nécessite
une action de correction rapide pour diminuer les coûts de non-qualité.
Ainsi, dans l'idéal
le processus sera arrêté ou corrigé au bon moment, c'est-à-dire
avant qu'il ne produise trop de livrables/services non conformes
(hors de l'intervalle de tolérance) et le surcontrôle (réajustement
inutile pour cause de variabilité commune) sera évité.
Le type de carte de contrôle correspond au type de caractéristique
qui fait l'objet d'un contrôle. Toutefois l'aspect économique peut être
un facteur important dans le choix de la carte de contrôle à mettre
en oeuvre. Si nous nous intéressons qu'à vérifier si une pièce
est conforme ou non à certaines normes, une carte par attribut
(voir plus loin) sera utilisée, mais nécessitera néanmoins une
taille d'échantillon élevée. Le contrôle de caractéristiques quantitatives
nécessite l'emploi de cartes de contrôle par mesure. Ce type
de contrôle est plus efficace et plus précis mais également plus
dispendieux puisqu'il requiert l'emploi d'instruments de mesure
qui doivent être
vérifiés régulièrement.
Avant de partir dans les détails mathématiques signalons que
les cartes de contrôle parmi les plus utilisées sont les
cartes de contrôle par mesure de la moyenne en
association avec celle de l'étendue R ("range" en
anglais) avec limites de Shewhart (quand nous parlons de "limites
de Shewart", nous faisons implicitement référence au fait
que la limite supérieure de contrôle calculée UCL et la
limite inférieure de contrôle calculée LCL sont empiriquement à de
la moyenne que la distribution soit symétrique ou non!). Ces deux
cartes sont établies et interprétées la majorité du temps ensemble
car les deux paramètres sont indépendants et complémentaires et
simples à comprendre
(la majorité des employés dans les entreprises ne sachant pas ce
qu'est un écart-type). La valeur moyenne peut varier sans que la
dispersion ne varie et inversement.
Remarques:
R1. Dans le cas d'une carte de contrôle avec limites de Shewhart,
les limites de surveillance sont traditionnellement placées à (à l'opposée
des limites de contrôle qui sont donc placées à ).
R2. Dans le cas d'une distribution Normale, correspond à un
intervalle de confiance de 99.73% comme nous l'avons vu plus haut
dans le présent chapitre et dans celui de Statistiques. Cela correspondant
donc à un alpha d'environ:

La majeure partie de l'industrie prend donc comme
limites, mais en toute rigueur les distributions de certaines cartes
ne sont pas symétriques. Il convient alors de prendre des bornes
correspondant à une probabilité cumulée de ce
qui peut se calculer assez aisément avec de nombreuses distributions
(mais pas toutes!) en ayant juste à disposition un tableur bon
marché. Le choix de la valeur de dépend
de la politique qualité de l'entreprise et a l'avantage d'être
un indicateur beaucoup plus précis que les limites de Shewhart
(ces dernières étant erronées lorsque les distributions sont asymétriques).
R3. Shewhart aurait proposé qu'il y ait au moins 25 prélèvements
(échantillons) de 4 individus pour que la validité de
certaines cartes de contrôle (que nous verrons plus loin)
commence à être
acceptable.
R4. Comme nous le verrons, la quasi-totalité des cartes de contrôle aux mesures supposent une distribution Normale et que les observations
sont indépendantes (entre sous-groupes et à l'intérieur des sous-groupes).
Par exemple (exemple qui sera donc détaillé mathématiquement
un peu plus bas), pour les procédés déjà stables car lancés depuis
un bout de temps, nous effectuons plusieurs observations individuelles
sur plusieurs sous-groupes numérotés à une fréquence de temps donnée
(toutes les heures, trois fois par jour ...). Sur chaque sous-groupe k chronologique,
nous effectuons n observations. Nous reportons sur la carte
de moyenne la
moyenne du sous-groupe en fonction de son numéro chronologique
qui sera reporté sur l'axe horizontal des cartes de contrôle
. En raison du théorème de la limite centrale (TCL) démontré dans
le chapitre de Statistiques, la moyenne des valeurs sur la carte
de
contrôle suit une loi Normale (donc symétrique!) que les observations
des sous-groupes soient normalement distribuées ou non!!! Cette
hypothèse est valable même pour des échantillons de petite taille
et pour un processus de fabrication sous-contrôle, ce qui
est fréquent
en contrôle qualité. Une production sera dite stable, si la tendance
et la dispersion sont statistiquement constantes dans le temps
(variables identiquement distribuées et indépendantes).
RÈGLES EMPIRIQUES DE LA WECO
L'interprétation d'une carte de contrôle aussi puissante et élégante
qu'elle soit mathématiquement n'est pas aisée et requière expérience
et savoir faire pour savoir s'il faut procéder à une intervention
corrective ou non. La Western Electric (WECO) aurait publié, en
1956, un ouvrage avec des règles empiriques simples permettent
de prendre des décisions plus simplement (le ministère français
de la santé a fait de même 50 ans après... mais avec des règles
qui diffèrent un peu).
La WECO s'est basée à l'époque sur l'hypothèse que les distributions
statistiques sont toujours symétriques (même hypothèse que Shewhart)
et a donc adopté dans l'énoncé des règles des limites de contrôle
qui sont des multiples k entiers de l'écart-type. Évidemment,
rien n'empêche le spécialiste de la qualité d'adapter ces règles
avec des limites probabilistes correspondant à un intervalle de
confiance (la majorité des logiciels spécialisés permettent de
choisir les règles de la WECO à appliquer pour la détection automatiquement
de non-conformités).
Dans le cas des cartes de contrôle mesurées, parmi ces règles édictées
voici celles qui sont applicables afin d'identifier si un processus
ou procédé est défaillant et qui ont été complétées avec les années
par d'autres spécialistes (nous avons représenté ci-dessous quelques
cas de certaines règles dans une unique carte de contrôle pour
des raisons pédagogiques évidentes):

Figure: 74.6 - Carte de contrôle générique
avec quelques points de la WECO
W1. Un point de mesure est au-delà des USL, LSL spécifiés
par le client ou au-delà des UCL, LCL probabilistes
ou empiriques correspondant à .
W2. Deux points consécutifs de mesure sont au-delà UCL, LCL probabilistes
ou empiriques correspondant à .
W3. Quatre points consécutifs de mesure sont au-delà UCL, LCL probabilistes
ou empiriques correspondant à (souvent
appelés "limites d'alerte").
W4. Huit points successifs tombent d'un même côté de
la moyenne (ce chiffre est empirique et sujet à débats...).
W5. Six points consécutifs sont sur une tendance haussière ou
respectivement baissière.
W6. Quatorze points consécutifs sont sur une alternance systématique
de hausse/baisse.
W7. Deux points consécutifs au-delà des UCL, LCL probabilistes
ou empiriques correspondant à .
W8. Quatre points consécutifs hors des limites à et
du même côté de la ligne centrale.
W9. Huit points consécutifs dans les limites de .
Remarque: Un logiciel comme Minitab intègre par exemple 8 de
ses règles pour mettre en évidence une anomalie. Pour plus d'informations,
le lecteur pourra se reporter au e-book que j'ai écrit sur ce logiciel.
Si le processus/procédé est hors de contrôle, des actions correctives
sont donc mises en place. Les causes de variation peuvent être
aléatoires ou déterministes. Si les causes sont seulement dues
au hasard, elles sont alors appelées "causes
aléatoires" (Shewhart)
ou "causes communes" (Deming)
et sont donc assimilées à la
dispersion instantanée dont nous avons fait mention plus haut.
Pas toutes les variations sont dues au hasard évidemment, certaines
sont spécifiques et identifiables de manière déterministe et certaine.
Dans ce dernier cas, les variations sont appelées "variations
assignables" (Shewhart) ou "causes
spéciales" (Deming)
et sont assimilées à la dispersion globale (dont nous avons aussi
déjà fait mention plus haut). Corriger les causes spéciales est évidemment
bien plus simple que de corriger les causes aléatoires. L'objectif
principal des cartes de contrôle est bien évidemment d'identifier
les causes spéciales...
Voilà en ce qui concerne les us et coutumes d'interprétation
des points de mesure. Maintenant, ce prélude non mathématique effectué,
voyons les différents types de cartes de contrôle (CC) courantes
avec un exemple concret pour chacune.
ÉCHANTILLONNAGE
L'usage des cartes de contrôle pose au début deux difficultés
majeures:
- Le choix de la bonne carte de contrôle
- Le choix du nombre d'échantillons et de prélèvements (fréquence
de l'échantillonnage)
Nous souhaiterions ici discuter du deuxième point. Il faut d'abord
observer que c'est bien évidemment la cadence d'exécution et la
qualité du fonctionnement qui va nous donner la réponse. Cette
qualité est appréciée par la moyenne du nombre d'interventions
de corrections observées pendant un laps déterminé dans le passé.
Plus le nombre d'actions correctives a été grand, moins la qualité du
fonctionnement du procédé/processus est bonne et plus il faudra
faire de prélèvements.
Le choix du nombre d'individus dans un prélèvement
(échantillonnage) n'est lui pas un problème, car
il découlera
du calcul statistique de l'intervalle de confiance de l'indicateur
statistique
que
l'on s'impose et des
propriétés de loi de distribution ainsi que des
hypothèses de construction
de la carte de contrôle (voir plus loin dans le texte qui
va suivre).
La difficulté est donc de quantifier la fréquence de prélèvement.
Il existe pour ce point deux méthodes empiriques principales:
- Choisir une fréquence telle que les actions correctives
sont au moins quatre fois plus faible que la fréquence de
prélèvement
(ce critère est donc indépendant du nombre d'individus
par prélèvements
donc parfois peu applicable).
- Nous considérons T comme étant la durée
de vie du procédé/processus
entre chaque changement/modification. Nous notons comme à l'habitude n le
nombre d'individus par prélèvement (échantillons)
nécessaires
pour garantir de l'intervalle de confiance imposé de l'indicateur
statistique (pour l'analyse de la dispersion instantanée).
Nous notons N le
nombre d'exécutions du procédé/processus
pendant la période T.
Nous avons donc au maximum N/n prélèvements
possibles. Enfin, ce qui décidera du nombre de prélèvements,
sera la précision de
l'exigence de l'inférence statistique sur un indicateur
statistique pour la dispersion globale.
Dans la totalité des cartes de contrôle que nous allons présenter
ci-dessous, nous avons présenté des exemples avec des prélèvements à taille
constante (donc les limites des cartes de contrôle sont presque
toujours constantes à quelques exceptions près). Effectivement,
si la taille de ceux-ci vient à changer, c'est que le rythme de
production (ou la taille des lots de livraison) a changé et donc
les paramètres de fabrication aussi. Il conviendrait alors de recommencer
une nouvelle carte! Il en est de même après une réingénierie du
procédé/processus ou changements des paramètres du procédé/processus
comme le montre par exemple l'image ci-dessous:

Figure: 74.7 - Exemple de carte de contrôle
avant et après mesure corrective
CARTES DE CONTRÔLES QUALITATIVES (AUX ATTRIBUTS)
Pour mesurer des variables qualitatives (% de défectueux, % de
pannes, ...), nous nous servons de cartes aux attributs p (binomial), np ou c pour
contrôler les attributs dans le temps.
Les cartes de contrôle par attributs sont très simples
d'utilisation et d'interprétation, mais ont plusieurs inconvénients
comme la forte dissymétrie des répartitions, l'absence de limite
inférieure pour
les faibles tailles d'échantillons, la faible efficacité de détection
des détériorations.
CC-P
La carte de contrôle de type p (proportion) est utilisée
lorsqu'il s'agit de travailler avec des ratios, proportions ou
pourcentages de conformité ou non-conformité d'échantillons d'un
prélèvement.
De bons exemples de carte de contrôle de type p sont:
l'inspection des produits d'une ligne de production ou de la réception
de lots d'un fournisseur ou encore contrôle du dysfonctionnement
d'un certain nombre d'appareils, le respect de délais de livraison
ou des spécifications de produits.
Avantages: Très simple à construire car ne nécessite aucune connaissance
statistique poussée pour être calculée.
Problèmes: En réalité c'est une carte dont les limites de contrôle
peuvent être asymétriques si l'application pratique est à la limite
de l'acceptable lorsque les hypothèses théoriques de construction
ne sont pas respectées. Une difficulté parfois rencontrée par les
utilisateurs de cette carte est de déterminer la taille du lot
et du niveau d'acceptation (A) ou rejet (R) équivalant à l'USL en
sa basant sur les développements (et normes) des plans d'échantillonnages
disponibles un peu plus loin dans le présent chapitre. Enfin, une
dernière difficulté est que certains employés maîtrisent mal le
concept de pourcentages.
La loi probabilité utilisée dans ce contexte est la loi binomiale
(cf. chapitre de Statistiques) où p représentera la proportion
en % de non-conformités et q (qui vaut donc 1-p)
représentera la proportion en % d'éléments conformes.
Nous avons vu dans le chapitre de Statistiques qu'il nous était
possible d'écrire formellement, sous certaines hypothèses, uniquement
l'intervalle de confiance suivant:
(74.69)
Donc nous pouvons alors calculer des probabilités de lots non-conformes
par excès ou par défaut en utilisant le fait que p suit
une loi Normale de paramètres:
(74.70)
Bref, nous n'avons pas d'autres choix que de baser la carte de
contrôle là-dessus. Dès lors, la première étape dans la création
d'une carte de contrôle de type p est de calculer la proportion
de non-conformité, du moins son estimateur, pour chaque lot i:
(74.71)
où est
le nombre d'éléments non-conformes et le
nombre total d'éléments du lot contrôlé i.
La proportion moyenne d'éléments non-conformes,
qui correspondra à la
ligne centrale (CL) de la carte de contrôle sera donnée par:
(74.72)
et si les sont
tous égaux, cela ce simplifie en:
(74.73)
où n représente donc le nombre de lots contrôlés. Nous
avons alors:
(74.74)
et si la taille des lots sont tous identiques:
(74.75)
Conformément à l'étude que nous ferons plus tard des plans d'échantillonnages,
il ne peut pas y avoir de limite inférieure imposée par le client/direction
(LSL) ni d'objectif (T) dans ce domaine d'application.
Ainsi, avec le tableau suivant où la taille des lots (cas particulier!)
est identique:

Figure: 74.8 - Tableaux Microsoft Excel
14.0.6123 avec lots de taille identique et non-conformités
Soit:

Figure: 74.9 - Formules Microsoft Excel 14.0.6123 correspondantes
au tableau précédent
Ce qui donne la carte de contrôle suivante:

Figure: 74.10 - Carte de contrôle aux
attributs p individuelle basée sur le tableau Microsoft Excel 14.0.6123 précédent
où nous avons pris comme exemple les limites imposées par la
clientèle/direction:
(74.76)
Remarque: Cette carte de contrôle n'est donc pas adaptée aux tirages
exhaustifs puisqu'il faudrait alors utiliser la loi hypergéométrique.
Malheureusement, comme il n'existe pas de relation analytique pour
l'intervalle de confiance de la proportion d'une loi hypergéométrique,
il n'est pas possible (à ce jour... et à ma connaissance...) de
construire une carte de contrôle de ce type.
La carte-p s'interprète comme une autre carte de Shewhart
en utilisant les règles de la WECO.
CC-NP
La carte-np est similaire à la carte-p précédente,
mais représente le nombre d'unités non-conformes plutôt que la
proportion. Cette carte est plus simple à interpréter que la carte-p puisque
pas tous les employés arrivent à se représenter le concept de pourcentage,
mais par contre il est très difficile de comparer en toute objectivité deux
points dont la taille des lots à l'origine n'est pas la même.
Avantages: Très simple à construire car ne nécessite aucune connaissance
statistique poussée pour être calculée. Pour certains employés
dont le concept de pourcentage est mal maîtrisé, elle est plus
simple à lire qu'une carte-np.
Problèmes: Encore une fois c'est une carte dont les limites de
contrôle peuvent être asymétriques si l'application pratique est à la
limite de l'acceptable lorsque les hypothèses théoriques de construction
ne sont pas respectées. Une difficulté parfois rencontrée par les
utilisateurs de cette carte et de déterminer la taille du lot et
du niveau d'acceptation (A) ou rejet (R) équivalant à l'USL en
sa basant sur les développements (et normes) des plans d'échantillonnages
disponibles un peu plus loin dans le présent chapitre. Il est aussi
difficile avec cette carte de comparer en toute objectivité deux
points dont la taille des lots à l'origine n'est pas la même.
Nous avons alors en toute généralité:
(74.77)
Mais puisqu'il est très difficile (contrairement à la carte-p)
de comparer en toute objectivité avec cette carte deux points lorsque
la taille des n'est pas identique, certains spécialistes imposent – ou
recommandent – que la taille des lots soit la même tel que:
(74.78)
Conformément à l'étude que nous ferons plus tard des plans d'échantillonnages,
il ne peut pas y avoir de limite inférieure imposée par le client/direction
(LSL) ni d'objectif (T) dans ce domaine d'application.
Ainsi, avec le tableau suivant où la taille des lots (cas particulier!)
est identique:

Figure: 74.11 - Tableaux Microsoft Excel 14.0.6123 avec lots de taille
identique et non-conformités
Soit:

Figure: 74.12 - Formules Microsoft Excel 14.0.6123 correspondantes
au tableau précédent
Ce qui donne la carte de contrôle suivante:

Figure: 74.13 - Carte de contrôle
aux attributs np individuelle basée sur le tableau
Microsoft Excel 14.0.6123 précédent
où nous avons pris comme exemple les limites imposées par la
clientèle/direction:
(74.79)
Les mêmes remarques que pour la carte-p s'appliquent pour
la carte-np.
CC-C
Dans le chapitre de Statistiques, nous avons démontré que
lorsque la probabilité p est très faible et
tend vers zéro, mais
que toutefois la valeur moyenne tend
vers une valeur fixe si n tend vers l'infini, la loi binomiale
de moyenne avec k épreuves était
alors donnée par une loi de Poisson:
(74.80)
avec:
(74.81)
En pratique, certains remplacent la loi binomiale par une loi
de Poisson dès que et ou
lorsque et ...
Dans la pratique je recommande personnellement l'usage de l'approximation
lorsque et .
Soit
(74.82)
ce qui se note traditionnellement dans le domaine:
(74.83)
où est
simplement la moyenne du comptage (c'est de ce mot que provient
le "c" du nom de la carte) de non-conformités:
(74.84)
Conformément à l'étude que nous ferons plus tard des plans d'échantillonnages,
il ne peut pas y avoir de limite inférieure imposée par le client/direction
(LSL) ni d'objectif (T) dans ce domaine d'application.
Avantages: Très simple à construire car ne nécessite aucune connaissance
statistique poussée pour être calculée.
Problèmes: Encore une fois c'est une carte dont les limites de
contrôle peuvent être asymétriques si l'application pratique est à la
limite de l'acceptable lorsque les hypothèses théoriques de construction
ne sont pas respectées. Une difficulté parfois rencontrée par les
utilisateurs de cette carte et de déterminer la taille du lot et
du niveau d'acceptation (A) ou rejet (R) équivalant à l'USL en
sa basant sur les développements (et normes) des plans d'échantillonnages
disponibles un peu plus loin dans le présent chapitre. Enfin, une
dernière difficulté est que certains employés maîtrisent mal le
concept de pourcentages.
Ainsi, avec le tableau suivant où la taille des lots obligatoirement
identique pour les raisons cités juste précédemment (et les non-conformes
ne peuvent pas être
exprimés
en % de la taille du lot puisque la loi de Poisson est une loi
discrète!):

Figure: 74.14 - Tableaux Microsoft Excel 14.0.6123 avec
lots de taille
identique et non-conformités
Soit:

Figure: 74.15 - Formules Microsoft Excel 14.0.6123 correspondantes
au tableau précédent
Ce qui donne la carte de contrôle suivante:

Figure: 74.16 - Carte de contrôle
aux attributs C individuelle basée sur le tableau
Microsoft Excel 14.0.6123 précédent
où nous avons pris comme exemple les limites imposées par la
clientèle/direction:
(74.85)
La carte-c s'interprète donc comme une autre carte
de Shewhart en utilisant les règles de la WECO.
Remarque: Cette carte s'applique
très bien lorsque chaque point
représente le nombre de non-conformités de matériel assemblé de
nombreux composants (plus d'une dizaine de milliers souvent) dont
la probabilité d'être défectueux est très faible.
CC-U
La carte-u est similaire à la carte c à la différence
qu'elle a pour rôle de normaliser les données à l'unité afin d'avoir
une carte-c basée sur une loi de Poisson avec des pourcentages.
Pour cela, nous utilisons les mêmes hypothèses de travail que
celles démontrées dans le chapitre de Statistiques concernant la
loi de Poisson:
(74.86)
Ce qui fait que la carte-c s'écrit alors:
(74.87)
Si nous divisons la variable aléatoire k par la taille
du lot (ou nombre de composants) nous avons alors de par la propriété de
l'espérance et de la variance:
(74.88)
ce qui se note traditionnellement:
(74.89)
Avec donc:
(74.90)
Ainsi, avec le tableau suivant dans le cas particulier (mais
courant) où tous les lots ont la même taille ou le même nombre
de composants:

Figure: 74.17 - Tableaux Microsoft Excel
14.0.6123 avec lots de taille
identique et non-conformités
Soit:

Figure: 74.18 - Formules Microsoft Excel 14.0.6123 correspondantes
au tableau précédent
Ce qui donne la carte de contrôle suivante:

Figure: 74.19 - Carte de contrôle
aux attributs U individuelle basée sur le tableau
Microsoft Excel 14.0.6123 précédent
où nous avons pris comme exemple les limites imposées par la
clientèle/direction:
(74.91)
La carte-c s'interprète comme une autre carte de Shewhart
en utilisant les règles de la WECO.
Remarque: Cette carte s'applique
très bien lorsque chaque point
représente le nombre de non-conformités de matériel assemblé de
nombreux composants (plus d'une dizaine de milliers souvent) dont
la probabilité d'être défectueux est très faible.
CARTES DE CONTRÔLES QUANTITATIVES (AUX MESURES)
Les variables quantitatives sont donc des mesures continues de
type poids, longueur, épaisseur, température, diamètre...
Contrairement aux cartes de contrôle autocorrélées et aux
cartes de contrôle qualitatives (aux attributs), les cartes
de contrôle quantitatives (aux mesures) sont souvent - pour
ne pas dire toujours - présentées par paire:
- Une carte de contrôle représentant l'analyse/évolution de la
tendance statistique centrale (souvent l'espérance, car il est
relativement facile d'en construire un intervalle de confiance).
- Une carte de contrôle représentant l'analyse/évolution de la
dispersion via l'étendue ou l'écart-type.
Les limites de contrôles sont souvent prises (faute de temps
de réflexion dans les entreprises) comme des limites de Shewhart
et non des limites probabilistes.
CC À VALEURS INDIVIDUELLES AVEC LIMITES IMPOSÉES
C'est la carte de contrôle la plus simple et la plus utilisée
car ne nécessite aucune connaissance et hypothèse statistique particulière.
Elle consiste uniquement à reporter les mesures effectuées et à apporter
des actions correctives quand cela semble nécessaire.
Avantages: Simple à construire car ne nécessite aucune connaissance
ou hypothèse statistique particulière. Permet de vérifier de manière
ponctuelle si une production satisfait les contraintes spécifiées
par les clients.
Problèmes: Elle peut représenter des déviations aléatoires temporaires
qui pourront faire penser à tort à un problème du procédé/processus
et amèneront à des actions correctives inutiles (fausses alarmes).
Elle ne permet pas non plus d'identifier si le procédé/processus
est sous contrôle statistique ou pas.
Considérons par exemple le tableau suivant:

Figure: 74.20 - Tableaux Microsoft Excel 14.0.6123 avec
mesures individuelles
où nous avons pris en ce qui concerne les limites (nous
supposerons qu'elles imposent un écart-type de 0.10):
(74.92)
Cela qui nous donne la carte de contrôle suivante:

Figure: 74.21 - Carte de contrôle mesurée de
Shewhart avec limites imposées
Bien que cette carte soit la plus utilisée dans la pratique (car
les ingénieurs ont des directives de qualité avec des tolérances
bien précises à respecter), son problème reste cependant qu'elle
ne nous indique pas vraiment si le procédé ou processus semble
se stabiliser dans le temps (d'ailleurs ce n'est pas son rôle!)
et si le contrôle statistique est dans les limites du client (elle
nous montre seulement les statistiques ponctuelles ce qui est peu
robuste!). Nous allons partiellement y remédier avec la prochaine
carte.
CC À VALEURS INDIVIDUELLES AVEC MOYENNE ET ÉCART-TYPE
COURT TERME
Lorsque nous commençons les premières observations (mesures)
le procédé ou processus est rarement stable et il est hors de question
de s'amuser à faire des quantités de pièces d'essais juste pour
faire une carte de contrôle de la moyenne dans ces conditions.
Avantage: Met en évidence l'évolution dans le temps des indicateurs
de statistiques de positions et de dispersion et permet d'observer
la stabilisation du procédé/processus pendant la phase de prototypage
(souvent nommée "Phase I" dans la littérature spécialisée).
Problèmes: Ils sont les mêmes que pour la carte de contrôle précédente.
Il faut y rajouter le fait que nous supposons les données identiquement
distribuées et indépendantes selon une loi de probabilité symétrique,
ce qui n'était pas le cas précédemment.
Nous restons donc avec une carte de contrôle mesurée à laquelle
nous ajoutons la moyenne arithmétique et l'écart-type ponctuels
recalculés à chaque nouvel élément. En d'autres termes, comme nous
n'avons aussi pas assez d'échantillons pour connaître la loi de
probabilité et qu'il est hors de question de faire des déchets
pour cela et de former les gens pendant des semaines aux statistiques,
nous rajoutons à la carte de contrôle précédente les indicateurs
de limite de contrôle de Shewhart fixes suivants:
(74.93)
où CL signifie "Center Line" et avec l'estimateur
de l'espérance et l'estimateur non biaisé de l'écart-type (définitions
générales de la moyenne et de l'écart-type vues dans le chapitre
de Statistiques):
(74.94)
sans y associer aucun intervalle de confiance (puisque nous n'avons
justement pas assez d'échantillons ou que nous ne souhaitons pas
demander aux employés de passer du temps à déterminer la loi de
probabilité suivie). D'où le terme de "carte de contrôle avec
moyenne et écart-type de la moyenne ponctuelle". Cette terminologie
permet d'insister sur le fait que les indicateurs seront indiqués,
mais sans en connaître l'erreur par manque d'échantillons ou simplement
parce qu'il est irréaliste de demander aux employés concernés d'identifier
la loi de probabilité y relative et de faire le calcul d'intervalle
de confiance correspondant.
Remarquons que nous pouvons alors calculer des probabilités de
pièces non-conformes par excès ou par défaut en utilisant le fait
que X suit une loi Normale de paramètres:
(74.95)
Ainsi, en reprenant le tableau suivant ayant 150 (k) mesures:

Figure: 74.22 - Tableaux Microsoft Excel 14.0.6123 avec
mesures individuelles
Soit:

Figure: 74.23 - Formules Microsoft Excel 14.0.6123 correspondantes
au tableau précédent
Nous avons alors la carte de contrôle suivante:

Figure: 74.24 - Carte de contrôle
mesurée de
Shewhart avec moyenne et écart-type court-terme
où nous avons pris en ce qui concerne les limites imposées (nous
supposerons qu'elles imposent un écart-type de 0.10):
(74.96)
Nous voyons par exemple avec la carte de contrôle ci-dessus que
la mesure CL (donc l'estimateur de la moyenne) se stabilise
proche de la cible T entre le début et la fin. Il en va
de même pour UCL et LCL (car l'estimateur de l'écart-type
se stabilise) par contre selon l'usage en ingénierie les résultats
ne sont pas bons puisque l'UCL et LCL sont au-delà des
spécifications imposées par le client! À remarquer que cette carte
de contrôle aurait selon les règles de la WECO un unique point
au-delà des (nous
indiquons cela pour des raisons de comparaison avec les prochaines
cartes).
Remarque: Sur toutes les cartes sans aucune exception, les spécifications
du client doivent être indiquées en plus des limites calculées!
À ce niveau, nous imaginerons que nous restons dans l'incapacité de
déterminer la loi de probabilité des données (problème d'échantillons
ou de compétences) et donc in extenso tout aussi incapables de
calculer des intervalles de confiance pour la moyenne ou l'écart-type!
La prochaine carte de contrôle est censée y remédier.
CC AVEC MOYENNES BASÉES SUR L'ERREUR-STANDARD
Une fois le processus ou procédé stabilisé, nous considérons
que la moyenne et l'écart-type se stabilisent et que même si la
loi de probabilité que suit un groupe de k échantillons
n'est pas identique d'un jour à l'autre, de par le théorème central
limite, l'ensemble des moyennes suit elle une loi Normale. Dès
lors il peut être plus intéressant de représenter la variation
des moyennes dans le temps et non plus simplement les mesures simples.
Avantages: Masque (lisse) les variations aléatoires non systématiques
et permet donc souvent d'éviter des actions correctives non nécessaires
(fausses alertes).
Problèmes: Cette carte de contrôle suppose que les
prélèvements
sont identiquement distribués de par les hypothèses
de base de sa construction mathématique. De plus, dans
le cadre des limites fixes de Shewhart, la loi de distribution
est supposée symétrique.
Le plus gros problème de cette carte est aussi que le
nombre d'individus par échantillon doit être suffisamment
grand pour que l'estimateur sans biais de l'écart-type
ne soit pas trop éloigné de
la réalité, ce qui fait
qu'on ne la trouve pas dans les logiciels (problème qui
fait que, souvent, elle est remplacée par une autre carte
que nous verrons un peu plus loin et qu).
Nous considérons alors le tableau suivant de 25 prélèvements
(que nous identifierons dans le cas présent par la variable k)
de 6 individus chacun (que nous identifierons par la variable n)
prises d'une production continue (sans arrêt machine!):

Figure: 74.25 - Mesures journalières
sans arrêt de la machine
où chaque jour, nous prenons que 6 individus de l'ensemble
des éléments à notre disposition. Sur la
carte de contrôle, nous
représenterons alors chaque point comme étant la
moyenne de ces 6 individus.
Nous avons démontré dans le chapitre de Statistique que l'écart-type
de la moyenne (erreur-type) d'une série de n variables aléatoires
indépendantes et identiquement distribuées était:
(74.97)
Nous avons alors les indicateurs de limite de contrôle de
Shewhart suivants (évidemment comme nous utilisons les estimateurs
de la moyenne et de l'écart-type, plus le nombre de prélèvements
et d'individus est grand, plus les limites sont asymptotiquement
précises):
(74.98)
Avec:
(74.99)
et si tous les sont
identique:
(74.100)
Remarquons que nous pouvons alors calculer des probabilités de
sous-groupes non-conformes par excès ou par défaut en utilisant
le fait que suit
une loi Normale de paramètres:
(74.101)
Nous obtenons alors le tableau suivant:

Figure: 74.26 - Indicateurs correspondants
aux mesures obtenues
Soit:

Figure: 74.27 - Formules Microsoft Excel 14.0.6123 correspondantes
au tableau précédent
Nous avons alors la carte de contrôle suivante:

Figure: 74.28 - Carte de contrôle
X barre/barre - ER
où nous avons pris en ce qui concerne les limites imposées:
(74.102)
À remarquer que cette carte de contrôle aurait selon les
règles
de la WECO six points au-delà des (nous
indiquons cela pour des raisons de comparaison avec la carte précédente
et les prochaines cartes). Il s'agit donc d'une carte plus sensible
aux variations que la précédente. Il faut remarquer aussi que les
limites UCL et LCL sont plus larges que les USL et LSL imposées.
Avec des limites de et
selon l'hypothèse de données normalement distribuées, nous avons
en utilisant la symétrie de la loi Normale et en notant comme à l'habitude la
fonction de probabilité cumulée de la loi Normale centrée réduite:
(74.103)
Donc nous aurons statistiquement 1 point (pièce/action)
sur le graphique sur 370 en dehors des par
unité de temps de mesure (donc si chaque point sur la carte
est fait par fréquence de 1 heure nous avons alors une ARL de 0.0027/heure)
uniquement pour des raisons
statistiques et qui seront donc de fausses alarmes.
Nous appelons ce dernier chiffre l'ARL pour "Average
Run Length" (certains
utilisent l'appellation française P.O.M. pour "Période
Opérationnelle
Moyenne"). Lorsqu'il est rapporté à une unité de
temps particulière, nous parlons alors de ATS pour "Average
Time to Signal". Évidemment,
par extension, l'ajout des règles
empiriques de la WECO ajoutent des fausses alarmes et cela a
pour effet négatif
immédiat de diminuer l'ARL.
L'ARL est aussi importante dans la pratique, car elle donne la
taille d'intervalle de pièces au-delà de laquelle il ne faut pas
aller pour échantillonner une production! On fera en sorte dans
la pratique (quand cela est possible) de prendre une valeur inférieure
proche de l'ARL. pour de grandes productions mais si possible pas
au-delà!
Dans la pratique, la valuer de 0.0027 que nous avosn obtenu ci-dessus,
est appelée "l'erreur de type I" de la carte de
contrôle (fausse alarme). Évidemment il y aussi les erreurs
de type II (absence d'alarme alors qu'il devrait y en avoir une).
Mais comme je n'ai jamais vu qui que ce soit utiliser cela dans
la pratique.
Remarque: Comme nous l'avons déjà mentionné,
parfois plusieurs niveaux de contrôles sont ajoutés sur les cartes,
ainsi nous pouvons observer du  et
en même temps du  .
Aux U.S. le facteur 2 ou 3 serait majoritairement utilisé que la
distribution soit symétrique ou non... alors que dans les pays
européens, nous utilisons des limites probabilistes qui ont une
bien meilleure fiabilité lorsque les données ne sont pas distribuées
selon des fonctions symétriques (comme c'est le cas pour les cartes
bien connues utilisant l'étendue R que nous verrons plus
tard).
Rappelons que le problème de cette carte est que est
asymptotiquement correcte que si est
grand. Alors que dans la réalité ce n'est de loin pas le cas
puisque souvent cette valeur est inférieure à 10. Dès lors nous
verrons plus loin une carte de la moyenne dont les limites fixes
sont calculées sur la base de l'étendue R et non pas de .
Cependant, dans le chapitre de Statistiques, nous avons démontré que
lorsque l'écart-type est estimé, nous avons alors:
(74.104)
Nous pouvons donc utiliser la carte de Shewhart aux limites probabilistes
suivante:
(74.105)
Enfin, remarquons que rien ne nous empêche de faire de l'inférence
statistique sur la moyenne en utilisant la relation démontrée dans
le chapitre de Statistiques:
(74.106)
en sachant que dans le domaine du contrôle qualité il est fortement
souhaitable que pour un donné (généralement
de l'ordre de 5%), la valeur zéro soit comprise dans l'intervalle:
(74.107)
ce qui est assimilé alors à un test d'hypothèse avec .
CC AVEC ÉCARTS-TYPES (S BARRE - S)
Toujours dans le cadre d'un processus ou procédé sous contrôle,
il peut être intéressant en plus de communiquer la carte de contrôle
des moyennes (avec limites fixes) précédemment présentée une carte
représentant les volatilités dans le temps en considérant à nouveau
une distribution Normale des variables aléatoires. Effectivement,
rappelons que la loi Normale est totalement définie par ses paramètres .
D'où la raison d'avoir un oeil sur ses deux là!
Avantages: Complète très bien la carte de contrôle précédente
et permet de visualiser si la volatilité du procédé se stabilise.
Représente bien la variation à l'intérieur même des données de
chaque prélèvement (dispersion instantanée) que nous pourrons détecter.
Problèmes: Cette carte de contrôle est utilisée seulement lorsque
la phase de prototypage est terminée (souvent nommée "Phase
II" dans la littérature spécialisée) car elle est basée sur
une hypothèse forte incontournable qui est que les données sont
normalement distribuées. De plus, les limites de contrôles de Shewhart
sont peu adaptées dans le cas présent, car comme nous allons le
démontrer en détails, la loi de distribution de la variance n'est
pas une loi symétrique alors que Shewhart suppose que c'est le
cas.
L'idée est de représenter:
(74.108)
toujours avec l'estimateur de l'espérance (k étant le
nombre de prélèvements pour rappel...):
(74.109)
et toujours avec l'estimateur de maximum de vraisemblance non
biaisé de l'écart-type noté S dans
le domaine de la qualité (à l'opposé
de dans
le domaine des Statistiques pures):
(74.110)
où n correspond donc bien évidemment au nombre d'individus
par prélèvement (échantillon).
Pour calculer l'espérance et la variance , il
faut considérer S comme une variable aléatoire distribuée
normalement (c'est l'hypothèse forte en incontournable de cette
carte de contrôle dont nous avions fait mention dans les problèmes!).
Nous avons alors démontré dans le chapitre de Statistiques que
nous avions:
(74.111)
que nous noterons par la suite t comme étant la variable
aléatoire correspondante. Pour la suite, nous allons considérer et comme
de simples coefficients constants de S. Donc la variable
aléatoire t sera en réalité fonction implicite de S tel
que:
(74.112)
Nous nous intéressons maintenant au calcul de l'espérance de S.
Il est alors plus convenable de prendre la racine carrée de t tel
que:
(74.113)
Il vient alors:
(74.114)
Rappelons que nous avons vu dans le chapitre de Statistiques
que la loi du Khi-deux était définie par la fonction de densité de
probabilité suivante:
(74.115)
Il vient alors:
(74.116)
Posons pour la suite:
(74.117)
Nous avons alors:
(74.118)
Nous avons donc:
(74.119)
Pour terminer sur ce point, il faut savoir qu'il est de tradition
de noter de
la manière suivante:
(74.120)
et que nous en trouvons des valeurs dans les tables alors que
c'est inutile si nous possédons un tableur comme la version
anglophone de Microsoft Excel 14.0.6123 en écrivant
la formule suivante ( serait écrit
dans la cellule A1):
=SQRT(2/(A1-1))*EXP(GAMMALN(A1/2))/EXP(GAMMALN((A1-1)/2))
ou dans Calc de OpenOffice (la formule y étant plus simple):
=RACINE(2/(A1-1))*GAMMA(A1/2)/GAMMA((A1-1)/2)
Calculons maintenant la variance de S en utilisant la
relation de Huyghens démontrée dans le chapitre de Statistiques:
(74.121)
et nous avons:
(74.122)
Il vient alors:
(74.123)
et:
(74.124)
Nous avons alors:
(74.125)
soit au final:
(74.126)
ce qui est plus traditionnellement condensé sous la forme:
(74.127)
Les coefficients (tous
fonctions de )
sont tabulés dans des tables en fonction du nombre d'individus
par prélèvement (échantillon), mais encore une
fois ils sont très simples à calculer
dans un tableur comme Microsoft Excel avec la relation explicite
donnée
plus haut. Et nous avons donc:
(74.128)
où k est le nombre de prélèvements.
Ainsi, si nous considérons toujours le tableau suivant
de 25 prélèvements (k) de 6 individus :

Figure: 74.29 - Mesures journalières
avec 6 individus sans arrêt de la machine
Nous pouvons calculer, ou trouver dans les tables que:
(74.129)
Ce qui donne:

Figure: 74.30 - Calculs des indicateurs
correspondants
Soit:

Figure: 74.31 - Formules Microsoft Excel 14.0.6123 explicites
du tableau précédent
Nous avons alors la carte de contrôle suivante:

Figure: 74.32 - Carte de contrôle
S Barre - S
où nous avons pris pour le client (qui avait imposé un USL et LSL de ):
(74.130)
À remarquer que cette carte de contrôle aurait selon les
règles
de la WECO zéro points au-delà des (nous
indiquons cela pour des raisons de comparaison avec les cartes
précédentes et les prochaines). Elle est donc moins sensible que
les autres cartes. Il faut remarquer aussi que les limites UCL et LCL sont
plus larges que les USL et LSL imposées.
Pour rappel, le problème majeur de cette carte de contrôle est
qu'elle n'est juste que si et seulement si les données sont normalement
distribuées et que Shewart suppose la loi de S symétrique
alors que ce n'est pas le cas. Dès lors, les responsables qualités
associent alors avec la carte de la moyenne une autre carte que
nous allons présenter de suite.
CC AVEC MOYENNES BASÉES SUR L'ÉCART-TYPE (X BARRE - S)
Lors de notre étude de la carte de contrôle aux moyennes avec
les limites fixes basées sur l'écart-type de la moyenne, nous avons
bien mis en évidence que cette dernière souffrait de l'handicap
que est
trop approximatif dans la pratique (car n est souvent trop
petit).
Dès lors, un moyen de contourner cela est d'utiliser les résultats
obtenus lors de l'étude de la carte de contrôle précédente.
Avantages: Corriger le problème de la carte de contrôle
aux moyennes lorsque le nombre d'individus par prélèvements
(échantillons) est trop petit. Représente bien la
variation du niveau moyen des données (tendance
centrale).
Problèmes: La démonstration mathématique de l'origine des limites
de contrôles est ardue (voir chapitre de Statistiques pour le détail
des démonstrations). Un autre problème c'est que cette carte ne
fonctionne que si et seulement si les données sont identiquement
distribuées et le sont selon une loi Normale! Par ailleurs puisque
les limites sont basées sur l'estimateur de l'écart-type, il faudrait
un n qui dans l'idée ne soit pas en dessous de la dizaine...
Rappelons d'abord que nous avions:
(74.131)
et nous avons démontré plus haut que:
(74.132)
Nous avons donc:
(74.133)
et que nous retrouvons parfois dans la littérature sous la forme:
(74.134)
Remarquons que nous pouvons alors calculer des probabilités de
sous-groupes non-conformes par excès ou par défaut en utilisant
le fait que suit
une loi Normale de paramètres:
(74.135)
dont il découle immédiatement que X suit une loi Normale
de paramètres:
(74.136)
Ainsi, si nous considérons toujours le tableau suivant
de 25 prélèvements (k) de 6 individus :

Figure: 74.33 - Mesures journalières
avec 6 individus sans arrêt de la machine
Nous pouvons calculer, ou trouver dans les tables que:
(74.137)
Nous avons alors le tableau suivant:

Figure: 74.34 - Indicateurs correspondants
aux mesures obtenues
Soit:

Figure: 74.35 - Formules Microsoft Excel 14.0.6123 explicites
du tableau précédent
Nous avons alors la carte de contrôle suivante:

Figure: 74.36 - Carte de contrôle
X barre
- S
où nous avons pris pour le client (qui avait imposé un USL et LSL de ):
(74.138)
À remarquer que cette carte de contrôle aurait selon les
règles
de la WECO six points au-delà des (nous
indiquons cela pour des raisons de comparaison avec les cartes
précédentes et les prochaines). Elle est donc plus sensible que
la carte précédente et tout aussi sensible que la carte aux moyennes
basée sur l'erreur-standard. À remarquer aussi que les limites UCL et LCL sont
plus larges que les limites USL et LSL imposées.
CC AVEC ÉTENDUES (R BARRE - R)
La carte de contrôle aux étendues est donc souvent
associée à la
carte de contrôle de la moyenne. Elle a pour objectif de
remplacer avantageusement la carte de contrôle de l'écart-type S lorsque
les données ne sont pas normalement distribuées,
car sa construction mathématique permet si on le désire
de choisir la loi de probabilité sous-jacente.
Ainsi, nous utilisons cette nouvelle carte lorsque (le
nombre d'individus par prélèvement), alors que
pour la carte de l'écart-type il faut plutôt que .
Avantages: Complète très bien la carte de contrôle de la moyenne
et remplace avantageusement la carte de l'écart-type lorsque le
nombre de prélèvements est peu élevé. Représente bien la variation à l'intérieur
même des données de chaque prélèvement (dispersion instantanée)
que nous pourrons détecter.
Problèmes: La démonstration mathématique de l'origine des limites
de contrôles est ardue (voir chapitre de Statistiques pour le détail
des démonstrations) et la détermination des coefficients nécessite
l'utilisation de calculs par la méthode de Monte-Carlo (cf.
chapitre de Méthodes numériques). Un autre problème, c'est
que bien que la loi de probabilité de l'étendue puisse être choisie,
elle est souvent donnée dans les livres spécialisés que pour la
loi Normale...
L'idée est de représenter (il est impossible que le client fixe
une limite USL, LSL ou une cible T en ce qui
concerne l'étendue d'où le fait que ces paramètres ne soient cette
fois-ci pas mentionnés):
(74.139)
et cette fois-ci nous n'allons pas utiliser les estimateurs de
l'espérance et de l'écart-type car pour ils
ne convergent pas assez vite. Dès lors, nous allons utiliser
les résultats démontrés dans le chapitre
de Statistiques lors de notre étude
des statistiques d'ordre. Nous avions obtenu comme estimateur
de l'écart-type avec les constantes de Hartley:
(74.140)
avec:
(74.141)
ou selon les logiciels (mais cette dernière est plus logique
quand on y réfléchit):
(74.142)
Dès lors:
(74.143)
ce qui se note traditionnellement:
(74.144)
Les coefficients sont
disponibles dans la littérature (ou sur le web) sous forme
de tables en fonction du nombre d'individus
par prélèvements et souvent (malheureusement) que
pour une distribution normale (voir l'exemple dans le chapitre
de Statistiques).
Ainsi, si nous considérons toujours le tableau suivant
de 25 prélèvements (k) de 6 individus (n):

Figure: 74.37 - Mesures journalières
avec 6 individus sans arrêt de la machine
Puisque nous
trouvons dans les tables:
(74.145)
Nous avons alors le tableau suivant:

Figure: 74.38 - Indicateurs correspondants
aux mesures obtenues
Soit:

Figure: 74.39 - Formules Microsoft Excel 14.0.6123 explicites
du tableau précédent
Nous avons alors la carte de contrôle suivante:

Figure: 74.40 - Carte de contrôle
R barre - R
qui (est-il nécessaire de le rappeler?) sous-estime donc le nombre
de détections d'erreurs puisque la loi de probabilité de l'étendue
n'est en réalité pas symétrique (donc l'application des limites
fixes de Shewhart n'est pas vraiment adaptée...) et parce que la
quasi-totalité des tables supposent quand même les données distribuées
normalement aussi.
À remarquer que cette carte de contrôle aurait selon les
règles
de la WECO zéro points au-delà des (nous
indiquons cela pour des raisons de comparaison avec les cartes
précédentes et les prochaines).
CC AVEC MOYENNES BASÉES SUR L'ÉTENDUE (X BARRE-R)
Lors de notre étude de la carte de contrôle aux moyennes avec
les limites fixes basées sur l'écart-type de la moyenne, nous avons
bien mis en évidence que cette dernière souffrait de l'handicap
que est
trop approximatif dans la pratique (car n est trop petit).
Dès lors, un moyen de contourner cela est d'utiliser les résultats
obtenus lors de l'étude de la carte de contrôle précédente.
Avantages: Corriger le problème de la carte de contrôle
aux moyennes avec l'écart-type lorsque le nombre d'individus
par prélèvements (échantillons) est trop petit. Représente
bien la variation du niveau moyen des données (tendance
centrale).
Problèmes: La démonstration mathématique de l'origine des limites
de contrôles est ardue (voir chapitre de Statistiques pour le détail
des démonstrations) et la détermination des coefficients nécessite
l'utilisation de calculs par la méthode de Monte-Carlo (cf.
chapitre de Méthodes numériques). Un autre problème, c'est
que bien que la loi de probabilité de l'étendue puisse être choisie,
elle est souvent donnée dans les livres spécialisés que pour la
loi Normale
Remarque: Cette carte de contrôle est très utilisée dans le cadre
de l'étude
de la reproductibilité et
de la répétabilité (Étude
R&R). Raisonp pour laquelle on la retrouve dans les logiciels
de maîtrise statistique des processus automatiquement lorsque l'on
lance une analyse R&R (typiquement ce que fait le logiciel Minitab).
Rappelons d'abord que nous avions:
(74.146)
et nous avons démontré dans le chapitre de Statistique dans le
cadre de notre étude des statistiques d'ordre que:
(74.147)
Il vient alors (il est impossible que le client fixe une limite USL, LSL ou
une cible T en ce qui concerne l'étendue d'où le fait que
ces paramètres ne soient cette fois-ci pas mentionnés):
(74.148)
toujours avec:
(74.149)
et l'ensemble se note traditionnellement dans le domaine:
(74.150)
Remarquons que nous pouvons alors calculer des probabilités de
sous-groupes non-conformes par excès ou par défaut en utilisant
le fait que suit
une loi Normale de paramètres:
(74.151)
dont il découle immédiatement que X suit une loi Normale
de paramètres:
(74.152)
Ainsi, si nous considérons toujours le tableau suivant
de 25 prélèvements (k) de 6 individus (n):

Figure: 74.41 - Mesures journalières avec
6 individus sans arrêt de la machine
Puisque nous
trouvons dans les tables:
(74.153)
Nous avons alors le tableau suivant:

Figure: 74.42 - Indicateurs correspondants
aux mesures obtenues
Soit:

Figure: 74.43 - Formules Microsoft Excel 14.0.6123 explicites
du tableau précédent
Nous avons alors la carte de contrôle suivante:

Figure: 74.44 - Carte de contrôle
X barre
- R
À remarquer que cette carte de contrôle aurait selon les
règles
de la WECO zéro points au-delà des (nous
indiquons cela pour des raisons de comparaison avec les cartes
précédentes et les prochaines).
La question est alors de savoir laquelle est le plus juste...
Et c'est très délicat, car les limites de Shewhart comme nous l'avons
déjà dit de nombreuses fois sont peu réalistes et supposent une
distribution symétrique. Or, les calculs mathématiques détaillés
du coefficient montrent
que les limites ne devraient pas être symétriques. De plus, ce
dernier coefficient est basé majoritairement sur une hypothèse
de normalité de
la distribution des mesures, ce qui lui ajoute une faiblesse supplémentaire.
Cependant, si nous comparons à la toute première carte de contrôle
avec l'écart-type court terme qui n'avait qu'une seule alarme,
la carte de contrôle ci-dessus est plus réaliste que celle avec
l'erreur standard qui affiche trop de fausses alertes.
Ces difficultés que nous retrouvons à toutes les
cartes de contrôle vues jusqu'à maintenant montrent
qu'en fin de compte il faut mieux faire une analyse fréquentielle
des mesures, déterminer la loi
de probabilité et avec des outils spécialisés
basés sur la méthode
de Monte-Carlo,
calculer les limites supérieures et inférieures
pour un donné.
CARTES DE CONTRÔLES QUANTITATIVES AUTOCORRÉLÉES (AUX MESURES)
La famille des cartes de contrôle autocorrélées est définie
par le fait que soit les points sur la carte, soit les limites
de contrôles sont calculées sur la base d'un certain nombre de
points qui précèdent.
Ces cartes ont pour avantage de nécessiter moins de données
que les autres et d'amplifier le phénomène de déviation et donc
de détecter les anomalies plus rapidement.
Les règles de la WECO ne s'appliquent pas aux cartes autocorrélées.
Si un point est à l'extérieur des limites calculées, il faut une
action de correction.
CC À VALEURS INDIVIDUELLES BASÉES SUR L'ÉTENDUE MOBILE
(I-EM X BARRE)
En phase de prototypage, nous ne pouvons pas nous permettre de
mettre en place le concept de prélèvement.
De plus, la carte de contrôle mesurée avec moyenne
et écart-type court
terme ne permet pas de faire de l'inférence statistique,
car la loi de distribution est supposée inconnue car le
procédé non stable.
Une solution intermédiaire consiste à considérer
alors que le procédé est stable (hypothèse
de normalité des données) et de calculer
les limites à partir d'un nombre minimal d'individus qu'il
est possible d'avoir pour faire une statistique, c'est-à-dire:
deux!
Cette situation est donc bien adaptée aux phases de prototypage
ou dans le cas de procédés/processus à cadence lente ou dont les
mesures (pièces) sont très onéreuses.
Avantages: Complète les premières cartes à valeur
individuelle que nous avons vues tout au début pour des
situations où il est
difficile d'avoir un grand nombre d'individus pour des raisons
de coûts. Cette carte de contrôle est parfois considérée
comme le couteau suisse du contrôle qualité... et
elle est de plus en plus utilisée puisqu'elle correspond à la
politique de la production "Just
in Time" (JIT) de petites séries (pour la diminution
des coûts).
Problèmes: La démonstration mathématique de l'origine des limites
de contrôles est ardue (voir chapitre de Statistiques pour le détail
des démonstrations) et la détermination des coefficients nécessite
l'utilisation de calculs par la méthode de Monte-Carlo (cf.
chapitre de Méthodes numériques). Un autre problème, c'est
que bien que la loi de probabilité de l'étendue puisse être choisie,
elle est souvent donnée dans les livres spécialisés que pour la
loi Normale.
Afin de détourner le problème d'une estimation acceptable de
l'écart-type, l'idée consiste à considérer deux mesures successives comme
les variables aléatoires d'une statistique d'ordre dont nous calculons
l'étendue en valeur absolue:
(74.154)
où MR signifie "Moving Range" (cette carte de
contrôle est appelée parfois "carte–MR(2)"). Et nous
avons alors:
(74.155)
puisque nous avons forcément n-1 étendues mobiles.
Nous reprenons alors les définitions de la carte de contrôle
mesurée avec moyenne et écart-type court terme:
(74.156)
et nous pouvons nous débarrasser du problème de
l'estimation de en
utilisant la relation démontrée dans le chapitre
de Statistique dans le cadre de l'étude des statistiques
d'ordre:
(74.157)
Ce qui nous amène alors à (il est impossible que le client fixe
une limite USL, LSL ou une cible T en ce qui
concerne l'étendue d'où le fait que ces paramètres ne soient cette
fois-ci pas mentionnés):
(74.158)
ce qui est parfois noté:
(74.159)
Nous devons prendre dans le cas présent la valeur pour .
Les tables nous donnent:
(74.160)
ce qui nous donne:
(74.161)
Remarquons que nous pouvons alors calculer des probabilités de
sous-groupes non-conformes par excès ou par défaut en utilisant
le fait que X suit une loi Normale de paramètres:
(74.162)
dont il découle immédiatement que X suit une loi Normale
de paramètres:
(74.163)
Reprenons les données suivantes:

Figure: 74.45 - Mesures journalières
sans arrêt de la machine
Nous avons alors:

Figure: 74.46 - Indicateurs correspondants
aux mesures obtenues
Soit (nous avons coupé la capture d'écran en deux parties faute
de place):

Figure: 74.47 - Formules Microsoft Excel
14.0.6123 explicites du tableau précédent
et:

Figure: 74.48 - Suite des formules Microsoft Excel 14.0.6123 explicites du tableau antéprécédent
Nous avons alors le graphique:

Figure: 74.49 - Carte de contrôle
I-EM X barre
À remarquer que cette carte de contrôle aurait selon les
règles
de la WECO zéro points au-delà des (nous
indiquons cela pour des raisons de comparaison avec les cartes
précédentes et les prochaines).
CC À VALEURS INDIVIDUELLES AVEC ÉTENDUE MOBILE (I-EM EM BARRE)
La carte précédente utilisant la tendance centrale doit être
complétée (au même titre que toutes les autres cartes précédentes à tendance
centrale) avec une carte affichant la tendance de la dispersion
(les avantages et problèmes de cette carte de contrôle sont les
mêmes que la précédente).
Nous reprenons alors les définitions d'une carte de contrôle
mesurée pour obtenir:
(74.164)
Encore une fois, l'écart-type de l'étendue mobile
(EM) se construit de la même manière que l'écart-type
de l'étendue. Nous avons
alors:
(74.165)
Dès lors il vient (il est impossible que le client fixe une
limite USL, LSL ou une cible T en ce qui
concerne l'étendue d'où le fait que ces paramètres ne soient
cette fois-ci pas mentionnés):
(74.166)
ce qui se note au même titre que la carte de contrôle à l'étendue:
(74.167)
Reprenons le tableau de données suivant:

Figure: 74.50 - Mesures journalières
sans arrêt de la machine
Puisque la carte est avec des valeurs individuelles, avec l'étendue
mobile nous avons .
Nous trouvons dans les tables:
(74.168)
Ce qui nous donne:

Figure: 74.51 - Indicateurs correspondants
aux mesures obtenues
Soit:

Figure: 74.52 - Formules Microsoft Excel 14.0.6123 explicites
du tableau précédent
Nous avons alors la carte de contrôle suivante:

Figure: 74.53 - Carte de contrôle
I-EM barre - EM
Nous voyons que la carte de contrôle avec étendue mobile semble
beaucoup plus sensible que n'importe quelle carte. Mais le problème
subsiste quant à savoir si l'observation que nous faisons de
cette carte est correcte dans le sens où l'étendue mobile ne
suit pas une loi de distribution symétrique contrairement à ce
que présuppose les limites fixes de Shewhart.
Il faut aussi savoir que certaines règles de la WECO (les règles
concernant les séquences) ne s'appliquent pas sur ce type de
carte puisque les données y sont autocorrélées.
CC MOYENNES MOBILES (MA)
Nous supposons toujours que la caractéristique suit
une loi Normale et que l'on prélève des échantillons
de taille constante n. La moyenne mobile de durée h à l'instant t,
montée est
définie par la moyenne mobile (moving average) vue dans le chapitre
de Statistiques:
(74.169)
Le paramètre h est appelé aussi horizon. Plus grande
sera la valeur de h meilleure est l'efficacité de la carte
pour la détection des petits déréglages.
Lorsque ,
en supposant l'indépendance entre les échantillons, nous obtenons
:
(74.170)
Et si tous les échantillons ont la même taille (si échantillons
il y a...):
(74.171)
Soit:
(74.172)
Et:
(74.173)
Donc:
(74.174)
Avantages: Le fait que l'on lisse les données avec une moyenne
mobile ayant pour objectif d'adoucir les fortes variations rend
cette carte très bien adaptée aussi aux petites productions raison
pour laquelle on l'utilise principalement pour des mesures individuelles
dont le nombre se situe au moins aux alentours de 10 (ceci dit
elle est utilisable aussi pour des mesures groupées). Par ailleurs
dans l'exemple qui suivra, nous nous limiterons à cas de figure
particulier! Nous voyons aussi que les limites de la carte seront
d'autant plus petites que h est grand. Donc la carte peut être
très sensible aux petites variations.
Problèmes: L'écart-type est supposé connu ou du moins calculé suffisamment
précis pour que l'estimateur converge vers la valeur théorique.
Tous les échantillons doivent avoir une taille identique n si
nous utilisons l'écriture développée ci-dessus (sinon les logiciels
implémentent le cas où cette condition n'est pas satisfaite).
Prenons le tableau de données suivant:

Figure: 74.54 - Mesures individuelles
sans arrêt de la machine
Puisque la carte est avec des valeurs individuelles, nous avons .
Et le système, en utilisant l'étendue mobile pour l'estimation
de l'écart-type, se réduit donc à:
(74.175)
donc outre les dénominateurs avec la racine de h, les
paramètres CL, UCL et LCL sont les mêmes
que la carte de contrôle I-EM X barre.
Nous devons prendre dans le cas présent la valeur pour .
Les tables nous donnent:
(74.176)
Ce qui nous donne:

Figure: 74.55 - Indicateurs correspondants
aux mesures obtenues
Soit (nous avons coupé la capture d'écran en deux parties faute
de place):

Figure: 74.56 - Formules Microsoft Excel 14.0.6123 explicites
du tableau précédent (première partie)
et:

Figure: 74.57 - Formules Microsoft Excel 14.0.6123 explicites
du tableau précédent (deuxième partie)
Nous avons alors la carte de contrôle suivante:

Figure: 74.58 - Carte de contrôle
à valeurs individuelles de la moyenne mobile (X barre
- I-MA)
CC CUSUM AVEC V-MASQUE EMPIRIQUE
Un des principaux inconvénients des cartes de type Shewhart
est de ne baser l'analyse que sur les dernières informations
recueillies (hypothèse d'indépendance des mesures). Elles ignorent
les informations relatives aux tendances du procédé contenues
dans les dernières estimations. Il faut savoir que de nombreux
instituts de normalisation qualité dans le monde (AFNOR ou ASQ)
considèrent les cartes de Shewhart comme complètement obsolètes
(à tort ou à raison?) et préconisent les cartes de type CUSUM
car utilisent l'autocorrélation et l'amplification des variations.
Dans les années 1950 des cartes de contrôle appelées
donc CUSUM (CUmulated Sum: somme cumulée) ou "cartes
de Page-Hinkley" (en
honneur à leurs inventeurs) ont été introduites par des statisticiens
pour détecter de petites variations. Même si elles sont mathématiquement
plus optimales, elles sont difficiles à configurer correctement
et très sensibles aux paramètres initiaux.
Le principe des cartes CUSUM (car il en existe plusieurs pour
une loi de distribution donnée) est de sommer les écarts entre
les estimations de la position du procédé/processus et la cible.
Lorsque le cumul des écarts positifs ou le cumul des écarts négatifs
dépasse une certaine valeur, nous concluons à un décentrage du
procédé.
Nous posons:
et
(74.177)
où souvent la première égalité est aussi notée:
(74.178)
Dès lors il vient une écriture très connue dans la littérature:
(74.179)
En général, la carte de CUSUM se comporte comme suit:
- Si le procédé est sous-contrôle, la somme cumulée fluctue
aléatoirement autour de zéro.
- Si la moyenne subit une dérive positive de la moyenne, la
statistique ou croît
rapidement par accumulation d'un biais systématique.
Remarques:
R1. Dans de nombreux ouvrages et de très nombreux cas applicatifs,
nous n'utilisons pas (variable
centrée et réduite) car la variance est inconnue et nous nous
restreignons qu'à l'usage de .
Les développements mathématiques qui suivent alors s'adaptent
très facilement.
R2. La même approche peut être faite avec des moyennes de prélèvements
selon:
et 
R3. Il existe de nombreuses versions différentes de carte CUSUM
et même pour la carte CUSUM avec V-Masque il en existe de multiples
sous-familles. Pour être honnête c'est selon mon opinion un sacré foutoir...
Pour l'exemple, reprenons le tableau de données suivant:

Figure: 74.59 - Mesures journalières
avec 6 individus sans arrêt
de la machine
et nous calculons la somme cumulée en considérant toujours
une cible de :

Figure: 74.60 - Indicateurs correspondants aux mesures
obtenues
Soit:

Figure: 74.61 - Formules Microsoft Excel 14.0.6123 explicites
du tableau précédent
Nous obtenons alors:

Figure: 74.62 - Carte de contrôle
CUSUM pour l'instant sans le V-Masque empirique
Nous voyons alors très vite avec cette carte que la somme cumulée
semble décroître. Ceci indique que la vraie qualité moyenne est
inférieure à la cible (vous pouvez essayer avec 9.994 comme cible
afin de voir la sensibilité).
Il faut maintenant considérer deux cas:
H1. Il vient sous l'hypothèse de normalité (processus sous
contrôle) et par la propriété de stabilité de la loi Normale
que pour une variable aléatoire centrée réduite:
(74.180)
ou sinon:
(74.181)
Dès lors, sous cette hypothèse, nous avons les sommes cumulées qui
sont réparties autour d'une droite de régression de pente 0 (puisque
la moyenne des sommes de variables aléatoires dont la moyenne
est nulle est... nulle) et les distributions ont leur écart-type
qui est proportionnel à la racine de i (respectivement
la variance qui est proportionnelle à i)
H2. Si le processus est hors contrôle (dispersion globale),
il existe un instant tel
que pour et pour avec (cette
dernière valeur étant souvent imposée par les contraintes de
qualité et nommée "translation moyenne
importante").
Dès lors, nous avons:
(74.182)
ou:
(74.183)
pour et:
(74.184)
pour .
Ceci étant précisé, il va de soi que les sommes cumulées:
(74.185)
sont réparties autour d'une droite de régression de pente à partir
de l'instant r. Respectivement, nous avons:
(74.186)
Pour continuer, l'idée est de discriminer l'hypothèse H1 d'une
droite de régression de pente nulle et l'hypothèse H2 d'une droite
de régression de pente pour en
fixant pour frontière empirique la pente moitié (le juste milieu
quoi...):
(74.187)
respectivement:
(74.188)
et un décalage lui aussi empirique avec . À l'étape n nous
rejetons H1, si pour un entier nous
avons:
(74.189)
Il bien évidemment aussi possible de faire le rejet avec une
représentation géométrique (cela a l'avantage d'aller beaucoup
plus vite et de faire le contrôle d'un seul coup pour n'importe
quel m plus petit ou égal à n). L'idée est alors
de tracer une droite de pente K partant du point d'abscisse .
S'il existe un point avec en
dessous de la droite, nous tirons alors l'alarme.
Le lecteur aura remarqué que dans le cas présent, nous considérons strictement
positif et donc in extenso la pente K aussi. Évidemment
ce n'est pas réaliste et dès lors il faut utiliser une droite
de pente K positive et une autre droite de pente -K négative.
La zone comprise entre les deux droites avec une abscisse est
appelée un "V-masque" et
le contrôle est assimilé logiquement
alors à un test bilatéral. Ainsi, s'il existe un point avec en
dehors du V-masque nous tirons l'alarme.
Faisons un exemple avec le graphique précédent. Considérons
les valeurs empiriques suivantes des paramètres:
avec
(74.190)
Soit:
(74.191)
Il vient alors:

Figure: 74.63 - Indicateurs correspondants
aux mesures
obtenues
Soit:

Figure: 74.64 - Formules Microsoft Excel 14.0.6123 explicites
du tableau précédent
Nous avons alors par exemple au point 26 correspondant à 25+h:

Figure: 74.65 - Carte de contrôle
CUSUM avec le V-Masque empirique
Le lecteur observera facilement qu'avec le choix effectué,
nous n'aurions aucune alarme avec les paramètres empiriques choisis.
Il conviendrait alors dans la pratique de diminuer la valeur
de .
Pour résumer, les avantages de la carte de CUSUM par rapport
aux cartes de Shewhart sont les suivantes:
- Elles sont plus efficaces pour détecter de petites dérives
- La dérive du procédé apparaît visuellement sur ces cartes
- Il est en général facile de détecter en quel point le procédé a
commencé à dériver
Les désavantages de ces cartes sont les suivantes:
- Elles peuvent être lentes pour détecter de grandes dérives
- Elles ne sont pas très intéressantes pour analyser des données
passées et rechercher des cycles ou allures caractéristiques
dans la distribution étudiée.
- Elles sont moins facilement acceptées par des opérateurs
car moins intuitives et ne représentent pas directement la caractéristique étudiée.
Pour les raisons discutées ci-dessus, il est conseillé de représenter
en parallèle la carte de Shewhart et la carte CUSUM.
Remarque: Il existe encore d'autres cartes de CUSUM
de type V-masque. Donc attention avec les logiciels à
savoir ce que l'on fait!!!
CC EWMA (PONDÉRATION EXPONENTIELLE AVEC MOYENNE MOBILE)
AVEC LIMITES FIXES
Une alternative intéressante aux cartes CUSUM dans le cadre
de l'autocorrélation et la détection de faibles déréglages
sont les cartes de contrôle EWMA (Exponentially Weigthed Moving
Average) qui ont leur origine dans l'analyse des séries temporelles
(cf. chapitre d'Économie).
Remarque: Certains utilisent
aussi des cartes de contrôle avec les techniques empiriques de la moyenne mobile simple
ou double comme étudiées dans le chapitre d'Économie lorsque
les données sont autocorrélées.
Une carte EWMA est facile à mettre en place et n'est pas
trop sensible aux changements de paramètres et la non-normalité des
données, elle reste toutefois tout aussi performante que les
cartes CUSUM pour détecter les petites variations.
Par définition, la statistique reportée sur
la carte de contrôle
EWMA se calcule par la relation suivante (remarquez que les
indices des différents termes ne sont pas les mêmes
que le lissage exponentiel d'une série temporelle comme
vu dans le chapitre d'Économie puisque l'objectif
n'est pas de faire de la prévision!!):
(74.192)
avec la particularité que pour cette carte de contrôle certains
logiciels (comme Minitab) prennent:
ou
(74.193)
La constante (constante
de lissage) détermine le poids que nous souhaitons affecter
aux dernières mesures. Plus cette valeur est petite, plus la
carte est sensible aux dérives subites.
Démontrons que cette dernière relation peut s'écrire sous
la forme:
(74.194)
Effectivement:
(74.195)
Supposons pour la suite que:
(74.196)
Nous avons alors:
(74.197)
et en se rappelant d'une des propriétés de la variance:
(74.198)
Il vient:
(74.199)
Faisons un changement de variable:
(74.200)
Il vient alors en utilisant le résultat démontré dans le
cadre de l'étude des suites arithmétiques du chapitre sur les
Suites et Séries:
(74.201)
quand t est suffisamment grand, la variance se réduit
alors à (approximation que la majorité des logiciels
- comme Minitab - ne font pas et donc les limites ne sont pas
constantes
en fonction de t!):
(74.202)
Les limites de contrôle de la carte EWMA se construisent
alors aussi à avec:
(74.203)
Nous avons donc lorsqu'un objectif est fixé ainsi qu'un écart-type
(il est impossible que le client fixe une limite USL, LSL ou
une cible T en ce qui concerne la pondération exponentielle
d'où le fait que ces paramètres ne soient cette fois-ci pas
mentionnés):
(74.204)
que nous retrouvons sous la forme suivante lorsqu'il s'agit
de travailler avec des prélèvements d'échantillons:
(74.205)
Certains logiciels utilisent pour le calcul de l'écart-type
la relation suivante que nous avons démontrée plus haut:
(74.206)
et certains autres (comme Minitab):
(74.207)
cette dernière option ayant l'avantage de fonctionner si
la taille des échantillons est unitaire (nous parlons alors
bien évidemment de "carte EWMA aux valeurs individuelles").
Rappelons effectivement que nous avons déjà mentionné que la
carte EWMA est mal adaptée aux grandes séries.
Il convient de remarquer que quelle que soit l'option choisie,
comme nous avons:
(74.208)
les limites de contrôles seront donc toujours nettement inférieures à ceux
d'une carte à l'étendue ou à étendue mobile. C'est aussi une
raison pour laquelle nous lissons les données!
Faisons un exemple pour chaque variante de calcul de l'écart-type
puisque chacune est d'égale importance dans la pratique. Pour
cela, commençons par la carte EWMA avec:
(74.209)
et en prenant les données du tableau suivant:

Figure: 74.66 - Mesures journalières
avec 6 individus
sans arrêt de la machine
Nous obtenons:

Figure: 74.67 - Indicateurs correspondants
aux mesures
obtenues
Soit (nous avons coupé la capture d'écran en deux parties
faute de place):

Figure: 74.68 - Formules Microsoft Excel 14.0.6123 explicites du tableau précédent (première partie)
et:

Figure: 74.69 - Formules Microsoft Excel 14.0.6123 explicites du tableau précédent (deuxième partie)
Nous avons alors la carte de contrôle suivante:

Figure: 74.70 - Carte de contrôle
EWMA avec écart-type basé sur l'étendue et limites fixées
Pour le dernier exemple, nous prenons le cas fameux de la
carte EWMA avec valeurs individuelles et:
(74.210)
avec les données suivantes:

Figure: 74.71 - Mesures individuelles
sans arrêt de la machine
en prenant donc (attention le n dans la relation qui
suit n'est pas le même que celui qui est dans la racine contenant
la constante de lissage!):
(74.211)
et:
(74.212)
ainsi que:
(74.213)
Nous avons alors avec une constante de lissage de 0.6:

Figure: 74.72 - Indicateurs correspondants
aux mesures
obtenues
Soit (nous avons coupé la capture d'écran en deux parties
faute de place):

Figure: 74.73 - Formules Microsoft Excel 14.0.6123 explicites du tableau précédent (première
partie)
et:

Figure: 74.74 - Formules Microsoft Excel 14.0.6123 explicites du tableau précédent (deuxième
partie)
Nous avons alors la carte de contrôle suivante:

Figure: 74.75 - Carte de contrôle
EWMA avec écart-type basé sur l'étendue
et limites fixées
Comme pour les autres cartes de contrôle, la carte
EWMA doit être
accompagnée d'une carte de contrôle pour le suivi de la variabilité,
donc soit une carte avec étendues aux limites fixes ou une
carte aux écarts-types avec limites fixes.
CARTE DE CONTRÔLE DES FRÉQUENCES AVEC LIMITES PROBABILISTES
Le suivi des fréquences d'apparition de défauts/accidents/anomalies/pannes
est une technique très simple à mettre en pratique et très
parlante pour des personnes ayant peu voire pas de connaissances
en statistiques. De plus c'est une technique adaptée aux cas
où les événements contrôlés sont très rares.
L'idée est alors de ne plus suivre le nombre d'événements
spéciaux, mais le temps T entre deux apparitions des événements
surveillés. Le temps T se mesure alors soit en nombre
de pièces produites, soit en nombre d'accidents, anomalies,
en jours, etc.
Par exemple:

Figure: 74.76 - Mesures
Ce qui donne sous forme graphique:

Figure: 74.77 - Carte de contrôle
des fréquences
Bon c'est bien joli, mais nous il nous faut une UCL et LCL pour
que cela soit utile! Afin d'y arriver nous allons utiliser
la théorie des files d'attente avec les mêmes hypothèses et
les mêmes contrôles préalables (cf. chapitre
Techniques de Gestion). Rappelons d'abord que nous y
avions démontré que
la probabilité d'observer k événements dans un intervalle
de durée t (ou un intervalle de nombre de pièces t),
sous certaines hypothèses bien précises (!!!), suivait une
distribution de Poisson:
(74.214)
où le paramètre est
le taux moyen d'arrivée (taux moyen d'apparition) d'événements
par unité de temps (ou en anglais "Poisson
Arrivals See Time Average": PASTA...) supposé constant
sur toute la durée:
(74.215)
et où nous avons pour espérance et variance (cf.
chapitre de Statistiques) du nombre d'événements:
(74.216)
Il s'agit d'une loi de probabilité à support discret, ce
qui correspond bien à notre cas d'études donc la loi de Poisson
peut être un bon candidat (mais il y en a d'autres, comme la
loi Géométrique par exemple).
Mais nous avions aussi démontré que la variable aléatoire représentant
le temps (ou le nombre de pièces) séparant deux arrivées d'événements
non désirés (ou désirés...) était donnée par la fonction de
répartition
basé sur la loi exponentielle:
(74.217)
toujours avec:
(74.218)
où:
(74.219)
Donc, nous pourrions prendre les limites de Shewhart suivantes:
(74.220)
Mais il est plus rigoureux (comme pour toutes les autres
cartes) de prendre des limites probabilistes. Ainsi, si nous
voulons fixer les limites avec un risque bilatéral habituel
dans le domaine de de
0.5% nous calculons alors pour la limite inférieure:
(74.221)
et pour la limite supérieure:
(74.222)
Nous avons alors:

Figure: 74.78 - Indicateurs correspondants
aux mesures
obtenues
Soit:

Figure: 74.79 - Formules Microsoft Excel 14.0.6123 explicites du tableau précédent
Nous avons alors la carte de contrôle suivante (nous n'y
avons exceptionnellement pas représenté USL):

Figure: 74.80 - Carte de contrôle
des fréquences limites
Il ne faut régulièrement (et donc aussi au tout début) vérifier
que la distribution des événements suit bien une distribution
de Poisson avant d'appliquer cette carte de contrôle!
CARTE DE CONTRÔLE DES ÉVÉNEMENTS RARES (CARTE-G)
Nous avons démontré dans le chapitre de Statistique que
l'espérance d'avoir R réussites avant le E-ème échec
sachant que
la probabilité d'avoir un échec est p était donnée par l'espérance de
la
loi binomiale négative:
(74.223)
et nous avions obtenu pour la variance:
(74.224)
Bien évidemment, si nous posons E comme étant le premier échec,
l'espérance se réduit à celle de la loi géométrique:
et
(74.225)
Nous avons démontré dans le chapitre de Statistiques que
l'estimateur du paramètre de la loi géométrique était donné par:
(74.226)
Il vient alors:
(74.227)
et:
(74.228)
et donc:
(74.229)
Dès lors, nous avons:
(74.230)
où si LCL est négatif, nous le posons comme étant égal à zéro.
Voyons un exemple en considérant la table suivante dans Microsoft Excel 14.0.6123:

Figure: 74.81 - Indicateurs correspondants
aux mesures obtenues
Avec les formules suivantes:

Figure: 74.82 - Formules Microsoft
Excel 14.0.6123 explicites du tableau précédent
Ce qui donne sous forme graphique:

Figure: 74.83 - Carte de contrôle
G
Cependant, il convient de se rappeler que la loi Géométrique
(ou la loi Binomiale négative) n'est pas nécessairement symétrique.
Raison pour laquelle, dans la pratique, il vaut mieux utiliser
la médiane pour la CL (médiane que l'on déterminera
en faisant une simple simulation de la loi et en prenant la
valeur la plus proche de 50%) et pour les limites de contrôle
inférieure LCL et supérieure UCL utiliser des
limites probabilistes avec les même simulations.
Remarque: Pour un logiciel comme Minitab, la limite de contrôle
inférieure de la carte des événements rare est
définie au percentile 0.0013499 de la distribution
géométrique (en prenant la valeur décimale la plus proche par interpolation linéaire).
La limite de contrôle supérieure est définie au percentile 0.99865 (en prenant
aussi la valeur décimale la plus proche par interpolation linéaire). La ligne
centrale est définie au percentile 0.5 (en prenant la valeur décimale la plus
proche par interpolation linéaire).

- La maintenance (mathématiques
et méthodes), P. Lyonnet, Éditions
TEC&DOC
ISBN10: 2743004193 (393 pages) - Imprimé en 2000
- Six Sigma Statistics,
Issa Bass, Éditions McGraw Hill, ISBN10: 0071496467
(374 pages) - Imprimé en 2007
- Pratiquer les plans d'expérience,
J. Goupy, Éditions Dunod, ISBN10: 2100042173
(551 pages) - Imprimé en 2005
- Contrôle de la qualité (MSP,
Analyse des performances, Contrôle de réception),
L. Jaupi, Éditions Dunod, ISBN10:
2100042645 (282 pages) - Imprimé en
2002
- Pratique industrielle des
plans d'expérience, Éditions AFNOR, J. Alexis
+ P. Alexis,
ISBN10: 2124650386
(276 pages) - Imprimé en 1999
- Statistical Quality Control (6th
edition), Éditions John Wiley & Sons, D. C.
Montgomery, ISBN13: 9780470169926 (754 pages)
- Imprimé en
2009
- Fault-Tolerant Systems, Éditions
Morgan Kaufmann , I. Koren + C. M. Krishna, ISBN13:
9780120885251 (400 pages) - Imprimé en
2007
|