loadingPage en cours de chargement
    ACCUEIL | TÉLÉCHARGER | QCM | DON | ANNONCES | CHAT | FORUM | LIVRE D'OR | PARTENAIRES | CONTACT | BLOG
 
  Rechercher
  separation
  Introduction
  Arithmétique
  Algèbre
  Analyse
  Géométrie
  Mécanique
  Électrodynamique
  Atomistique
  Cosmologie
  Chimie
  Informatique Théorique
  Maths. Sociales
  Ingénierie
  separation
  Biographies
  Références
  Liens
  separation
  Humour
  Serveur d'exercices
  separation
  Parrains
8 connectés
News News :: Erreur Erreur :: Statistiques Visiteurs :: ClearType ClearType :: Imprimer Imprimer :: Bookmark and Share

Ingénierie

GÉNIE MARIN & MÉTÉO | GÉNIE MÉCANIQUE | GÉNIE ÉLECTRIQUE
GÉNIE ÉNERGÉTIQUE | GÉNIE CIVIL | GÉNIE BIOLOGIQUE | GÉNIE AÉROSPATIAL
GÉNIE CHIMIQUE | GÉNIE INDUSTRIEL | GÉNIE LOGICIEL

74. GÉNIE INDUSTRIEL (2/2)

Dernière mise à jour de ce chapitre: 2017-08-06 17:23:48 | {oUUID 1.798}
Version: 3.0 Révision 12 | Avancement: ~60%
viewsvues depuis le 2012-01-01: 7'788

Table des matières LISTE DES SUJETS TRAITÉS SUR CETTE PAGE

CONTRÔLE DE RÉCEPTION

Le "contrôle de réception" ou "contrôle statistique des lots" est un domaine extrêmement important, vaste et mathématiquement technique du contrôle statistique de la qualité dans l'industrie (alimentaire, pharma, biens de grande consommation) et des sociétés de services (prestations à répétition, contrôles des processus, sondages). Son but, selon la norme NF X06-021, est de permettre l'application à un lot contrôle (de produits ou prestations) de l'une ou l'autre des décisions suivantes: Acceptation ou Rejet à différentes étapes d'une production/développement pour vérifier si un lot est recevable pour les étapes suivantes ou pour vérifier le produit fini avant envoi au client.

Remarque: Nous allons ici présenter que les bases car les cas particuliers nécessitent un bagage mathématique considérable! C'est par ailleurs pour cette raison que de nombreuses entreprises (PME ou multinationales) qui utilisent des étudiants stagiaires ou employés non mathématiciens pour définir les contrôles qualité afin d'économiser de l'argent se retrouvent par la suite avec des problèmes considérables au niveau du respect des lois et des normes! Cependant, ce que nous allons présenter ici constitue le minimum-minimorum de la connaissance de tout responsable ou ingénieur qualité ou responsable du contrôle de la réception fournisseurs actif dans une organisation quelconque (industrielle ou administrative) sous peine d'avoir aucune crédibilité! Par ailleurs méfiez vous des entreprises - particulièrement des multinationales - qui recherchent des spécialistes qualité maîtrisant Microsoft Excel ou Microsoft Access. Car cela signifiera qu'elles utilisent des outils non professionnels pour faire un travail qui lui devrait pourtant l'être avec des outils adaptés (et Microsoft Excel ou Microsoft Access ne le sont pas)!!! Donc en termes d'organisation interne, vous pouvez vous assurer que ces entreprises organisent et analysent n'importe quoi, n'importe comment, avec un outil non adapté et donc que c'est le bordel général en interne.

Le but du contrôle de réception n'est pas d'estimer la qualité d'un lot mais uniquement de l'accepter ou de le rejeter. Le contrôle de réception n'est pas non plus un substitut aux méthodes de contrôle de procédé comme les cartes de contrôle ou l'analyse de capabilité. Une utilisation dynamique de ces derniers outils durant la fabrication aura pour conséquence de réduire et, dans certains cas, d'éliminer les besoins d'effectuer du contrôle de réception

Il existe principalement trois approches pour évaluer un lot:

- Soit accepter le lot sans inspection (utile dans des situations où une relation de confiance absolue règne entre le client et le fournisseur).

- Soit prélever un échantillon (échantillonnage) et en tirer des conclusions sur le lot complet (utilité dans la majorité des cas car peu coûteux et motive fortement le fournisseur à améliorer sa qualité mais il y a un risque à rejeter de bons lots ou d'en accepter des mauvais). Par exemple PSA Mulhouse contrôle 5% des véhicules qui sortent des ces usines chaque jour.

- Soit inspecter la totalité des individus du lot (utile quand le fournisseur ne peut pas prouver qu'il maîtrise son procédé et est capable de produire dans les spécifications ou quand la caractéristique suivie est critique).

Pour que le résultat d'un contrôle d'un lot par échantillonnage soit fiable, il est trivialement primordial que, lors du prélèvement d'un échantillon d'individus, aucune préférence ne soit accordée à certains individus du lot. Idéalement, chaque individu du lot doit avoir la même probabilité d'être pris dans l'échantillon.

La ou les caractéristiques contrôlées peuvent être:

- Qualitatives (attributs): l'aspect d'un produit, la présence ou l'absence d'un caractère non-conforme, le non respect d'un contrôle de calibre, un résultat atteint ou non. Les individus sont alors directement classés en conformes ou non-conformes repérés par le nombre de défauts qu'ils comportement.

- Quantitatives (variables ou mesures): caractéristique mesurée sur une échelle continue: volume, longueur, poids,...

Signalons enfin qu'il y a deux façons de classifier les plans de réception. La première famille consiste à définir les deux catégories suivantes:

- le "contrôle de la proportion d'individus non-conformes par comptage" ou "contrôle par attribut": Une ou plusieurs caractéristiques de type qualitatif ou quantitatif sont contrôlées sur chaque individu dans le but de le classer en conforme ou non-conforme suivant certains critères. La décision est prise d'après le nombre d'individus non-conformes trouvés dans le (ou les) échantillons prélevés.

- le "contrôle de la proportion d'individus non-conformes par mesurage" ou "contrôle par variable". Une caractéristique est mesurée sur chaque individu d'un échantillon et la décision est prise en fonction de la moyenne et de la dispersion de la caractéristique calculée sur l'ensemble des individus prélevés.

Nous pouvons également classifier les plans de réception selon le nombre d'échantillons prélevés.

- Un "plan d'échantillonnage simple" consiste à prendre n individus dans le lot et de prendre une décision sur la base de ceux-ci.

- Un "plan d'échantillonnage double" consiste à prélever un premier échantillon dans le lot et d'en tirer une des trois conclusions possibles: (1) accepter le lot, (2) rejeter le lot, (3) rééchantillonner. Si un second échantillon est prélevé, les informations des deux échantillons sont rassemblées pour décider d'accepter ou de rejeter le lot (si nous répétons cette stratégie, nous parlons alors de "plan d'échantillonnage multiple").

- Un "plan d'échantillonnage progressif ou séquentiel" est le cas extrême du plan d'échantillonnage multiple. Les unités sont prélevées une à une et après chaque prélèvement une décision est prise: (1) accepter, (2) rejeter, (3) prélever une nouvelle unité.

exempleExemple:

Un producteur de boissons gazeuses désire contrôler une propriété des bouteilles qui lui sont fourniers. Pour cela, il utilise un plan de réception simple avec contrôle de la proportion d'individus non-conformes par mesurage quand un lot de bouteilles lui est livré:

1. Prélever un certain nombre n d'unités (bouteilles) du lot (échantillonnage simple)

2. Mesurer à quelle pression chacune des n bouteilles éclate (contrôle destructif)

3. Calculer des indicateurs statistiques des valeurs observées.

4. Suivre la règle de décision d'acceptation ou de rejet que nous devrons déterminer.

Remarque: Comme les cartes de contrôle, l'application d'un plan d'échantillonnage est un test d'hypothèse. Il peut mener à des décisions correctes ou fausses. Les risques encourus sont ceux d'accepter un lot qui n'est pas conforme ou de rejeter un lot qui est conforme.

Évidemment l'échantillonnage comporte des avantages et désavantages. Voyons la liste des avantages les plus communs:

A1. Cela coûte moins cher car on ne contrôle pas tout...

A2. Il y a moins de manipulations des produits donc moins de déchets

A3. Il y a besoin de mobiliser moins de personnes ou de machines de contrôle

A4. Cela réduit considérablement les erreurs d'inspection

A5. Le retour d'un lot complet juste à cause d'un échantillon non accepté à tendance à plus motiver le fournisseur à faire de la qualité...

Mais cela comporte aussi des désavantages comme:

D1. Le risque d'accepter de mauvais lots et d'en rejeter des bons...

D2. Requière plus de compétences des employés et des contrats bien écrits...

PLAN D'ÉCHANTILLONNAGE PAR MESURE SIMPLE POUR UNE UNIQUE TOLÉRANCE AVEC ÉCART-TYPE CONNU

Pour ce type de plan d'échantillonnage, nous supposerons que l'échantillon n est beaucoup plus petit que le lot total (d'un facteur 10 au moins) et que l'écart-type est connu!

La caractéristique X mesurée pour chaque individu de l'échantillon est supposée suivre une loi Normale d'espérance et d'écart-type et de variance identique et le calcul de ces deux derniers paramètres est basé sur l'utilisation de la moyenne empirique (estimateur de maximum de vraisemblance de l'espérance) et de l'estimateur sans biais de l'écart-type (estimateur de maximum de vraisemblance de l'écart-type). Cette hypothèse implique que le produit du fournisseur à une fabrication sous contrôle statistique.

exempleExemple:

Dans le cadre de notre exemple, le producteur de boissons gazeuses, il reçoit des lots de 10'000 bouteilles (donc l'échantillon satisfera la condition susmentionnée).

Nous noterons:

equation et equation   (74.1)

Nous conviendrons que le client et le fournisseur se sont entendus sur des limites de spécification (limites de tolérance). Nous noterons comme à l'habitude ces limites USL et LSL.

Soit D la proportion (inconnue) de produits non-conformes (défectueux), elle est donnée naturellement dans le domaine de la maîtrise statistique des procédés par:

equation   (74.2)

Dans la pratique, afin d'économiser de l'argent dans le cadre des tests de qualité nous essayons de réduire (reformuler) tout problème de contrôle à un unique calibre. Au fait le problème peut toujours avec ou sans reformulation se réduire à avoir une proportion de non-conforme en dessous de LSL ou au-dessus de USL pour rejeter le lot si la fabrication du fournisseur est bien sous contrôle statistique. D'où le fait que dans la pratique les développements mathématiques ne sont faits que par rapport à une seule borne que nous noterons alors LSL pour "limite de spécification du lot".

Ainsi, nous réduisons les problèmes à (ou nous nous arrangeons à avoir les problèmes qui se réduisent à cette formulation):

equation ou equation   (74.3)

exempleExemple:

Dans le cadre de notre exemple, le producteur de boissons gazeuses, il s'agit de la résistance à la pression d'un lot de 10'000 bouteilles que nous souhaiterions contrôler. Le producteur s'est mis d'accord avec son fournisseur sur une limite de spécification inférieure pour cette caractéristique, LSL valant 22.5, limite qu'une majorité des bouteilles doit dépasser. Ainsi:

equation   (74.4)

Nous supposons que des données passées ont permis d'estimer précisément l'écart-type et que l'on peut donc le considérer comme connu et valant 1.5 et qu'il est sous contrôle statistique.

Car évidemment si la proportion de non-conforme est supérieure (respectivement inférieure) à ce que définit le contrat de qualité dans une borne, elle le sera aussi à la borne opposée dans des proportions identiques puisque le processus de fabrication du fournisseur est par hypothèse sous contrôle statistique.

Avant de partir plus loin dans les développements mathématiques, il y a une chose importante qu'il faut se rappeler:

Si nous nous imaginons être un fournisseur, il est évident que nous souhaiterions avoir un niveau de qualité tel que la probabilité cumulée que le client rejette à tort un lot soit faible (car en tant que fournisseur nous serons contractuellement obligés de reprendre le lot même si un deuxième contrôle ultérieur complet s'avère qu'il a tort!). Pour cela, le fournisseur définit une valeur equation du pourcentage de produit non-conforme ("niveau de qualité acceptable": NQA) en dessous de laquelle il juge que le lot ne peut être refusé que très rarement. De plus, il définit également equation comme étant la probabilité cumulée maximale de se voir refuser un lot qui a une proportion de non-conforme plus petite ou égale à equation (il s'agit donc de la probabilité cumulée avec laquelle un client rejetterait à tort un lot). Ceci se note:

equation   (74.5)

equation est appelé bien évidemment... "risque du fournisseur" et est en général de l'ordre de 0.1 à 10%.

Enfin si nous nous imaginons être le client, il est évident que nous souhaiterions que la probabilité cumulée d'accepter à tort un lot qui ne respecte pas le contrat qualité soit faible pour des raisons évidentes de coûts. Pour cela, le client de son côté définit une valeur equation du pourcentage de produit non-conforme ("niveau de qualité limite": NQL) au-delà de laquelle il juge que le lot ne peut être accepté que très rarement. Il définit également equation comme étant la probabilité cumulée maximale de devoir accepter un lot qui a une proportion de non-conforme plus grande ou égale à equation (il s'agit donc de la probabilité cumulée avec laquelle on accepterait à tort un lot du fournisseur). Ceci se note:

equation   (74.6)

equation est appelé bien évidemment... "risque du client" et est en général aussi de l'ordre de 5 à 10%.

Pour résumer la situation peut-être illlustrée par le tableau suivant (qui est en tout point similaire au tableau des erreurs de Type I et II vu dans le chapitre de Statistiques):

 

Le lot est bon (NQA)

Le lot est mauvais (NQL)

Refus

Risque equation

Décision correcte

Acceptation

Décision correcte

Risque equation

exempleExemple:

Dans le cadre de notre exemple - le producteur de boissons gazeuses - qui reçoit des lots de 10'000 bouteilles dont la résistance à la pression (LSL) doit être supérieure à 22.5 avec un écart-type sous contrôle statistique et valant 1.5, le fournisseur et le client ont chacun fixé les risques qu'ils sont prêts à courir:

- Le fournisseur désire qu'un lot avec moins de 1% de bouteilles non-conformes soit refusé par erreur par le client dans au plus 5% des cas. Soit:

equation   (74.7)

- Le client désire qu'un lot avec plus de 5% de bouteilles non-conformes soit accepté à tort dans moins de 10% des cas. Soit:

equation   (74.8)

Remarque: La règle de décision d'acceptation ou de rejet du lot pour un contrôle par mesure est en générale basée sur la moyenne arithmétique de la caractéristique estimée sur base de l'échantillon plutôt que sur base d'une estimation de taux de non-conforme.

Pour la suite, quand nous écrivons:

equation   (74.9)

la particularité c'est que dans la pratique D est imposé equation est donné. Le reste est soit à calculer, soit à éliminer (effectivement le praticien doit normalement uniquement parler en termes de probabilité cumulées et proportions et facteurs pour définir sa politique de qualité et LSL n'est ni une probabilité cumulée, ni une proportion, ni un facteur indépendant de la chose que l'on analyse!). Dès lors nous écrivons:

equation   (74.10)

avec donc la variable centrée réduite habituelle:

equation   (74.11)

Évidemment nous en tirons que la valeur limite est:

equation   (74.12)

equation est donc le percentile de niveau D de la distribution centrale normale réduite (comme à l'habitude). Malheureusement, nous avons toujours LSL qui est là. Pouvons-nous nous en soustraire? Pour cela, nous avons dans l'hypothèse que la mesure est sous contrôle statistique:

equation   (74.13)

La probabilité cumulée equation d'accepter (nous aurions pu le faire pour le rejet mais il faut choisir un des deux pour l'exemple...) le lot quand le taux de non-conforme est D s'en déduit dans le cadre de l'utilisation de la moyenne de la mesure:

equation   (74.14)

dans le cas particulier où la mesure ne doit pas être inférieure à une certaine valeur donnée (comme c'est le cas pour l'exemple des bouteilles susmentionné!).

Nous avons alors:

equation   (74.15)

Nous avons alors un résultat très intéressant! La probabilité cumulée d'accepter le lot quand le taux de non-conforme est D est alors dans le cas particulier où il s'agit d'une mesure en dessous de laquelle il ne faut pas aller:

equation   (74.16)

et de le rejeter dans le cas d'une mesure au-delà de laquelle il ne faut pas aller:

equation   (74.17)

et ce qui est bien c'est que le problème se réduit à un percentile equation aisé à choisir (norme ou choix politique), d'un nombre d'individus n, et d'un facteur k donc que des éléments indépendants de la mesure elle-même et alors utilisable dans n'importe quel métier pour n'importe quel type d'objet (et en plus nous avons éliminé l'écart-type)!!

Évidemment, le fournisseur et le client doivent se mettre d'accord pour un plan d'échantillonnage afin d'établir des tests qualité correspondant aux attentes de l'un et de l'autre. Ce que nous savons jusqu'à maintenant c'est qu'ils s'imposent respectivement un equation ce qui leur permet de calculer respectivement immédiatement les equation . Il faut cependant calculer le nombre d'individus n et le facteur k qui satisfont les exigences respectives.

Pour cela, rappelons que si equation est donc le risque du fournisseur (probabilité cumulée que le client rejette à tort le lot) et equation le risque du client (probabilité cumulée d'accepter à tort un lot du fournisseur) et:

equation   (74.18)

la probabilité cumulée d'accepter un lot avec limite inférieure, alors nous devons résoudre le système suivant:

equation   (74.19)

ou:

equation   (74.20)

pour que le fournisseur et le client aient le plan d'échantillonnage qui correspondent aux exigences de chacun!

Nous allons choisir le premier (car il faut bien en choisir un...). Celui-ci peut d'ailleurs se récrire:

equation   (74.21)

Il vient alors:

equation   (74.22)

Ce qui peut s'écrire:

equation   (74.23)

Soit:

equation   (74.24)

d'où nous tirons finalement n:

equation   (74.25)

d'où au final:

equation   (74.26)

et k:

equation   (74.27)

d'où au final:

equation   (74.28)

exempleExemples:

E1. Dans le cadre de notre exemple - le producteur de boissons gazeuses - qui reçoit des lots de 10'000 bouteilles dont la résistance à la pression (LSL) doit être supérieure à 22.5 avec un écart-type sous contrôle statistique et valant 1.5, le fournisseur et le client ont chacun fixé les risques qu'ils sont prêts à courir:

equation   (74.29)

Nous avons alors en utilisant la version anglaise de Microsoft Excel 11.8346 (j'ai préféré faire ce choix car le nom des formules y est beaucoup... beaucoup plus court qu'en français):

equation   (74.30)

et (calculé avec les mêmes fonctions Microsoft Excel que nous omettrons donc de préciser):

equation   (74.31)

Le plan d'échantillonnage consiste alors à prélever et analyser un échantillon de taille 18, calculer la moyenne equation et appliquer la règle de décision suivante:

equation   (74.32)

Supposons qu'un échantillon de taille 18 soit prélevé et donne les résultats suivants:

25.6, 26.0, 23.0, 27.0, 27.5, 29.0, 28.5, 26.0, 25.6

25.8, 26.5, 28.8, 27.3, 25.2, 27.1, 29.8, 26.5, 27.8

Nous avons alors:

equation   (74.33)

et donc le lot est accepté. Il faut savoir que beaucoup de praticiens préfèrent le calcul suivant utilisant un "indice de qualité", noté Q, utilisant simplement la relation suivante:

equation   (74.34)

donc le lot est accepté.

Remarque: Il est quand même conseillé dans la pratique de calculer l'estimateur non biaisé de l'écart-type de l'échantillon pour vérifier qu'il ne s'éloigne pas trop de l'écart-type du contrat (même s'il ne peut pas être identique pour de petits échantillons)!

E2. Un deuxième calcul-type fait par les praticiens (souvent par pure curiosité ou parfois pour faire un rapport de la stratégie de la qualité à la direction) qui découle du premier exemple est  le suivant: Quelle est la probabilité cumulée que l'on rejette avec n et k donnés, un lot dont la proportion de non-conformes D serait de 5%? Dès lors, nous utilisons la relation démontrée suivante:

equation   (74.35)

Soit avec les valeurs précédentes:

equationequation   (74.36)

et la probabilité cumulée qu'on l'accepte est alors de 1-89.70% soit 10.29%.

CALCUL DES PARAMÈTRES PAR UTILISATION DE LA NORME AF-X06-023

La norme AFNOR X06-023 propose une méthode quelque peu différente pour déterminer k et n, non directement basée sur les risques du client et du fournisseur mais sur un paramètre appelé "niveau de qualité acceptable" (NQA.). En outre, cette norme tient également compte de la taille du lot à tester (considérée plus haut comme infinie) et du niveau de contrôle désiré.

Remarque: La norme ISO 3951:1981 correspondante donne à ma connaissance des valeurs très différentes de celle de l'AFNOR pour des raisons qui m'échappent (j'espère que c'est juste parce que je n'ai pas compris quelque chose...).

Définition: Le NQA., est le pourcentage d'individus non-conformes qui ne doit pas être dépassé pour qu'une production, contrôlée sur une série de lots, puisse être considérée comme satisfaisante.

En d'autres termes, quand une production est stable avec un pourcentage d'individus non-conformes au plus égal au NQA., la grande majorité des lots présentés au contrôle doivent être acceptés par le client. Donc en général le NQA. est proche - mais pas égal! - de equation (pour rappel: la proportion de non-conforme tel qu'il y ait une probabilité cumulée equation que le client rejette à tort le lot).

La méthode proposée est du type "recette de cuisine" mais est imposée par certaines normes européennes donc les industriels n'ont pas d'autre choix que de l'appliquer. Mais, finalement, les valeurs numériques sont relativement proches de celles obtenues avec les relations démontrées précédemment. Au fait leur vraie utilité, c'est qu'elles sont simples à mettre en oeuvre dans des situations beaucoup plus complexes que celles que nous venons d'étudier.

En fonction du contexte, la norme propose d'appliquer différents niveaux de contrôle:

- Le contrôle normal qui est à adopter quand nous sommes en relation de confiance étroite avec le fournisseur et avons un oeil en temps réel sur la qualité de sa production à l'aide d'outils informatiques de surveillance à distance.

- Le contrôle renforcé qui est plus strict que le contrôle normal (n est plus grand) et a pour but de mieux protéger le client contre le risque de devoir accepter des lots à tort. Ce type de contrôle doit être effectué temporairement quand il y a de sérieuses raisons de penser que la qualité de la production n'est pas (ou plus) ce qu'elle doit être jusqu'à un retour à la normale (suspension de livraisons entre temps).

- Enfin, le contrôle réduit qui est le plus économique et qui peut être appliqué quand sur la base de lots précédemment contrôlés et acceptés, nous pouvons croire que le fournisseur maîtrise particulièrement la qualité de son procédé.

exempleExemples:

E1. Dans le cadre de notre exemple - le producteur de boissons gazeuses - qui reçoit des lots de 10'000 bouteilles dont la résistance à la pression (LSL) doit être supérieure à 22.5 avec un écart-type sous contrôle statistique et valant 1.5, le fournisseur et le client ont chacun fixé les risques qu'ils sont prêts à courir:

equation   (74.37)

Nous devons alors en utilisant cette norme définir le NQA. Comme mentionné dans la définition, en général le NQA. est proche de equation (mais pas égal!). Donc le NQA. sera posé comme valant 1%.

La norme exige le choix d'un niveau de contrôle. Nous prendrons celui de type II. Une table disponible dans la norme nous dit que nous devons utiliser le code L pour la prochaine étape. Enfin, la dernière table nous donne donc pour un NQA.de 1% et un code L la cellule suivante:

1.06%

n=25

k=1.97

4.28%

ce qui correspond à:

equation

n

k

equation

La norme indique donc qu'un échantillon de taille 25 doit être utilisé et un k de 1.97! Ce plan assure des risques un peu moins grands que le plan calculé plus haut mais est plus coûteux, car nécessite plus d'échantillons.

E2. Les praticiens lors de l'utilisation de cette norme souhaitent souvent pouvoir calculer le risque fournisseur et client associé au NQA choisi et paramètres correspondants donnés par la norme. Alors en utilisant:

equation   (74.38)

Il vient:

equation   (74.39)

Soit dans le cadre de notre exemple et en utilisant toujours la version anglaise de Microsoft Excel 11.8346:

equation   (74.40)

Soit:

equation   (74.41)

à comparer aux 5%. De même comme:

equation   (74.42)

alors:

equation   (74.43)

Soit dans le cadre de notre exemple et en utilisant toujours la version anglaise de Microsoft Excel 11.8346:

equation   (74.44)

il vient:

equation   (74.45)

et au final:

equation   (74.46)

à comparer aux 10%.

PLAN D'ÉCHANTILLONNAGE SIMPLE PAR ATTRIBUTS

Les plans par attributs sont plus simples que les plans par échantillonnage, mais ils sont souvent plus coûteux (en nombre de prélèvements) que les plans pour mesures et ne sont donc à conseiller que quand nous ne pouvons pas résumer l'information sur la qualité d'une unité par des mesures ou que les coûts associés aux analyses sont trop élevés par rapport à une simple classification des unités en conforme ou non-conforme.

Le "plan d'échantillonnage simple par attributs" est une procédure de contrôle de réception consistant à prélever au hasard un échantillon de taille n donnée dans le lot. Les unités prélevées (de manière homogène!) sont ensuite inspectées et classées comme conformes ou non-conformes. Soit X le nombre de composants non-conformes trouvés dans l'échantillon.

Si equation, la qualité du lot est jugée bonne et le lot est accepté (A). Si equation avec dans les plans simples R=A+1 la qualité du lot est jugée mauvaise et le lot n'est pas accepté.

exempleExemple:

Des bouteilles par lot de taille N=10'000 sont reçues par un client. La procédure de contrôle utilise le plan empirique par attributs suivants: on prélève un échantillon de taille n=200. Le critère d'acceptation A est equation et le critère de rejet R est equation.

Mentionnons avant de partir dans les détails des calculs de la stratégie d'un plan d'échantillonnage simple par attributs les principes des plans d'échantillonnage double et multiple pour la culture générale:

Le "plan d'échantillonnage double par attributs" est une procédure de contrôle de réception ayant deux stades de décision. Elle consiste à prélever d'abord un premier échantillon de taille inférieure à celui que l'on prélèverait pour un plan d'échantillonnage simple. Le premier stade de décision est basé sur les informations fournies par ce premier échantillon. Si la qualité du premier échantillon est jugée suffisamment bonne, le lot est accepté. Si elle est jugée suffisamment mauvaise, le lot n'est pas accepté. En revanche si la qualité du premier échantillon est jugée intermédiaire, un second échantillon est prélevé et inspecté dans le but d'accepter ou de refuser le lot. Les critères de décision du second stade sont basés sur les informations recueillies sur les deux échantillons.

exempleExemple:

Des bouteilles par lot de taille N=10'000 sont reçues par un client. La procédure de contrôle utilise le plan empirique par attributs suivants: on prélève un premier échantillon de taille equation. Le critère d'acceptation A au premier stade est equation et le critère de rejet R est equation. Si la qualité est non satisfaisante, nous prenons un deuxième échantillon de taille equation avec un critère d'acceptation A au deuxième stade de equation et le critère de rejet R est equation.

Nous reviendrons sur un exemple beaucoup plus détaillé de double échantillonage un peu plus loin!!

Le "plan d'échantillonnage multiple par attributs" est simplement une généralisation du plan d'échantillonnage double par attributs en ayant D étapes de décision au lieu de 1 pour le plan simple ou 2 pour le plan double...

Revenons à nos développements mathématiques d'un plan d'échantillonnage simple par attributs. Si n est la taille du lot, p la taille de l'échantillon et m le nombre total de défectueux dans le lot alors la probabilité d'avoir k défectueux  parmi p est (toujours avec la notation du coefficient binomal non-conforme à la norme ISO 31-11):

equation   (74.47)

Afin d'être conforme à la tradition du domaine de l'échantillonnage, faisons un premier changement de notation. Notons n la taille de l'échantillon et N la taille du lot. Il vient alors:

equation   (74.48)

Faisons un deuxième changement de notation. Notons p la proportion de non-conformes dans le lot. Il vient alors la notation traditionnelle d'usage:

equation   (74.49)

Ainsi, la probabilité cumulée d'acceptation d'un lot de qualité p est donnée par:

equation   (74.50)

exempleExemple:

Quelle est la probabilité cumulée de tirer 5 éléments non-conformes (critère d'acceptation) d'un lot de 10'000 bouteilles (N) dont nous avons pris un prélèvement de 200 individus (n), dont la proportion de non-conformes est connue comme étant de 5% (p). Alors avec Microsoft Excel 14.0.6123 nous obtenons comme probabilité cumulée d'acceptation:

equation   (74.51)

Remarque: Une erreur (bêtise) classique dans les entreprises consiste à penser que le critère d'acceptation est proportionnel à la taille du lot. En d'autres termes que si pour 10'000 bouteilles, le fait de tester un échantillon de 200 pièces (2%) donne une probabilité cumulée d'acceptation de ~6%, alors sur 1'000 bouteilles, un échantillons de 20 pièces (2%) donne la même probabilité cumulée d'acceptation. Au fait, avec Microsoft Excel 14.0.6123, nous avons alors non plus 6.05% mais alors 99.7%... la différence est donc considérable!!

Si nous rappelons (voir la partie concernant les plans d'échantillonnage par mesure) que equation est donc le risque du fournisseur (probabilité cumulée que le client rejette à tort le lot de qualité dont la proportion de non-conformes estequation) et equation le risque du client (probabilité cumulée d'accepter à tort un lot du fournisseur de qualité dont la proportion de non-conformes est equation) alors pour que le fournisseur et le client aient le plan d'échantillonnage qui correspondent aux exigences de chacun nous devons résoudre le système suivant:

equation   (74.52)

À ma connaissance, il n'est pas possible de résoudre ce système analytiquement. Les techniques de recherche opérationnelle utilisant la méthode du simplexe, la méthode des gradients ou de Newton échouent lamentablement à trouver une solution à ce système (ce qui est normal). Par contre, avec les algorithmes évolutionnaires (outil disponible dans Microsoft Excel 14.0.6123) on peut trouver des solutions acceptables, mais les paramétrages ne sont pas aisés.

Dès lors, en supposant que la taille des lots soumise à l'inspection est grande par rapport à la taille de l'échantillon, et en exploitant l'approximation binomiale de la loi hypergéométrique (approximation démontrée dans le chapitre de Statistiques), nous avons:

equation   (74.53)

L'avantage de cette approximation est immense! La taille totale N du lot n'intervient plus dans le problème!

exempleExemple:

E1. Quelle est la probabilité cumulée de tirer 5 éléments non-conformes (critère d'acceptation) d'un lot de 10'000 bouteilles (N) dont nous avons pris un prélèvement de 200 individus (n), dont la proportion de non-conformes est connue comme étant de 5% (p). Alors avec la version anglaise de Microsoft Excel 14.0.6123 nous obtenons:

equation   (74.54)

E2. Cette dernière relation est aussi utilisée en ingénierie de la fiabilité. Effectivement, supposons que nous souhaitons savoir quel est le nombre d'éléments n que nous devons prendre pour faire un plan de démonstration de fiabilité montrant avec 90% de probabilité cumulée que le nombre de A défaillances (non-conformes) est nul sachant que leur fiabilité est de 80%. Alors cela revient à trouver n tel que nous soyons au plus proche de:

equation   (74.55)

Donc la valeur la plus proche n pour cela est de prendre 11 éléments (c'est la valeur que retourne le logiciel de référence de la fiabilité qu'est Weibull++). On se retrouve alors avec:

=BINOMDIST(0;11;20%;1)=8.59%

Dans le cadre du domaine de la fiabilité, il est d'usage d'appeler cette approche "plan de démonstration de test de la fiabilité binomial non-paramétrique"....

E3. Voyons encore un dernier exemple relatif à la fiabilité. Rappelons que nous avons démontré plus haut que pour la loi de Weibull à un paramètre, nous avions:

equation   (74.56)

Et supposons que des tests prédécents nous ont montré que à un temps t égal à 2'000 jours, nous avions une fiabilité de 80% et que nous savons que le paramètre de forme comme equation vaut 2. Nous souhaiterions savoir quelle taille d'échantillons nous devons prendre pour qu'un plan de test de la fiabilité de 1'500 jours montre avec au plus 90% de probabilité cumulée au maximum une non-conformité (panne). Pour cela, nous allons d'abord déterminer le paramètre d'échelle:

equation   (74.57)

Il vient alors que pour ce même test à 1'500 jours, nous avions une fiabilité de:

equation   (74.58)

En injectant dans la loi binomiale, nous avons alors:

equation   (74.59)

Donc la valeur la plus proche n pour cela est de prendre 32éléments (c'est la valeur que retourne le logiciel de référence de la fiabilité qu'est Weibull++). On se retrouve alors avec:

=BINOMDIST(1;32;1-88.2%;1)=10.50%

Remarque: Là aussi... une erreur (bêtise) classique dans les entreprises consiste à penser que le critère d'acceptation est proportionnel à la taille du lot. En d'autres termes que si pour 10'000 bouteilles, le fait de tester un échantillon de 200 pièces (2%) donne une probabilité cumulée d'acceptation de ~6%, alors sur 1'000 bouteilles, un échantillon de 20 pièces (2%) donne la même probabilité cumulée d'acceptation. Au fait, avec Microsoft Excel 14.0.6123, nous avons non plus pas 6.23% mais alors 99.7%... la différence est donc considérable!!

Pour en revenir à la théorie.... le système que nous avions alors avec la loi Hyperégométrique peut alors s'écrire:

equation   (74.60)

Mais encore une fois, il n'est pas possible (à ma connaissance) de résoudre le système précédent analytiquement. En 1967, H. R. Larson a alors créé un abaque de la loi binomiale cumulative fréquemment désigné sous le terme de "nomographe binomial de Larson" (je n'en ai jamais trouvé ni vu un pour la loi hypergéométrique malheureusement...) qui permet de résoudre approximativement le problème de la détermination de la valeur de A et de n pour le plan d'échantillonnage:

equation
Figure: 74.1 - Source: Montgomery, D. C. (1996), Introduction to Statistical Quality Control (3e ed.), Ed. Wiley

exempleExemple:

Un lot de bouteilles est livré sous forme de lots de 10'000 unités correspondant à N. Nous cherchons à mettre en place un plan de contrôle de la réception par attributs avec la probabilité cumulée (risque) equation de 1% que le client rejette à tort le lot avec moins de 2.5% (equation) de non-conformes. De son côté le client souhaite une probabilité cumulée (risque) equation de 10% d'accepter à tort un lot avec plus de 5% (equation) de non-conformes (au fait les exigences sont indépendantes de la taille du N du lot).

Le but est de déterminer donc la valeur de A et de n à l'aide du nomographe. Pour cela, comme indiqué sur le nomographe, il faut tracer deux droites:

- Points de départs des deux droites: 0.99 (100%-1%) et 0.1 (10%) de l'axe de droite.

- Points d'arrivée des deux droites: 0.025 (2.5%) et 0.05 (5%) de l'axe de gauche.

et l'intersection des deux droites donnera les paramètres recherchés. Soit dans le cas présent:

equation   (74.61)

Nous voyons aussi que si nous injectons ces deux valeurs dans:

equation   (74.62)

avec Microsoft Excel, nous sommes en réalité loin du compte! Donc l'erreur du nomographe peut amener à donner l'impression de grossières approximations! Mais changez dans Microsoft Excel la valeur 30 par 27 et la valeur 700 par 695 et vous verrez en réalité ce que vous pouvez en conclure...

Nous voyons aussi via cet exemple qu'un plan d'échantillonnage par attribut est effectivement aussi beaucoup plus coûteux qu'un plan par mesurage (puisque nous avons repris le même exemple avec les mêmes paramètres que dans la partie des plans d'échantillonnage avec mesures).

Le lecteur aura aussi remarqué que N n'influence pas sur la valeur de A et n lorsque nous utilisons le nomographe. Donc si nous utilisons des outils informatiques pour chercher la solution, nous avons pour contrainte que n sera compris entre 0 et 1'000 et A entre 0 et 150.

Remarque: Enfin, indiquons que certains utilisent l'approximation Poissonienne de la loi binomiale (lorsque la probabilité de non-conformité est très faible que la taille du lot est très grande et même parfois quand ces critères sont loin d'être respectés...).

Revenons maintenant sur le double échantillonage en utilisant l'approximation binomiale qui était pour rappel:

equation   (74.63)

et considérons un plan à double échantillonage avec:

equation   (74.64)

et où la proportion de non-conformes est connue comme étant de 5%. Alors, dans ce cas la probabilité cumulée d'avoir par exemple au moins1 non-conforme au premier échantillonage et correspondant donc à la probabilité d'acceptation du lot est de:

equation   (74.65)

Donc jusque là rien de spécial! Maintenant pour obtenir la probabiltié d'acceptation du second lot, nous devons lister toutes les manières dont le second échantillonage. Supposons pour l'exemple que le lot est accepté qu si et seulement si le nombre cumulé de non-conformes sur les deux échantillonages est compris entre 2 et 3 unités (choix arbitraire mais simplifié pour l'exemple).

Nous avons alors les combinaisons suivantes possibles de tirage entre les deux échantillonages: {0,2}{0,3},{1,1},{1,2},{3,0},{2,1},{2,0}. Mais comme nous acceptons le lot si le premier échantillonage donne un nombre de non-conformes inférieur ou égal à 1, il reste alors seulement les combinaisons suivantes {3,0},{2,1},{2,0}à considérer en double échantillonage. Donc il nous faut calculer les probabilités suivantes:

equation   (74.66)

CALCUL DES PARAMÈTRES PAR UTILISATION DE LA NORME ISO 2859-1

La norme ISO 2859 (qui découle du standard MIL 105E) est consacrée aux règles d'échantillonnage pour les contrôles par attributs. Au même titre que la norme AFNOR X06-023 elle est basée le concept de NQA. (pourcentage d'individus non-conformes qui ne doit pas être dépassé pour qu'une production, contrôlée sur une série de lots, puisse être considérée comme satisfaisante).

Selon cette norme, il faut que le NQA soit une des 26 valeurs recommandées par la norme. Nous choisirons pour niveau d'inspection le numéro II (ils sont décrits dans la norme). Par rapport à l'effectif choisi, comme pour la norme AFNOR, ISO 2589 donne un code (lettre) qui va être utilisée ensuite dans une table. Enfin, en fonction du type de plan (simple, double ou triple) on trouve les paramètres A et n.

exempleExemples:

E1. Dans le cadre de notre exemple - le producteur de boissons gazeuses - qui reçoit des lots de 10'000 bouteilles, le niveau de qualité NQA est donc de 1%. Comme pour l'exemple avec la norme AFNOR, nous prendrons un contrôle de type II basé sur un plan simple.

Une table disponible dans la norme nous dit que nous devons utiliser le code L pour la prochaine étape. Ensuite, pour un contrôle simple, la norme nous dit d'utiliser la table  IIA.

Nous y lisons alors que n doit être égal à 200 et que A vaut 5. Nous constatons donc que la valeur obtenue est très différente de celle calculée théoriquement. Honnêtement la raison de cette différence m'est inconnue...

E2. Les praticiens lors de l'utilisation de cette norme souhaitent souvent pouvoir calculer le risque fournisseur et client associé aux facteurs n et A donnés par la norme relativement au NQA. choisi pour un lot d'une qualité donnée. Alors comme dans le cas présent, 200/10'000 est plus petit que 10%, nous pouvons utiliser l'approximation binomiale de la loi hypergéométrique. Supposons que nous souhaitons donc calculer le risque fournisseur pour le de l'exemple précédent (celui avec l'utilisation du nomographe):

equation   (74.67)

d'où un risque fournisseur de 100%-61.59% soit 38.40% ce qui est considérable. Ainsi, ce plan d'échantillonnage obtenu via les normes est adapté à des proportions de non-conformes de beaucoup inférieures à 2.5% (au fait inférieur à ~1.25%).

Pour le risque client, nous procédons de la même manière:

equation   (74.68)

ce qui est par contre plus acceptable. Au fait nous constatons que la norme est plus adaptée aux critères du client que du fournisseur.

Remarque: Le logiciel QuickControl Pro de la société Logystem SA par exemple gère l'échantillonage selon les normes ISO 2859 et 3951.

COURBE D'EFFICACITé POUR L'ÉCHANTILLONNAGE

La courbe qui représente les probabilités d'acceptation d'un lot en fonction de la qualité effective (proportion de pièces défectueuses) du lot s'appelle "courbe d'efficacité du plan d'échantillonnage" ("operating characteristic curve for sampling" ou "operating characteristic function for sampling" an anglais).

Cette courbe s'obtient donc en traçant sur un graphique la probabilité cumulée d'acceptation du lot que nous notons sur ce type de graphique, en fonction de la proportion présumée de pièces non-conformes (que nous notons p) dans le lot.

exempleExemple: Pour un contrôle de qualité par attributs, nous appliquons le plan de contrôle basé sur le prélèvement de 200 individus, le lot sera accepté si le nombre d'éléments défectueux est inférieur ou égal à 5. Nous souhaitons tracer la probabilité d'accepter un lot où le pourcentage de défectueux est p, pour p variant de 0 à 7% par pas de 0.1%.

Nous avons alors avec la version française de Microsoft Excel 14.0.6123 pour les premières lignes:

equation
Figure: 74.2 - Données pour une courbe d'efficacité obtenue avec Microsoft Excel 14.0.6123

Ce qui donne graphiquement:

equation
Figure: 74.3 - Graphique correspondant aux valeurs calculées dans Microsoft Excel 14.0.6123

Une manière élégante de représenter une courbe d'efficacité est la suivante:

equation
Figure: 74.4 - Concept général d'une courbe d'efficacité (source: ISBN 978-2-297-01111-2)

La courbe d'efficacité montre que la probabilité d'accepter un lot défectueux diminue lorsque le pourcentage de produits défectueux dans le lot augmente: lorsque la qualité est bonne, la probabilité d'accepter le lot est élevée ; lorsqu'elle est mauvaise, la probabilité d'accepter le lot est faible. La
courbe se caractérise par différents points:

- Au point A, le pourcentage de produits défectueux du lot est de 0 %, il y a 100 % de chances que le client accepte le lot. Le fournisseur ne court aucun risque

- Au point B, le pourcentage de défectueux effectif est de 2 %. Ce pourcentage correspond au Niveau de qualité acceptable (NQA) défini d'un commun accord entre le client et le fournisseur. Mais, comme le contrôle est effectué à l'aide d'échantillons aléatoires, il se peut que le lot soit rejeté par le client. Le risque equation pour le fournisseur est de 5 %. Réciproquement, il y a une probabilité de 95 % (1– equation) que le client accepte le lot.

- Au point C, le pourcentage de défectueux effectif est de 7 % correspondant au Niveau de qualité limite (NQL). La probabilité d'acceptation d'un lot de ce niveau de qualité est égale au risque client equation. Il y a exactement à ce point 10 % de chance d'accepter un lot mauvais, ce qui signifie que le client va conserver un nombre de défectueux supérieur à ce qu'il souhaite.

- Au point D, le pourcentage de produits défectueux effectif du lot est de 100 % ; il y a 0 % de chance d'accepter un tel lot.

Ce type de courbe d'efficacité basé sur de gros lots échantillonés (dixit l'utilisation de la loi binomiale) est appelée dans le cas de l'utilisation de la loi binomiale: "courbe d'efficacité de type B" (CE-B). Si évidemment la taille de l'échantillon est significative par rapport à la taille du lot nous utiliserons la loi hypergéométrique et nous parlerons alors de: "courbe d'efficacité de type A" (CE-A).

CARTES DE CONTRÔLES (CC) DE LA QUALITÉ

Une carte de contrôle (appelée aussi parfois "carte séquentielle") est une représentation empirique plane de la variation d'une mesure précise d'un processus ou d'un procédé où l'axe vertical représente l'indicateur quantitatif choisi et l'axe horizontal le temps (c'est donc une sous-famille des "run charts").

Cette méthode de contrôle qualité non destructive et dite "on-line" (car l'acquisition peut se faire en temps réel) permettant de mettre en évidence des causes spéciales de variations et d'optimiser les fréquences de réglages (étalonnage) aurait été créée par l'ingénieur physicien Walter A. Shewhart alors employé chez Bell Labs dans les années 1920 et s'est imposée en tant que standard international dès 1991 sous la norme ISO 8258. C'est d'ailleurs aussi Shewhart qui inspira le non moins connu W. Edwards Deming (statisticien) dans le domaine de la gestion de projets et de la qualité (tous les maîtres dans le domaine de la gestion de projets de pointe ont une formation scientifique...).

Remarque: Le sujet des cartes de contrôle est immensément vaste et il y a une littérature anglophone très abondante sur le sujet. Nous souhaitons ici ne donner que les fondamentaux (donc uniquement les cartes de base!) afin de montrer une application pratique des statistiques d'ordre et des statistiques des valeurs extrêmes développées en détail dans le chapitre de Statistiques. Pour placer un ordre de grandeur, la majorité des logiciels spécialisés proposent entre 20 et 30 cartes de contrôle différentes!

En début d'utilisation de cartes de contrôle, il est conseillé de mettre des cartes sur toutes les caractéristiques mesurables importantes du produit. Les cartes obtenues révèlent en général rapidement quelles cartes sont nécessaires ou inutiles. Les cartes inutiles ou inadaptées seront retirées et d'autres cartes éventuellement ajoutées.

equation
Figure: 74.5 - Principe d'une carte de contrôle

Les limites peuvent être soit imposées/spécifiées par un client et dès lors nous les notons USL et LSL, sinon elles sont calculées en interne et dès lors nous les notons UCL (Upper Control Limit) et LCL (Lower Control Limit). Pour améliorer l'efficacité d'une carte de contrôle, nous ajoutons parfois sur la carte des limites plus étroites appelées "limites de surveillance" (dans la réalité nous représentons quasiment systématiquement les limites calculées ET imposées par la politique qualité sur la carte de contrôle).

Remarque: Dans la pratique je recommande fortement de représenter à la fois CL, UCL, LCL et comme dans la réalité il y normalement toujours des limites et objectifs qui sont imposés contractuellement par le client, de représenter aussi la cible T et UCL et LCL sur le même graphique quand cela est possible!!!

La carte de contrôle est donc un outil de mesure permettant de visualiser la variation et donc de déterminer le moment où apparaît une cause assignable entraînant une dérive d'un processus ou procédé de fabrication/administratif ou encore une variation d'une valeur financière sur les marchés boursiers qui nécessite une action de correction rapide pour diminuer les coûts de non-qualité. Ainsi, dans l'idéal le processus sera arrêté ou corrigé au bon moment, c'est-à-dire avant qu'il ne produise trop de livrables/services non conformes (hors de l'intervalle de tolérance) et le surcontrôle (réajustement inutile pour cause de variabilité commune) sera évité.

Le type de carte de contrôle correspond au type de caractéristique qui fait l'objet d'un contrôle. Toutefois l'aspect économique peut être un facteur important dans le choix de la carte de contrôle à mettre en oeuvre. Si nous nous intéressons qu'à vérifier si une pièce est conforme ou non à certaines normes, une carte par attribut (voir plus loin) sera utilisée, mais nécessitera néanmoins une taille d'échantillon élevée. Le contrôle de caractéristiques quantitatives nécessite l'emploi de cartes de contrôle par mesure. Ce type de contrôle est plus efficace et plus précis mais également plus dispendieux puisqu'il requiert l'emploi d'instruments de mesure qui doivent être vérifiés régulièrement.

Avant de partir dans les détails mathématiques signalons que les cartes de contrôle parmi les plus utilisées sont les cartes de contrôle par mesure de la moyenne equation en association avec celle de l'étendue R ("range" en anglais) avec limites de Shewhart (quand nous parlons de "limites de Shewart", nous faisons implicitement référence au fait que la limite supérieure de contrôle calculée UCL et la limite inférieure de contrôle calculée LCL sont empiriquement à equation de la moyenne que la distribution soit symétrique ou non!). Ces deux cartes sont établies et interprétées la majorité du temps ensemble car les deux paramètres sont indépendants et complémentaires et simples à comprendre (la majorité des employés dans les entreprises ne sachant pas ce qu'est un écart-type). La valeur moyenne peut varier sans que la dispersion ne varie et inversement.

Remarques:

R1. Dans le cas d'une carte de contrôle avec limites de Shewhart, les limites de surveillance sont traditionnellement placées à equation (à l'opposée des limites de contrôle qui sont donc placées à equation).

R2. Dans le cas d'une distribution Normale, equation correspond à un intervalle de confiance de 99.73% comme nous l'avons vu plus haut dans le présent chapitre et dans celui de Statistiques. Cela correspondant donc à un alpha d'environ:

equation

La majeure partie de l'industrie prend donc equation comme limites, mais en toute rigueur les distributions de certaines cartes ne sont pas symétriques. Il convient alors de prendre des bornes correspondant à une probabilité cumulée de equation ce qui peut se calculer assez aisément avec de nombreuses distributions (mais pas toutes!) en ayant juste à disposition un tableur bon marché. Le choix de la valeur de equation dépend de la politique qualité de l'entreprise et a l'avantage d'être un indicateur beaucoup plus précis que les limites de Shewhart (ces dernières étant erronées lorsque les distributions sont asymétriques).

R3. Shewhart aurait proposé qu'il y ait au moins 25 prélèvements (échantillons) de 4 individus pour que la validité de certaines cartes de contrôle (que nous verrons plus loin) commence à être acceptable.

R4. Comme nous le verrons, la quasi-totalité des cartes de contrôle aux mesures supposent une distribution Normale et que les observations sont indépendantes (entre sous-groupes et à l'intérieur des sous-groupes).

Par exemple (exemple qui sera donc détaillé mathématiquement un peu plus bas), pour les procédés déjà stables car lancés depuis un bout de temps, nous effectuons plusieurs observations individuelles sur plusieurs sous-groupes numérotés à une fréquence de temps donnée (toutes les heures, trois fois par jour ...). Sur chaque sous-groupe k chronologique, nous effectuons n observations. Nous reportons sur la carte de moyenne equation la moyenne du sous-groupe en fonction de son numéro chronologique qui sera reporté sur l'axe horizontal des cartes de contrôle . En raison du théorème de la limite centrale (TCL) démontré dans le chapitre de Statistiques, la moyenne des valeurs sur la carte de contrôle suit une loi Normale (donc symétrique!) que les observations des sous-groupes soient normalement distribuées ou non!!! Cette hypothèse est valable même pour des échantillons de petite taille et pour un processus de fabrication sous-contrôle, ce qui est fréquent en contrôle qualité. Une production sera dite stable, si la tendance et la dispersion sont statistiquement constantes dans le temps (variables identiquement distribuées et indépendantes).

RÈGLES EMPIRIQUES DE LA WECO

L'interprétation d'une carte de contrôle aussi puissante et élégante qu'elle soit mathématiquement n'est pas aisée et requière expérience et savoir faire pour savoir s'il faut procéder à une intervention corrective ou non. La Western Electric (WECO) aurait publié, en 1956, un ouvrage avec des règles empiriques simples permettent de prendre des décisions plus simplement (le ministère français de la santé a fait de même 50 ans après... mais avec des règles qui diffèrent un peu).

La WECO s'est basée à l'époque sur l'hypothèse que les distributions statistiques sont toujours symétriques (même hypothèse que Shewhart) et a donc adopté dans l'énoncé des règles des limites de contrôle qui sont des multiples k entiers de l'écart-type. Évidemment, rien n'empêche le spécialiste de la qualité d'adapter ces règles avec des limites probabilistes correspondant à un intervalle de confiance (la majorité des logiciels spécialisés permettent de choisir les règles de la WECO à appliquer pour la détection automatiquement de non-conformités).

Dans le cas des cartes de contrôle mesurées, parmi ces règles édictées voici celles qui sont applicables afin d'identifier si un processus ou procédé est défaillant et qui ont été complétées avec les années par d'autres spécialistes (nous avons représenté ci-dessous quelques cas de certaines règles dans une unique carte de contrôle pour des raisons pédagogiques évidentes):

equation
Figure: 74.6 - Carte de contrôle générique avec quelques points de la WECO

W1. Un point de mesure est au-delà des USL, LSL spécifiés par le client ou au-delà des UCL, LCL probabilistes ou empiriques correspondant à equation.

W2. Deux points consécutifs de mesure sont au-delà UCL, LCL probabilistes ou empiriques correspondant à equation.

W3. Quatre points consécutifs de mesure sont au-delà UCL, LCL probabilistes ou empiriques correspondant à  equation (souvent appelés "limites d'alerte").

W4. Huit points successifs tombent d'un même côté de la moyenne (ce chiffre est empirique et sujet à débats...).

W5. Six points consécutifs sont sur une tendance haussière ou respectivement baissière.

W6. Quatorze points consécutifs sont sur une alternance systématique de hausse/baisse.

W7. Deux points consécutifs au-delà des UCL, LCL probabilistes ou empiriques correspondant à equation.

W8. Quatre points consécutifs hors des limites à equation et du même côté de la ligne centrale.

W9. Huit points consécutifs dans les limites de equation.

Remarque: Un logiciel comme Minitab intègre par exemple 8 de ses règles pour mettre en évidence une anomalie. Pour plus d'informations, le lecteur pourra se reporter au e-book que j'ai écrit sur ce logiciel.

Si le processus/procédé est hors de contrôle, des actions correctives sont donc mises en place. Les causes de variation peuvent être aléatoires ou déterministes. Si les causes sont seulement dues au hasard, elles sont alors appelées "causes aléatoires" (Shewhart) ou "causes communes" (Deming) et sont donc assimilées à la dispersion instantanée dont nous avons fait mention plus haut. Pas toutes les variations sont dues au hasard évidemment, certaines sont spécifiques et identifiables de manière déterministe et certaine. Dans ce dernier cas, les variations sont appelées "variations assignables" (Shewhart) ou "causes spéciales" (Deming) et sont assimilées à la dispersion globale (dont nous avons aussi déjà fait mention plus haut). Corriger les causes spéciales est évidemment bien plus simple que de corriger les causes aléatoires. L'objectif principal des cartes de contrôle est bien évidemment d'identifier les causes spéciales...

Voilà en ce qui concerne les us et coutumes d'interprétation des points de mesure. Maintenant, ce prélude non mathématique effectué, voyons les différents types de cartes de contrôle (CC) courantes avec un exemple concret pour chacune.

ÉCHANTILLONNAGE

L'usage des cartes de contrôle pose au début deux difficultés majeures:

- Le choix de la bonne carte de contrôle

- Le choix du nombre d'échantillons et de prélèvements (fréquence de l'échantillonnage)

Nous souhaiterions ici discuter du deuxième point. Il faut d'abord observer que c'est bien évidemment la cadence d'exécution et la qualité du fonctionnement qui va nous donner la réponse. Cette qualité est appréciée par la moyenne du nombre d'interventions de corrections observées pendant un laps déterminé dans le passé. Plus le nombre d'actions correctives a été grand, moins la qualité du fonctionnement du procédé/processus est bonne et plus il faudra faire de prélèvements.

Le choix du nombre d'individus dans un prélèvement (échantillonnage) n'est lui pas un problème, car il découlera du calcul statistique de l'intervalle de confiance de l'indicateur statistique que l'on s'impose et des propriétés de loi de distribution ainsi que des hypothèses de construction de la carte de contrôle (voir plus loin dans le texte qui va suivre).

La difficulté est donc de quantifier la fréquence de prélèvement. Il existe pour ce point deux méthodes empiriques principales:

- Choisir une fréquence telle que les actions correctives sont au moins quatre fois plus faible que la fréquence de prélèvement (ce critère est donc indépendant du nombre d'individus par prélèvements donc parfois peu applicable).

- Nous considérons T comme étant la durée de vie du procédé/processus entre chaque changement/modification. Nous notons comme à l'habitude n le nombre d'individus par prélèvement (échantillons) nécessaires pour garantir de l'intervalle de confiance imposé de l'indicateur statistique (pour l'analyse de la dispersion instantanée). Nous notons N le nombre d'exécutions du procédé/processus pendant la période T. Nous avons donc au maximum N/n prélèvements possibles. Enfin, ce qui décidera du nombre de prélèvements, sera la précision de l'exigence de l'inférence statistique sur un indicateur statistique pour la dispersion globale.

Dans la totalité des cartes de contrôle que nous allons présenter ci-dessous, nous avons présenté des exemples avec des prélèvements à taille constante (donc les limites des cartes de contrôle sont presque toujours constantes à quelques exceptions près). Effectivement, si la taille de ceux-ci vient à changer, c'est que le rythme de production (ou la taille des lots de livraison) a changé et donc les paramètres de fabrication aussi. Il conviendrait alors de recommencer une nouvelle carte! Il en est de même après une réingénierie du procédé/processus ou changements des paramètres du procédé/processus comme le montre par exemple l'image ci-dessous:

equation
Figure: 74.7 - Exemple de carte de contrôle avant et après mesure corrective

CARTES DE CONTRÔLES QUALITATIVES (AUX ATTRIBUTS)

Pour mesurer des variables qualitatives (% de défectueux, % de pannes, ...), nous nous servons de cartes aux attributs p (binomial), np ou c pour contrôler les attributs dans le temps.

Les cartes de contrôle par attributs sont très simples d'utilisation et d'interprétation, mais ont plusieurs inconvénients comme la forte dissymétrie des répartitions, l'absence de limite inférieure pour les faibles tailles d'échantillons, la faible efficacité de détection des détériorations.

CC-P

La carte de contrôle de type p (proportion) est utilisée lorsqu'il s'agit de travailler avec des ratios, proportions ou pourcentages de conformité ou non-conformité d'échantillons d'un prélèvement.

De bons exemples de carte de contrôle de type p sont: l'inspection des produits d'une ligne de production ou de la réception de lots d'un fournisseur ou encore contrôle du dysfonctionnement d'un certain nombre d'appareils, le respect de délais de livraison ou des spécifications de produits.

Avantages: Très simple à construire car ne nécessite aucune connaissance statistique poussée pour être calculée.

Problèmes: En réalité c'est une carte dont les limites de contrôle peuvent être asymétriques si l'application pratique est à la limite de l'acceptable lorsque les hypothèses théoriques de construction ne sont pas respectées. Une difficulté parfois rencontrée par les utilisateurs de cette carte est de déterminer la taille du lot et du niveau d'acceptation (A) ou rejet (R) équivalant à l'USL en sa basant sur les développements (et normes) des plans d'échantillonnages disponibles un peu plus loin dans le présent chapitre. Enfin, une dernière difficulté est que certains employés maîtrisent mal le concept de pourcentages.

La loi probabilité utilisée dans ce contexte est la loi binomiale (cf. chapitre de Statistiques) où p représentera la proportion en % de non-conformités et q (qui vaut donc 1-p) représentera la proportion en % d'éléments conformes.

Nous avons vu dans le chapitre de Statistiques qu'il nous était possible d'écrire formellement, sous certaines hypothèses, uniquement l'intervalle de confiance suivant:

equation   (74.69)

Donc nous pouvons alors calculer des probabilités de lots non-conformes par excès ou par défaut en utilisant le fait que p suit une loi Normale de paramètres:

equation   (74.70)

Bref, nous n'avons pas d'autres choix que de baser la carte de contrôle là-dessus. Dès lors, la première étape dans la création d'une carte de contrôle de type p est de calculer la proportion de non-conformité, du moins son estimateur, pour chaque lot i:

equation   (74.71)

equation est le nombre d'éléments non-conformes et equation le nombre total d'éléments du lot contrôlé i.

La proportion moyenne d'éléments non-conformes, qui correspondra à la ligne centrale (CL) de la carte de contrôle sera donnée par:

equation   (74.72)

et si les equation sont tous égaux, cela ce simplifie en:

equation   (74.73)

n représente donc le nombre de lots contrôlés. Nous avons alors:

equation   (74.74)

et si la taille des lots sont tous identiques:

equation   (74.75)

Conformément à l'étude que nous ferons plus tard des plans d'échantillonnages, il ne peut pas y avoir de limite inférieure imposée par le client/direction (LSL) ni d'objectif (T) dans ce domaine d'application.

Ainsi, avec le tableau suivant où la taille des lots (cas particulier!) est identique:

equation
Figure: 74.8 - Tableaux Microsoft Excel 14.0.6123 avec lots de taille identique et non-conformités

Soit:

equation
Figure: 74.9 - Formules Microsoft Excel 14.0.6123 correspondantes au tableau précédent

Ce qui donne la carte de contrôle suivante:

equation
Figure: 74.10 - Carte de contrôle aux attributs p individuelle basée sur le tableau Microsoft Excel 14.0.6123 précédent

où nous avons pris comme exemple les limites imposées par la clientèle/direction:

equation   (74.76)

Remarque: Cette carte de contrôle n'est donc pas adaptée aux tirages exhaustifs puisqu'il faudrait alors utiliser la loi hypergéométrique. Malheureusement, comme il n'existe pas de relation analytique pour l'intervalle de confiance de la proportion d'une loi hypergéométrique, il n'est pas possible (à ce jour... et à ma connaissance...) de construire une carte de contrôle de ce type.

La carte-p s'interprète comme une autre carte de Shewhart en utilisant les règles de la WECO.

CC-NP

La carte-np est similaire à la carte-p précédente, mais représente le nombre d'unités non-conformes plutôt que la proportion. Cette carte est plus simple à interpréter que la carte-p puisque pas tous les employés arrivent à se représenter le concept de pourcentage, mais par contre il est très difficile de comparer en toute objectivité deux points dont la taille des lots à l'origine n'est pas la même.

Avantages: Très simple à construire car ne nécessite aucune connaissance statistique poussée pour être calculée. Pour certains employés dont le concept de pourcentage est mal maîtrisé, elle est plus simple à lire qu'une carte-np.

Problèmes: Encore une fois c'est une carte dont les limites de contrôle peuvent être asymétriques si l'application pratique est à la limite de l'acceptable lorsque les hypothèses théoriques de construction ne sont pas respectées. Une difficulté parfois rencontrée par les utilisateurs de cette carte et de déterminer la taille du lot et du niveau d'acceptation (A) ou rejet (R) équivalant à l'USL en sa basant sur les développements (et normes) des plans d'échantillonnages disponibles un peu plus loin dans le présent chapitre. Il est aussi difficile avec cette carte de comparer en toute objectivité deux points dont la taille des lots à l'origine n'est pas la même.

Nous avons alors en toute généralité:

equation   (74.77)

Mais puisqu'il est très difficile (contrairement à la carte-p) de comparer en toute objectivité avec cette carte deux points lorsque la taille des n'est pas identique, certains spécialistes imposent – ou recommandent – que la taille des lots soit la même tel que:

equation   (74.78)

Conformément à l'étude que nous ferons plus tard des plans d'échantillonnages, il ne peut pas y avoir de limite inférieure imposée par le client/direction (LSL) ni d'objectif (T) dans ce domaine d'application.

Ainsi, avec le tableau suivant où la taille des lots (cas particulier!) est identique:

equation
Figure: 74.11 - Tableaux Microsoft Excel 14.0.6123 avec lots de taille identique et non-conformités

Soit:

equation
Figure: 74.12 - Formules Microsoft Excel 14.0.6123 correspondantes au tableau précédent

Ce qui donne la carte de contrôle suivante:

equation
Figure: 74.13 - Carte de contrôle aux attributs np individuelle basée sur le tableau Microsoft Excel 14.0.6123 précédent

où nous avons pris comme exemple les limites imposées par la clientèle/direction:

equation   (74.79)

Les mêmes remarques que pour la carte-p s'appliquent pour la carte-np.

CC-C

Dans le chapitre de Statistiques, nous avons démontré que lorsque la probabilité p est très faible et tend vers zéro, mais que toutefois la valeur moyenne equation tend vers une valeur fixe si n tend vers l'infini, la loi binomiale de moyenne equation avec k épreuves était alors donnée par une loi de Poisson:

equation   (74.80)

avec:

equation   (74.81)

En pratique, certains remplacent la loi binomiale par une loi de Poisson dès que equation et equation ou lorsque equation et equation... Dans la pratique je recommande personnellement l'usage de l'approximation lorsque equation et equation.

Soit

equation   (74.82)

ce qui se note traditionnellement dans le domaine:

equation   (74.83)

equation est simplement la moyenne du comptage (c'est de ce mot que provient le "c" du nom de la carte) de non-conformités:

equation   (74.84)

Conformément à l'étude que nous ferons plus tard des plans d'échantillonnages, il ne peut pas y avoir de limite inférieure imposée par le client/direction (LSL) ni d'objectif (T) dans ce domaine d'application.

Avantages: Très simple à construire car ne nécessite aucune connaissance statistique poussée pour être calculée.

Problèmes: Encore une fois c'est une carte dont les limites de contrôle peuvent être asymétriques si l'application pratique est à la limite de l'acceptable lorsque les hypothèses théoriques de construction ne sont pas respectées. Une difficulté parfois rencontrée par les utilisateurs de cette carte et de déterminer la taille du lot et du niveau d'acceptation (A) ou rejet (R) équivalant à l'USL en sa basant sur les développements (et normes) des plans d'échantillonnages disponibles un peu plus loin dans le présent chapitre. Enfin, une dernière difficulté est que certains employés maîtrisent mal le concept de pourcentages.

Ainsi, avec le tableau suivant où la taille des lots obligatoirement identique pour les raisons cités juste précédemment (et les non-conformes ne peuvent pas être exprimés en % de la taille du lot puisque la loi de Poisson est une loi discrète!):

equation
Figure: 74.14 - Tableaux Microsoft Excel 14.0.6123 avec lots de taille identique et non-conformités

Soit:

equation
Figure: 74.15 - Formules Microsoft Excel 14.0.6123 correspondantes au tableau précédent

Ce qui donne la carte de contrôle suivante:

equation
Figure: 74.16 - Carte de contrôle aux attributs C individuelle basée sur le tableau Microsoft Excel 14.0.6123 précédent

où nous avons pris comme exemple les limites imposées par la clientèle/direction:

equation   (74.85)

La carte-c s'interprète donc comme une autre carte de Shewhart en utilisant les règles de la WECO.

Remarque: Cette carte s'applique très bien lorsque chaque point représente le nombre de non-conformités de matériel assemblé de nombreux composants (plus d'une dizaine de milliers souvent) dont la probabilité d'être défectueux est très faible.

CC-U

La carte-u est similaire à la carte c à la différence qu'elle a pour rôle de normaliser les données à l'unité afin d'avoir une carte-c basée sur une loi de Poisson avec des pourcentages.

Pour cela, nous utilisons les mêmes hypothèses de travail que celles démontrées dans le chapitre de Statistiques concernant la loi de Poisson:

equation   (74.86)

Ce qui fait que la carte-c s'écrit alors:

equation   (74.87)

Si nous divisons la variable aléatoire k par la taille du lot (ou nombre de composants) nous avons alors de par la propriété de l'espérance et de la variance:

equation   (74.88)

ce qui se note traditionnellement:

equation   (74.89)

Avec donc:

equation   (74.90)

Ainsi, avec le tableau suivant dans le cas particulier (mais courant) où tous les lots ont la même taille ou le même nombre de composants:

equation
Figure: 74.17 - Tableaux Microsoft Excel 14.0.6123 avec lots de taille identique et non-conformités

Soit:

equation
Figure: 74.18 - Formules Microsoft Excel 14.0.6123 correspondantes au tableau précédent

Ce qui donne la carte de contrôle suivante:

equation
Figure: 74.19 - Carte de contrôle aux attributs U individuelle basée sur le tableau Microsoft Excel 14.0.6123 précédent

où nous avons pris comme exemple les limites imposées par la clientèle/direction:

equation   (74.91)

La carte-c s'interprète comme une autre carte de Shewhart en utilisant les règles de la WECO.

Remarque: Cette carte s'applique très bien lorsque chaque point représente le nombre de non-conformités de matériel assemblé de nombreux composants (plus d'une dizaine de milliers souvent) dont la probabilité d'être défectueux est très faible.

CARTES DE CONTRÔLES QUANTITATIVES (AUX MESURES)

Les variables quantitatives sont donc des mesures continues de type poids, longueur, épaisseur, température, diamètre...

Contrairement aux cartes de contrôle autocorrélées et aux cartes de contrôle qualitatives (aux attributs), les cartes de contrôle quantitatives (aux mesures) sont souvent - pour ne pas dire toujours - présentées par paire:

- Une carte de contrôle représentant l'analyse/évolution de la tendance statistique centrale (souvent l'espérance, car il est relativement facile d'en construire un intervalle de confiance).

- Une carte de contrôle représentant l'analyse/évolution de la dispersion via l'étendue ou l'écart-type.

Les limites de contrôles sont souvent prises (faute de temps de réflexion dans les entreprises) comme des limites de Shewhart et non des limites probabilistes.

CC À VALEURS INDIVIDUELLES AVEC LIMITES IMPOSÉES

C'est la carte de contrôle la plus simple et la plus utilisée car ne nécessite aucune connaissance et hypothèse statistique particulière. Elle consiste uniquement à reporter les mesures effectuées et à apporter des actions correctives quand cela semble nécessaire.

Avantages: Simple à construire car ne nécessite aucune connaissance ou hypothèse statistique particulière. Permet de vérifier de manière ponctuelle si une production satisfait les contraintes spécifiées par les clients.

Problèmes: Elle peut représenter des déviations aléatoires temporaires qui pourront faire penser à tort à un problème du procédé/processus et amèneront à des actions correctives inutiles (fausses alarmes). Elle ne permet pas non plus d'identifier si le procédé/processus est sous contrôle statistique ou pas.

Considérons par exemple le tableau suivant:

equation
Figure: 74.20 - Tableaux Microsoft Excel 14.0.6123 avec mesures individuelles

où nous avons pris en ce qui concerne les limites (nous supposerons qu'elles imposent un écart-type de 0.10):

equation   (74.92)

Cela qui nous donne la carte de contrôle suivante:

equation
Figure: 74.21 - Carte de contrôle mesurée de Shewhart avec limites imposées

Bien que cette carte soit la plus utilisée dans la pratique (car les ingénieurs ont des directives de qualité avec des tolérances bien précises à respecter), son problème reste cependant qu'elle ne nous indique pas vraiment si le procédé ou processus semble se stabiliser dans le temps (d'ailleurs ce n'est pas son rôle!) et si le contrôle statistique est dans les limites du client (elle nous montre seulement les statistiques ponctuelles ce qui est peu robuste!). Nous allons partiellement y remédier avec la prochaine carte.

CC À VALEURS INDIVIDUELLES AVEC MOYENNE ET ÉCART-TYPE COURT TERME

Lorsque nous commençons les premières observations (mesures) le procédé ou processus est rarement stable et il est hors de question de s'amuser à faire des quantités de pièces d'essais juste pour faire une carte de contrôle de la moyenne dans ces conditions.

Avantage: Met en évidence l'évolution dans le temps des indicateurs de statistiques de positions et de dispersion et permet d'observer la stabilisation du procédé/processus pendant la phase de prototypage (souvent nommée "Phase I" dans la littérature spécialisée).

Problèmes: Ils sont les mêmes que pour la carte de contrôle précédente. Il faut y rajouter le fait que nous supposons les données identiquement distribuées et indépendantes selon une loi de probabilité symétrique, ce qui n'était pas le cas précédemment.

Nous restons donc avec une carte de contrôle mesurée à laquelle nous ajoutons la moyenne arithmétique et l'écart-type ponctuels recalculés à chaque nouvel élément. En d'autres termes, comme nous n'avons aussi pas assez d'échantillons pour connaître la loi de probabilité et qu'il est hors de question de faire des déchets pour cela et de former les gens pendant des semaines aux statistiques, nous rajoutons à la carte de contrôle précédente les indicateurs de limite de contrôle de Shewhart fixes suivants:

equation   (74.93)

CL signifie "Center Line" et avec l'estimateur de l'espérance et l'estimateur non biaisé de l'écart-type (définitions générales de la moyenne et de l'écart-type vues dans le chapitre de Statistiques):

equation   (74.94)

sans y associer aucun intervalle de confiance (puisque nous n'avons justement pas assez d'échantillons ou que nous ne souhaitons pas demander aux employés de passer du temps à déterminer la loi de probabilité suivie). D'où le terme de "carte de contrôle avec moyenne et écart-type de la moyenne ponctuelle". Cette terminologie permet d'insister sur le fait que les indicateurs seront indiqués, mais sans en connaître l'erreur par manque d'échantillons ou simplement parce qu'il est irréaliste de demander aux employés concernés d'identifier la loi de probabilité y relative et de faire le calcul d'intervalle de confiance correspondant.

Remarquons que nous pouvons alors calculer des probabilités de pièces non-conformes par excès ou par défaut en utilisant le fait que X suit une loi Normale de paramètres:

equation   (74.95)

Ainsi, en reprenant le tableau suivant ayant 150 (k) mesures:

equation
Figure: 74.22 - Tableaux Microsoft Excel 14.0.6123 avec mesures individuelles

Soit:

equation
Figure: 74.23 - Formules Microsoft Excel 14.0.6123 correspondantes au tableau précédent

Nous avons alors la carte de contrôle suivante:

equation
Figure: 74.24 - Carte de contrôle mesurée de Shewhart avec moyenne et écart-type court-terme

où nous avons pris en ce qui concerne les limites imposées (nous supposerons qu'elles imposent un écart-type de 0.10):

equation   (74.96)

Nous voyons par exemple avec la carte de contrôle ci-dessus que la mesure CL (donc l'estimateur de la moyenne) se stabilise proche de la cible T entre le début et la fin. Il en va de même pour UCL et LCL (car l'estimateur de l'écart-type se stabilise) par contre selon l'usage en ingénierie les résultats ne sont pas bons puisque l'UCL et LCL sont au-delà des spécifications imposées par le client! À remarquer que cette carte de contrôle aurait selon les règles de la WECO un unique point au-delà des equation (nous indiquons cela pour des raisons de comparaison avec les prochaines cartes).

Remarque: Sur toutes les cartes sans aucune exception, les spécifications du client doivent être indiquées en plus des limites calculées!

À ce niveau, nous imaginerons que nous restons dans l'incapacité de déterminer la loi de probabilité des données (problème d'échantillons ou de compétences) et donc in extenso tout aussi incapables de calculer des intervalles de confiance pour la moyenne ou l'écart-type!

La prochaine carte de contrôle est censée y remédier.

CC AVEC MOYENNES BASÉES SUR L'ERREUR-STANDARD

Une fois le processus ou procédé stabilisé, nous considérons que la moyenne et l'écart-type se stabilisent et que même si la loi de probabilité que suit un groupe de k échantillons n'est pas identique d'un jour à l'autre, de par le théorème central limite, l'ensemble des moyennes suit elle une loi Normale. Dès lors il peut être plus intéressant de représenter la variation des moyennes dans le temps et non plus simplement les mesures simples.

Avantages: Masque (lisse) les variations aléatoires non systématiques et permet donc souvent d'éviter des actions correctives non nécessaires (fausses alertes).

Problèmes: Cette carte de contrôle suppose que les prélèvements sont identiquement distribués de par les hypothèses de base de sa construction mathématique. De plus, dans le cadre des limites fixes de Shewhart, la loi de distribution est supposée symétrique. Le plus gros problème de cette carte est aussi que le nombre d'individus par échantillon doit être suffisamment grand pour que l'estimateur sans biais de l'écart-type ne soit pas trop éloigné de la réalité, ce qui fait qu'on ne la trouve pas dans les logiciels (problème qui fait que, souvent, elle est remplacée par une autre carte que nous verrons un peu plus loin et qu).

Nous considérons alors le tableau suivant de 25 prélèvements (que nous identifierons dans le cas présent par la variable k) de 6 individus chacun (que nous identifierons par la variable n) prises d'une production continue (sans arrêt machine!):

equation
Figure: 74.25 - Mesures journalières sans arrêt de la machine

où chaque jour, nous prenons que 6 individus de l'ensemble des éléments à notre disposition. Sur la carte de contrôle, nous représenterons alors chaque point comme étant la moyenne de ces 6 individus.

Nous avons démontré dans le chapitre de Statistique que l'écart-type de la moyenne (erreur-type) d'une série de n variables aléatoires indépendantes et identiquement distribuées était:

equation   (74.97)

Nous avons alors les indicateurs de limite de contrôle de Shewhart suivants (évidemment comme nous utilisons les estimateurs de la moyenne et de l'écart-type, plus le nombre de prélèvements et d'individus est grand, plus les limites sont asymptotiquement précises):

equation   (74.98)

Avec:

equation   (74.99)

et si tous les equation sont identique:

equation   (74.100)

Remarquons que nous pouvons alors calculer des probabilités de sous-groupes non-conformes par excès ou par défaut en utilisant le fait que equation suit une loi Normale de paramètres:

equation   (74.101)

Nous obtenons alors le tableau suivant:

equation
Figure: 74.26 - Indicateurs correspondants aux mesures obtenues

Soit:

equation
Figure: 74.27 - Formules Microsoft Excel 14.0.6123 correspondantes au tableau précédent

Nous avons alors la carte de contrôle suivante:

equation
Figure: 74.28 - Carte de contrôle X barre/barre - ER

où nous avons pris en ce qui concerne les limites imposées:

equation   (74.102)

À remarquer que cette carte de contrôle aurait selon les règles de la WECO six points au-delà des equation (nous indiquons cela pour des raisons de comparaison avec la carte précédente et les prochaines cartes). Il s'agit donc d'une carte plus sensible aux variations que la précédente. Il faut remarquer aussi que les limites UCL et LCL sont plus larges que les USL et LSL imposées.

Avec des limites de equation et selon l'hypothèse de données normalement distribuées, nous avons en utilisant la symétrie de la loi Normale et en notant comme à l'habitude equation la fonction de probabilité cumulée de la loi Normale centrée réduite:

equation   (74.103)

Donc nous aurons statistiquement 1 point (pièce/action) sur le graphique sur 370 en dehors des equation par unité de temps de mesure (donc si chaque point sur la carte est fait par fréquence de 1 heure nous avons alors une ARL de 0.0027/heure) uniquement pour des raisons statistiques et qui seront donc de fausses alarmes.

Nous appelons ce dernier chiffre l'ARL pour "Average Run Length" (certains utilisent l'appellation française P.O.M. pour "Période Opérationnelle Moyenne"). Lorsqu'il est rapporté à une unité de temps particulière, nous parlons alors de ATS pour "Average Time to Signal". Évidemment, par extension, l'ajout des règles empiriques de la WECO ajoutent des fausses alarmes et cela a pour effet négatif immédiat de diminuer l'ARL.

L'ARL est aussi importante dans la pratique, car elle donne la taille d'intervalle de pièces au-delà de laquelle il ne faut pas aller pour échantillonner une production! On fera en sorte dans la pratique (quand cela est possible) de prendre une valeur inférieure proche de l'ARL. pour de grandes productions mais si possible pas au-delà!

Dans la pratique, la valuer de 0.0027 que nous avosn obtenu ci-dessus, est appelée "l'erreur de type I" de la carte de contrôle (fausse alarme). Évidemment il y aussi les erreurs de type II (absence d'alarme alors qu'il devrait y en avoir une). Mais comme je n'ai jamais vu qui que ce soit utiliser cela dans la pratique.

Remarque: Comme nous l'avons déjà mentionné, parfois plusieurs niveaux de contrôles sont ajoutés sur les cartes, ainsi nous pouvons observer du equation et en même temps du equation. Aux U.S. le facteur 2 ou 3 serait majoritairement utilisé que la distribution soit symétrique ou non... alors que dans les pays européens, nous utilisons des limites probabilistes qui ont une bien meilleure fiabilité lorsque les données ne sont pas distribuées selon des fonctions symétriques (comme c'est le cas pour les cartes bien connues utilisant l'étendue R que nous verrons plus tard).

Rappelons que le problème de cette carte est que equation est asymptotiquement correcte que si equation est grand. Alors que dans la réalité ce n'est de loin pas le cas puisque souvent cette valeur est inférieure à 10. Dès lors nous verrons plus loin une carte de la moyenne dont les limites fixes sont calculées sur la base de l'étendue R et non pas de equation. Cependant, dans le chapitre de Statistiques, nous avons démontré que lorsque l'écart-type est estimé, nous avons alors:

equation   (74.104)

Nous pouvons donc utiliser la carte de Shewhart aux limites probabilistes suivante:

equation   (74.105)

Enfin, remarquons que rien ne nous empêche de faire de l'inférence statistique sur la moyenne en utilisant la relation démontrée dans le chapitre de Statistiques:

equation   (74.106)

en sachant que dans le domaine du contrôle qualité il est fortement souhaitable que pour un equation donné (généralement de l'ordre de 5%), la valeur zéro soit comprise dans l'intervalle:

equation   (74.107)

ce qui est assimilé alors à un test d'hypothèse avec equation.

CC AVEC ÉCARTS-TYPES (S BARRE - S)

Toujours dans le cadre d'un processus ou procédé sous contrôle, il peut être intéressant en plus de communiquer la carte de contrôle des moyennes (avec limites fixes) précédemment présentée une carte représentant les volatilités dans le temps en considérant à nouveau une distribution Normale des variables aléatoires. Effectivement, rappelons que la loi Normale est totalement définie par ses paramètres equation. D'où la raison d'avoir un oeil sur ses deux là!

Avantages: Complète très bien la carte de contrôle précédente et permet de visualiser si la volatilité du procédé se stabilise. Représente bien la variation à l'intérieur même des données de chaque prélèvement (dispersion instantanée) que nous pourrons détecter.

Problèmes: Cette carte de contrôle est utilisée seulement lorsque la phase de prototypage est terminée (souvent nommée "Phase II" dans la littérature spécialisée) car elle est basée sur une hypothèse forte incontournable qui est que les données sont normalement distribuées. De plus, les limites de contrôles de Shewhart sont peu adaptées dans le cas présent, car comme nous allons le démontrer en détails, la loi de distribution de la variance n'est pas une loi symétrique alors que Shewhart suppose que c'est le cas.

L'idée est de représenter:

equation   (74.108)

toujours avec l'estimateur de l'espérance (k étant le nombre de prélèvements pour rappel...):

equation   (74.109)

et toujours avec l'estimateur de maximum de vraisemblance non biaisé de l'écart-type noté S dans le domaine de la qualité (à l'opposé de equation dans le domaine des Statistiques pures):

equation   (74.110)

n correspond donc bien évidemment au nombre d'individus par prélèvement (échantillon).

Pour calculer l'espérance et la variance equation, il faut considérer S comme une variable aléatoire distribuée normalement (c'est l'hypothèse forte en incontournable de cette carte de contrôle dont nous avions fait mention dans les problèmes!). Nous avons alors démontré dans le chapitre de Statistiques que nous avions:

equation   (74.111)

que nous noterons par la suite t comme étant la variable aléatoire correspondante. Pour la suite, nous allons considérer equation et equation comme de simples coefficients constants de S. Donc la variable aléatoire t sera en réalité fonction implicite de S tel que:

equation   (74.112)

Nous nous intéressons maintenant au calcul de l'espérance de S. Il est alors plus convenable de prendre la racine carrée de t tel que:

equation   (74.113)

Il vient alors:

equation   (74.114)

Rappelons que nous avons vu dans le chapitre de Statistiques que la loi du Khi-deux était définie par la fonction de densité de probabilité suivante:

equation   (74.115)

Il vient alors:

equation   (74.116)

Posons pour la suite:

equation   (74.117)

Nous avons alors:

equation   (74.118)

Nous avons donc:

equation   (74.119)

Pour terminer sur ce point, il faut savoir qu'il est de tradition de noter equation de la manière suivante:

equation   (74.120)

et que nous en trouvons des valeurs dans les tables alors que c'est inutile si nous possédons un tableur comme la version anglophone de Microsoft Excel 14.0.6123 en écrivant la formule suivante (equation serait écrit dans la cellule A1):

=SQRT(2/(A1-1))*EXP(GAMMALN(A1/2))/EXP(GAMMALN((A1-1)/2))

ou dans Calc de OpenOffice (la formule y étant plus simple):

=RACINE(2/(A1-1))*GAMMA(A1/2)/GAMMA((A1-1)/2)

Calculons maintenant la variance de S en utilisant la relation de Huyghens démontrée dans le chapitre de Statistiques:

equation   (74.121)

et nous avons:

equation   (74.122)

Il vient alors:

equation   (74.123)

et:

equation   (74.124)

Nous avons alors:

equation   (74.125)

soit au final:

equation   (74.126)

ce qui est plus traditionnellement condensé sous la forme:

equation   (74.127)

Les coefficients equation (tous fonctions de equation) sont tabulés dans des tables en fonction du nombre equation d'individus par prélèvement (échantillon), mais encore une fois ils sont très simples à calculer dans un tableur comme Microsoft Excel avec la relation explicite donnée plus haut. Et nous avons donc:

equation   (74.128)

k est le nombre de prélèvements.

Ainsi, si nous considérons toujours le tableau suivant de 25 prélèvements (k) de 6 individus equation:

equation
Figure: 74.29 - Mesures journalières avec 6 individus sans arrêt de la machine

Nous pouvons calculer, ou trouver dans les tables que:

equation   (74.129)

Ce qui donne:

equation
Figure: 74.30 - Calculs des indicateurs correspondants

Soit:

equation
Figure: 74.31 - Formules Microsoft Excel 14.0.6123 explicites du tableau précédent

Nous avons alors la carte de contrôle suivante:

equation
Figure: 74.32 - Carte de contrôle S Barre - S

où nous avons pris pour le client (qui avait imposé un USL et LSL de equation):

equation   (74.130)

À remarquer que cette carte de contrôle aurait selon les règles de la WECO zéro points au-delà des equation (nous indiquons cela pour des raisons de comparaison avec les cartes précédentes et les prochaines). Elle est donc moins sensible que les autres cartes. Il faut remarquer aussi que les limites UCL et LCL sont plus larges que les USL et LSL imposées.

Pour rappel, le problème majeur de cette carte de contrôle est qu'elle n'est juste que si et seulement si les données sont normalement distribuées et que Shewart suppose la loi de S symétrique alors que ce n'est pas le cas. Dès lors, les responsables qualités associent alors avec la carte de la moyenne une autre carte que nous allons présenter de suite.

CC AVEC MOYENNES BASÉES SUR L'ÉCART-TYPE (X BARRE - S)

Lors de notre étude de la carte de contrôle aux moyennes avec les limites fixes basées sur l'écart-type de la moyenne, nous avons bien mis en évidence que cette dernière souffrait de l'handicap que equation est trop approximatif dans la pratique (car n est souvent trop petit).

Dès lors, un moyen de contourner cela est d'utiliser les résultats obtenus lors de l'étude de la carte de contrôle précédente.

Avantages: Corriger le problème de la carte de contrôle aux moyennes lorsque le nombre d'individus par prélèvements (échantillons) est trop petit. Représente bien la variation du niveau moyen des données (tendance centrale).

Problèmes: La démonstration mathématique de l'origine des limites de contrôles est ardue (voir chapitre de Statistiques pour le détail des démonstrations). Un autre problème c'est que cette carte ne fonctionne que si et seulement si les données sont identiquement distribuées et le sont selon une loi Normale! Par ailleurs puisque les limites sont basées sur l'estimateur de l'écart-type, il faudrait un n qui dans l'idée ne soit pas en dessous de la dizaine...

Rappelons d'abord que nous avions:

equation   (74.131)

et nous avons démontré plus haut que:

equation   (74.132)

Nous avons donc:

equation   (74.133)

et que nous retrouvons parfois dans la littérature sous la forme:

equation   (74.134)

Remarquons que nous pouvons alors calculer des probabilités de sous-groupes non-conformes par excès ou par défaut en utilisant le fait que equation suit une loi Normale de paramètres:

equation   (74.135)

dont il découle immédiatement que X suit une loi Normale de paramètres:

equation   (74.136)

Ainsi, si nous considérons toujours le tableau suivant de 25 prélèvements (k) de 6 individus equation:

equation
Figure: 74.33 - Mesures journalières avec 6 individus sans arrêt de la machine

Nous pouvons calculer, ou trouver dans les tables que:

equation   (74.137)

Nous avons alors le tableau suivant:

equation
Figure: 74.34 - Indicateurs correspondants aux mesures obtenues

Soit:

equation
Figure: 74.35 - Formules Microsoft Excel 14.0.6123 explicites du tableau précédent

Nous avons alors la carte de contrôle suivante:

equation
Figure: 74.36 - Carte de contrôle X barre - S

où nous avons pris pour le client (qui avait imposé un USL et LSL de equation):

equation   (74.138)

À remarquer que cette carte de contrôle aurait selon les règles de la WECO six points au-delà des equation (nous indiquons cela pour des raisons de comparaison avec les cartes précédentes et les prochaines). Elle est donc plus sensible que la carte précédente et tout aussi sensible que la carte aux moyennes basée sur l'erreur-standard. À remarquer aussi que les limites UCL et LCL sont plus larges que les limites USL et LSL imposées.

CC AVEC ÉTENDUES (R BARRE - R)

La carte de contrôle aux étendues est donc souvent associée à la carte de contrôle de la moyenne. Elle a pour objectif de remplacer avantageusement la carte de contrôle de l'écart-type S lorsque les données ne sont pas normalement distribuées, car sa construction mathématique permet si on le désire de choisir la loi de probabilité sous-jacente. Ainsi, nous utilisons cette nouvelle carte lorsque equation (le nombre d'individus par prélèvement), alors que pour la carte de l'écart-type il faut plutôt que equation.

Avantages: Complète très bien la carte de contrôle de la moyenne et remplace avantageusement la carte de l'écart-type lorsque le nombre de prélèvements est peu élevé. Représente bien la variation à l'intérieur même des données de chaque prélèvement (dispersion instantanée) que nous pourrons détecter.

Problèmes: La démonstration mathématique de l'origine des limites de contrôles est ardue (voir chapitre de Statistiques pour le détail des démonstrations) et la détermination des coefficients nécessite l'utilisation de calculs par la méthode de Monte-Carlo (cf. chapitre de Méthodes numériques). Un autre problème, c'est que bien que la loi de probabilité de l'étendue puisse être choisie, elle est souvent donnée dans les livres spécialisés que pour la loi Normale...

L'idée est de représenter (il est impossible que le client fixe une limite USL, LSL ou une cible T en ce qui concerne l'étendue d'où le fait que ces paramètres ne soient cette fois-ci pas mentionnés):

equation   (74.139)

et cette fois-ci nous n'allons pas utiliser les estimateurs de l'espérance et de l'écart-type car pour equation ils ne convergent pas assez vite. Dès lors, nous allons utiliser les résultats démontrés dans le chapitre de Statistiques lors de notre étude des statistiques d'ordre. Nous avions obtenu comme estimateur de l'écart-type avec les constantes de Hartley:

equation   (74.140)

avec:

equation   (74.141)

ou selon les logiciels (mais cette dernière est plus logique quand on y réfléchit):

equation   (74.142)

Dès lors:

equation   (74.143)

ce qui se note traditionnellement:

equation   (74.144)

Les coefficients equation sont disponibles dans la littérature (ou sur le web) sous forme de tables en fonction du nombre equation d'individus par prélèvements et souvent (malheureusement) que pour une distribution normale (voir l'exemple dans le chapitre de Statistiques).

Ainsi, si nous considérons toujours le tableau suivant de 25 prélèvements (k) de 6 individus (n):

equation
Figure: 74.37 - Mesures journalières avec 6 individus sans arrêt de la machine

Puisque equation nous trouvons dans les tables:

equation   (74.145)

Nous avons alors le tableau suivant:

equation
Figure: 74.38 - Indicateurs correspondants aux mesures obtenues

Soit:

equation
Figure: 74.39 - Formules Microsoft Excel 14.0.6123 explicites du tableau précédent

Nous avons alors la carte de contrôle suivante:

equation
Figure: 74.40 - Carte de contrôle R barre - R

qui (est-il nécessaire de le rappeler?) sous-estime donc le nombre de détections d'erreurs puisque la loi de probabilité de l'étendue n'est en réalité pas symétrique (donc l'application des limites fixes de Shewhart n'est pas vraiment adaptée...) et parce que la quasi-totalité des tables supposent quand même les données distribuées normalement aussi.

À remarquer que cette carte de contrôle aurait selon les règles de la WECO zéro points au-delà des equation (nous indiquons cela pour des raisons de comparaison avec les cartes précédentes et les prochaines).

CC AVEC MOYENNES BASÉES SUR L'ÉTENDUE (X BARRE-R)

Lors de notre étude de la carte de contrôle aux moyennes avec les limites fixes basées sur l'écart-type de la moyenne, nous avons bien mis en évidence que cette dernière souffrait de l'handicap que equation est trop approximatif dans la pratique (car n est trop petit).

Dès lors, un moyen de contourner cela est d'utiliser les résultats obtenus lors de l'étude de la carte de contrôle précédente.

Avantages: Corriger le problème de la carte de contrôle aux moyennes avec l'écart-type lorsque le nombre d'individus par prélèvements (échantillons) est trop petit. Représente bien la variation du niveau moyen des données (tendance centrale).

Problèmes: La démonstration mathématique de l'origine des limites de contrôles est ardue (voir chapitre de Statistiques pour le détail des démonstrations) et la détermination des coefficients nécessite l'utilisation de calculs par la méthode de Monte-Carlo (cf. chapitre de Méthodes numériques). Un autre problème, c'est que bien que la loi de probabilité de l'étendue puisse être choisie, elle est souvent donnée dans les livres spécialisés que pour la loi Normale

Remarque: Cette carte de contrôle est très utilisée dans le cadre de l'étude de la reproductibilité et de la répétabilité (Étude R&R). Raisonp pour laquelle on la retrouve dans les logiciels de maîtrise statistique des processus automatiquement lorsque l'on lance une analyse R&R (typiquement ce que fait le logiciel Minitab).

Rappelons d'abord que nous avions:

equation   (74.146)

et nous avons démontré dans le chapitre de Statistique dans le cadre de notre étude des statistiques d'ordre que:

equation   (74.147)

Il vient alors (il est impossible que le client fixe une limite USL, LSL ou une cible T en ce qui concerne l'étendue d'où le fait que ces paramètres ne soient cette fois-ci pas mentionnés):

equation   (74.148)

toujours avec:

equation   (74.149)

et l'ensemble se note traditionnellement dans le domaine:

equation   (74.150)

Remarquons que nous pouvons alors calculer des probabilités de sous-groupes non-conformes par excès ou par défaut en utilisant le fait que equation suit une loi Normale de paramètres:

equation   (74.151)

dont il découle immédiatement que X suit une loi Normale de paramètres:

equation   (74.152)

Ainsi, si nous considérons toujours le tableau suivant de 25 prélèvements (k) de 6 individus (n):

equation
Figure: 74.41 - Mesures journalières avec 6 individus sans arrêt de la machine

Puisque equation nous trouvons dans les tables:

equation   (74.153)

Nous avons alors le tableau suivant:

equation
Figure: 74.42 - Indicateurs correspondants aux mesures obtenues

Soit:

equation
Figure: 74.43 - Formules Microsoft Excel 14.0.6123 explicites du tableau précédent

Nous avons alors la carte de contrôle suivante:

equation
Figure: 74.44 - Carte de contrôle X barre - R

À remarquer que cette carte de contrôle aurait selon les règles de la WECO zéro points au-delà des equation (nous indiquons cela pour des raisons de comparaison avec les cartes précédentes et les prochaines).

La question est alors de savoir laquelle est le plus juste... Et c'est très délicat, car les limites de Shewhart comme nous l'avons déjà dit de nombreuses fois sont peu réalistes et supposent une distribution symétrique. Or, les calculs mathématiques détaillés du coefficient equation montrent que les limites ne devraient pas être symétriques. De plus, ce dernier coefficient est basé majoritairement sur une hypothèse de normalité de la distribution des mesures, ce qui lui ajoute une faiblesse supplémentaire. Cependant, si nous comparons à la toute première carte de contrôle avec l'écart-type court terme qui n'avait qu'une seule alarme, la carte de contrôle ci-dessus est plus réaliste que celle avec l'erreur standard qui affiche trop de fausses alertes.

Ces difficultés que nous retrouvons à toutes les cartes de contrôle vues jusqu'à maintenant montrent qu'en fin de compte il faut mieux faire une analyse fréquentielle des mesures, déterminer la loi de probabilité et avec des outils spécialisés basés sur la méthode de Monte-Carlo, calculer les limites supérieures et inférieures pour un equation donné.

CARTES DE CONTRÔLES QUANTITATIVES AUTOCORRÉLÉES (AUX MESURES)

La famille des cartes de contrôle autocorrélées est définie par le fait que soit les points sur la carte, soit les limites de contrôles sont calculées sur la base d'un certain nombre de points qui précèdent.

Ces cartes ont pour avantage de nécessiter moins de données que les autres et d'amplifier le phénomène de déviation et donc de détecter les anomalies plus rapidement.

Les règles de la WECO ne s'appliquent pas aux cartes autocorrélées. Si un point est à l'extérieur des limites calculées, il faut une action de correction.

CC À VALEURS INDIVIDUELLES BASÉES SUR L'ÉTENDUE MOBILE (I-EM X BARRE)

En phase de prototypage, nous ne pouvons pas nous permettre de mettre en place le concept de prélèvement. De plus, la carte de contrôle mesurée avec moyenne et écart-type court terme ne permet pas de faire de l'inférence statistique, car la loi de distribution est supposée inconnue car le procédé non stable.

Une solution intermédiaire consiste à considérer alors que le procédé est stable (hypothèse de normalité des données) et de calculer les limites à partir d'un nombre minimal d'individus qu'il est possible d'avoir pour faire une statistique, c'est-à-dire: deux!

Cette situation est donc bien adaptée aux phases de prototypage ou dans le cas de procédés/processus à cadence lente ou dont les mesures (pièces) sont très onéreuses.

Avantages: Complète les premières cartes à valeur individuelle que nous avons vues tout au début pour des situations où il est difficile d'avoir un grand nombre d'individus pour des raisons de coûts. Cette carte de contrôle est parfois considérée comme le couteau suisse du contrôle qualité... et elle est de plus en plus utilisée puisqu'elle correspond à la politique de la production "Just in Time" (JIT) de petites séries (pour la diminution des coûts).

Problèmes: La démonstration mathématique de l'origine des limites de contrôles est ardue (voir chapitre de Statistiques pour le détail des démonstrations) et la détermination des coefficients nécessite l'utilisation de calculs par la méthode de Monte-Carlo (cf. chapitre de Méthodes numériques). Un autre problème, c'est que bien que la loi de probabilité de l'étendue puisse être choisie, elle est souvent donnée dans les livres spécialisés que pour la loi Normale.

Afin de détourner le problème d'une estimation acceptable de l'écart-type, l'idée consiste à considérer deux mesures successives equation comme les variables aléatoires d'une statistique d'ordre dont nous calculons l'étendue en valeur absolue:

equation   (74.154)

MR signifie "Moving Range" (cette carte de contrôle est appelée parfois "carte–MR(2)"). Et nous avons alors:

equation   (74.155)

puisque nous avons forcément n-1 étendues mobiles.

Nous reprenons alors les définitions de la carte de contrôle mesurée avec moyenne et écart-type court terme:

equation   (74.156)

et nous pouvons nous débarrasser du problème de l'estimation de equation en utilisant la relation démontrée dans le chapitre de Statistique dans le cadre de l'étude des statistiques d'ordre:

equation   (74.157)

Ce qui nous amène alors à (il est impossible que le client fixe une limite USL, LSL ou une cible T en ce qui concerne l'étendue d'où le fait que ces paramètres ne soient cette fois-ci pas mentionnés):

equation   (74.158)

ce qui est parfois noté:

equation   (74.159)

Nous devons prendre dans le cas présent la valeur equation pour equation. Les tables nous donnent:

equation   (74.160)

ce qui nous donne:

equation   (74.161)

Remarquons que nous pouvons alors calculer des probabilités de sous-groupes non-conformes par excès ou par défaut en utilisant le fait que X suit une loi Normale de paramètres:

equation   (74.162)

dont il découle immédiatement que X suit une loi Normale de paramètres:

equation   (74.163)

Reprenons les données suivantes:

equation
Figure: 74.45 - Mesures journalières sans arrêt de la machine

Nous avons alors:

equation
Figure: 74.46 - Indicateurs correspondants aux mesures obtenues

Soit (nous avons coupé la capture d'écran en deux parties faute de place):

equation
Figure: 74.47 - Formules Microsoft Excel 14.0.6123 explicites du tableau précédent

et:

equation
Figure: 74.48 - Suite des formules Microsoft Excel 14.0.6123 explicites du tableau antéprécédent

Nous avons alors le graphique:

equation
Figure: 74.49 - Carte de contrôle I-EM X barre

À remarquer que cette carte de contrôle aurait selon les règles de la WECO zéro points au-delà des equation (nous indiquons cela pour des raisons de comparaison avec les cartes précédentes et les prochaines).

CC À VALEURS INDIVIDUELLES AVEC ÉTENDUE MOBILE (I-EM EM BARRE)

La carte précédente utilisant la tendance centrale doit être complétée (au même titre que toutes les autres cartes précédentes à tendance centrale) avec une carte affichant la tendance de la dispersion (les avantages et problèmes de cette carte de contrôle sont les mêmes que la précédente).

Nous reprenons alors les définitions d'une carte de contrôle mesurée pour obtenir:

equation   (74.164)

Encore une fois, l'écart-type de l'étendue mobile (EM) se construit de la même manière que l'écart-type de l'étendue. Nous avons alors:

equation   (74.165)

Dès lors il vient (il est impossible que le client fixe une limite USL, LSL ou une cible T en ce qui concerne l'étendue d'où le fait que ces paramètres ne soient cette fois-ci pas mentionnés):

equation   (74.166)

ce qui se note au même titre que la carte de contrôle à l'étendue:

equation   (74.167)

Reprenons le tableau de données suivant:

equation
Figure: 74.50 - Mesures journalières sans arrêt de la machine

Puisque la carte est avec des valeurs individuelles, avec l'étendue mobile nous avons equation. Nous trouvons dans les tables:

equation   (74.168)

Ce qui nous donne:

equation
Figure: 74.51 - Indicateurs correspondants aux mesures obtenues

Soit:

equation
Figure: 74.52 - Formules Microsoft Excel 14.0.6123 explicites du tableau précédent

Nous avons alors la carte de contrôle suivante:

equation
Figure: 74.53 - Carte de contrôle I-EM barre - EM

Nous voyons que la carte de contrôle avec étendue mobile semble beaucoup plus sensible que n'importe quelle carte. Mais le problème subsiste quant à savoir si l'observation que nous faisons de cette carte est correcte dans le sens où l'étendue mobile ne suit pas une loi de distribution symétrique contrairement à ce que présuppose les limites fixes de Shewhart.

Il faut aussi savoir que certaines règles de la WECO (les règles concernant les séquences) ne s'appliquent pas sur ce type de carte puisque les données y sont autocorrélées.

CC MOYENNES MOBILES (MA)

Nous supposons toujours que la caractéristique suit une loi Normale et que l'on prélève des échantillons de taille constante n. La moyenne mobile de durée h à l'instant t, montée equation est définie par la moyenne mobile (moving average) vue dans le chapitre de Statistiques:

equation   (74.169)

Le paramètre h est appelé aussi horizon. Plus grande sera la valeur de h meilleure est l'efficacité de la carte pour la détection des petits déréglages.

Lorsque equation, en supposant l'indépendance entre les échantillons, nous obtenons :

equation   (74.170)

Et si tous les échantillons ont la même taille (si échantillons il y a...):

equation   (74.171)

Soit:

equation   (74.172)

Et:

equation   (74.173)

Donc:

equation   (74.174)

Avantages: Le fait que l'on lisse les données avec une moyenne mobile ayant pour objectif d'adoucir les fortes variations rend cette carte très bien adaptée aussi aux petites productions raison pour laquelle on l'utilise principalement pour des mesures individuelles dont le nombre se situe au moins aux alentours de 10 (ceci dit elle est utilisable aussi pour des mesures groupées). Par ailleurs dans l'exemple qui suivra, nous nous limiterons à cas de figure particulier! Nous voyons aussi que les limites de la carte seront d'autant plus petites que h est grand. Donc la carte peut être très sensible aux petites variations.

Problèmes: L'écart-type est supposé connu ou du moins calculé suffisamment précis pour que l'estimateur converge vers la valeur théorique. Tous les échantillons doivent avoir une taille identique n si nous utilisons l'écriture développée ci-dessus (sinon les logiciels implémentent le cas où cette condition n'est pas satisfaite).

Prenons le tableau de données suivant:

equation
Figure: 74.54 - Mesures individuelles sans arrêt de la machine

Puisque la carte est avec des valeurs individuelles, nous avons equation. Et le système, en utilisant l'étendue mobile pour l'estimation de l'écart-type, se réduit donc à:

equation   (74.175)

donc outre les dénominateurs avec la racine de h, les paramètres CL, UCL et LCL sont les mêmes que la carte de contrôle I-EM X barre.

Nous devons prendre dans le cas présent la valeur equation pour equation. Les tables nous donnent:

equation   (74.176)

Ce qui nous donne:

equation
Figure: 74.55 - Indicateurs correspondants aux mesures obtenues

Soit (nous avons coupé la capture d'écran en deux parties faute de place):

equation
Figure: 74.56 - Formules Microsoft Excel 14.0.6123 explicites du tableau précédent (première partie)

et:

equation
Figure: 74.57 - Formules Microsoft Excel 14.0.6123 explicites du tableau précédent (deuxième partie)

Nous avons alors la carte de contrôle suivante:

equation
Figure: 74.58 - Carte de contrôle à valeurs individuelles de la moyenne mobile (X barre - I-MA)

CC CUSUM AVEC V-MASQUE EMPIRIQUE

Un des principaux inconvénients des cartes de type Shewhart est de ne baser l'analyse que sur les dernières informations recueillies (hypothèse d'indépendance des mesures). Elles ignorent les informations relatives aux tendances du procédé contenues dans les dernières estimations. Il faut savoir que de nombreux instituts de normalisation qualité dans le monde (AFNOR ou ASQ) considèrent les cartes de Shewhart comme complètement obsolètes (à tort ou à raison?) et préconisent les cartes de type CUSUM car utilisent l'autocorrélation et l'amplification des variations.

Dans les années 1950 des cartes de contrôle appelées donc CUSUM (CUmulated Sum: somme cumulée) ou "cartes de Page-Hinkley" (en honneur à leurs inventeurs) ont été introduites par des statisticiens pour détecter de petites variations. Même si elles sont mathématiquement plus optimales, elles sont difficiles à configurer correctement et très sensibles aux paramètres initiaux.

Le principe des cartes CUSUM (car il en existe plusieurs pour une loi de distribution donnée) est de sommer les écarts entre les estimations de la position du procédé/processus et la cible. Lorsque le cumul des écarts positifs ou le cumul des écarts négatifs dépasse une certaine valeur, nous concluons à un décentrage du procédé.

Nous posons:

equation et equation   (74.177)

où souvent la première égalité est aussi notée:

equation   (74.178)

Dès lors il vient une écriture très connue dans la littérature:

equation   (74.179)

En général, la carte de CUSUM se comporte comme suit:

- Si le procédé est sous-contrôle, la somme cumulée fluctue aléatoirement autour de zéro.

- Si la moyenne subit une dérive positive de la moyenne, la statistique equation ou equation croît rapidement par accumulation d'un biais systématique.

Remarques:

R1. Dans de nombreux ouvrages et de très nombreux cas applicatifs, nous n'utilisons pas equation (variable centrée et réduite) car la variance est inconnue et nous nous restreignons qu'à l'usage de equation. Les développements mathématiques qui suivent alors s'adaptent très facilement.

R2. La même approche peut être faite avec des moyennes de prélèvements selon:

equation et equation

R3. Il existe de nombreuses versions différentes de carte CUSUM et même pour la carte CUSUM avec V-Masque il en existe de multiples sous-familles. Pour être honnête c'est selon mon opinion un sacré foutoir...

Pour l'exemple, reprenons le tableau de données suivant:

equation
Figure: 74.59 - Mesures journalières avec 6 individus sans arrêt de la machine

et nous calculons la somme cumulée en considérant toujours une cible de equation:

equation
Figure: 74.60 - Indicateurs correspondants aux mesures obtenues

Soit:

equation
Figure: 74.61 - Formules Microsoft Excel 14.0.6123 explicites du tableau précédent

Nous obtenons alors:

equation
Figure: 74.62 - Carte de contrôle CUSUM pour l'instant sans le V-Masque empirique

Nous voyons alors très vite avec cette carte que la somme cumulée semble décroître. Ceci indique que la vraie qualité moyenne est inférieure à la cible (vous pouvez essayer avec 9.994 comme cible afin de voir la sensibilité).

Il faut maintenant considérer deux cas:

H1. Il vient sous l'hypothèse de normalité (processus sous contrôle) et par la propriété de stabilité de la loi Normale que pour une variable aléatoire centrée réduite:

equation   (74.180)

ou sinon:

equation   (74.181)

Dès lors, sous cette hypothèse, nous avons les sommes cumulées equation  qui sont réparties autour d'une droite de régression de pente 0 (puisque la moyenne des sommes de variables aléatoires dont la moyenne est nulle est... nulle) et les distributions ont leur écart-type qui est proportionnel à la racine de i (respectivement la variance qui est proportionnelle à i)

H2. Si le processus est hors contrôle (dispersion globale), il existe un instant equation tel que equation pour equation et equation pour equation avec equation (cette dernière valeur étant souvent imposée par les contraintes de qualité et nommée "translation moyenne importante"). Dès lors, nous avons:

equation   (74.182)

ou:

equation   (74.183)

pour equation et:

equation   (74.184)

pour equation. Ceci étant précisé, il va de soi que les sommes cumulées:

equation   (74.185)

sont réparties autour d'une droite de régression de pente equation à partir de l'instant r. Respectivement, nous avons:

equation   (74.186)

Pour continuer, l'idée est de discriminer l'hypothèse H1 d'une droite de régression de pente nulle et l'hypothèse H2 d'une droite de régression de pente equation pour equation en fixant pour frontière empirique la pente moitié (le juste milieu quoi...):

equation   (74.187)

respectivement:

equation   (74.188)

et un décalage lui aussi empirique equation avec equation. À l'étape n nous rejetons H1, si pour un entier equation nous avons:

equation   (74.189)

Il bien évidemment aussi possible de faire le rejet avec une représentation géométrique (cela a l'avantage d'aller beaucoup plus vite et de faire le contrôle d'un seul coup pour n'importe quel m plus petit ou égal à n). L'idée est alors de tracer une droite de pente K partant du point d'abscisse equation. S'il existe un point equation avec equation en dessous de la droite, nous tirons alors l'alarme.

Le lecteur aura remarqué que dans le cas présent, nous considérons equation strictement positif et donc in extenso la pente K aussi. Évidemment ce n'est pas réaliste et dès lors il faut utiliser une droite de pente K positive et une autre droite de pente -K négative. La zone comprise entre les deux droites avec une abscisse equation est appelée un "V-masque" et le contrôle est assimilé logiquement alors à un test bilatéral. Ainsi, s'il existe un point equation avec equation en dehors du V-masque nous tirons l'alarme.

Faisons un exemple avec le graphique précédent. Considérons les valeurs empiriques suivantes des paramètres:

equation avec equation   (74.190)

Soit:

equation   (74.191)

Il vient alors:

equation
Figure: 74.63 - Indicateurs correspondants aux mesures obtenues

Soit:

equation
Figure: 74.64 - Formules Microsoft Excel 14.0.6123 explicites du tableau précédent

Nous avons alors par exemple au point 26 correspondant à 25+h:

equation
Figure: 74.65 - Carte de contrôle CUSUM avec le V-Masque empirique

Le lecteur observera facilement qu'avec le choix effectué, nous n'aurions aucune alarme avec les paramètres empiriques choisis. Il conviendrait alors dans la pratique de diminuer la valeur de equation.

Pour résumer, les avantages de la carte de CUSUM par rapport aux cartes de Shewhart sont les suivantes:

- Elles sont plus efficaces pour détecter de petites dérives

- La dérive du procédé apparaît visuellement sur ces cartes

- Il est en général facile de détecter en quel point le procédé a commencé à dériver

Les désavantages de ces cartes sont les suivantes:

- Elles peuvent être lentes pour détecter de grandes dérives

- Elles ne sont pas très intéressantes pour analyser des données passées et rechercher des cycles ou allures caractéristiques dans la distribution étudiée.

- Elles sont moins facilement acceptées par des opérateurs car moins intuitives et ne représentent pas directement la caractéristique étudiée.

Pour les raisons discutées ci-dessus, il est conseillé de représenter en parallèle la carte de Shewhart et la carte CUSUM.

Remarque: Il existe encore d'autres cartes de CUSUM de type V-masque. Donc attention avec les logiciels à savoir ce que l'on fait!!!

CC EWMA (PONDÉRATION EXPONENTIELLE AVEC MOYENNE MOBILE) AVEC LIMITES FIXES

Une alternative intéressante aux cartes CUSUM dans le cadre de l'autocorrélation et la détection de faibles déréglages sont les cartes de contrôle EWMA (Exponentially Weigthed Moving Average) qui ont leur origine dans l'analyse des séries temporelles (cf. chapitre d'Économie).

Remarque: Certains utilisent aussi des cartes de contrôle avec les techniques empiriques de la moyenne mobile simple ou double comme étudiées dans le chapitre d'Économie lorsque les données sont autocorrélées.

Une carte EWMA est facile à mettre en place et n'est pas trop sensible aux changements de paramètres et la non-normalité des données, elle reste toutefois tout aussi performante que les cartes CUSUM pour détecter les petites variations.

Par définition, la statistique reportée sur la carte de contrôle EWMA se calcule par la relation suivante (remarquez que les indices des différents termes ne sont pas les mêmes que le lissage exponentiel d'une série temporelle comme vu dans le chapitre d'Économie puisque l'objectif n'est pas de faire de la prévision!!):

equation   (74.192)

avec la particularité que pour cette carte de contrôle certains logiciels (comme Minitab) prennent:

equation ou equation   (74.193)

La constante equation (constante de lissage) détermine le poids que nous souhaitons affecter aux dernières mesures. Plus cette valeur est petite, plus la carte est sensible aux dérives subites.

Démontrons que cette dernière relation peut s'écrire sous la forme:

equation   (74.194)

Effectivement:

equation   (74.195)

Supposons pour la suite que:

equation   (74.196)

Nous avons alors:

equation   (74.197)

et en se rappelant d'une des propriétés de la variance:

equation   (74.198)

Il vient:

equation   (74.199)

Faisons un changement de variable:

equation   (74.200)

Il vient alors en utilisant le résultat démontré dans le cadre de l'étude des suites arithmétiques du chapitre sur les Suites et Séries:

equation   (74.201)

quand t est suffisamment grand, la variance se réduit alors à (approximation que la majorité des logiciels - comme Minitab - ne font pas et donc les limites ne sont pas constantes en fonction de t!):

equation   (74.202)

Les limites de contrôle de la carte EWMA se construisent alors aussi à equation avec:

equation   (74.203)

Nous avons donc lorsqu'un objectif est fixé ainsi qu'un écart-type (il est impossible que le client fixe une limite USL, LSL ou une cible T en ce qui concerne la pondération exponentielle d'où le fait que ces paramètres ne soient cette fois-ci pas mentionnés):

equation   (74.204)

que nous retrouvons sous la forme suivante lorsqu'il s'agit de travailler avec des prélèvements d'échantillons:

equation   (74.205)

Certains logiciels utilisent pour le calcul de l'écart-type la relation suivante que nous avons démontrée plus haut:

equation   (74.206)

et certains autres (comme Minitab):

equation   (74.207)

cette dernière option ayant l'avantage de fonctionner si la taille des échantillons est unitaire (nous parlons alors bien évidemment de "carte EWMA aux valeurs individuelles"). Rappelons effectivement que nous avons déjà mentionné que la carte EWMA est mal adaptée aux grandes séries.

Il convient de remarquer que quelle que soit l'option choisie, comme nous avons:

equation   (74.208)

les limites de contrôles seront donc toujours nettement inférieures à ceux d'une carte à l'étendue ou à étendue mobile. C'est aussi une raison pour laquelle nous lissons les données!

Faisons un exemple pour chaque variante de calcul de l'écart-type puisque chacune est d'égale importance dans la pratique. Pour cela, commençons par la carte EWMA avec:

equation   (74.209)

et en prenant les données du tableau suivant:

equation
Figure: 74.66 - Mesures journalières avec 6 individus sans arrêt de la machine

Nous obtenons:

equation
Figure: 74.67 - Indicateurs correspondants aux mesures obtenues

Soit (nous avons coupé la capture d'écran en deux parties faute de place):

equation
Figure: 74.68 - Formules Microsoft Excel 14.0.6123 explicites du tableau précédent (première partie)

et:

equation
Figure: 74.69 - Formules Microsoft Excel 14.0.6123 explicites du tableau précédent (deuxième partie)

Nous avons alors la carte de contrôle suivante:

equation
Figure: 74.70 - Carte de contrôle EWMA avec écart-type basé sur l'étendue et limites fixées

Pour le dernier exemple, nous prenons le cas fameux de la carte EWMA avec valeurs individuelles et:

equation   (74.210)

avec les données suivantes:

equation
Figure: 74.71 - Mesures individuelles sans arrêt de la machine

en prenant donc (attention le n dans la relation qui suit n'est pas le même que celui qui est dans la racine contenant la constante de lissage!):

equation   (74.211)

et:

equation   (74.212)

ainsi que:

equation   (74.213)

Nous avons alors avec une constante de lissage de 0.6:

equation
Figure: 74.72 - Indicateurs correspondants aux mesures obtenues

Soit (nous avons coupé la capture d'écran en deux parties faute de place):

equation
Figure: 74.73 - Formules Microsoft Excel 14.0.6123 explicites du tableau précédent (première partie)

et:

equation
Figure: 74.74 - Formules Microsoft Excel 14.0.6123 explicites du tableau précédent (deuxième partie)

Nous avons alors la carte de contrôle suivante:

equation
Figure: 74.75 - Carte de contrôle EWMA avec écart-type basé sur l'étendue et limites fixées

Comme pour les autres cartes de contrôle, la carte EWMA doit être accompagnée d'une carte de contrôle pour le suivi de la variabilité, donc soit une carte avec étendues aux limites fixes ou une carte aux écarts-types avec limites fixes.

CARTE DE CONTRÔLE DES FRÉQUENCES AVEC LIMITES PROBABILISTES

Le suivi des fréquences d'apparition de défauts/accidents/anomalies/pannes est une technique très simple à mettre en pratique et très parlante pour des personnes ayant peu voire pas de connaissances en statistiques. De plus c'est une technique adaptée aux cas où les événements contrôlés sont très rares.

L'idée est alors de ne plus suivre le nombre d'événements spéciaux, mais le temps T entre deux apparitions des événements surveillés. Le temps T se mesure alors soit en nombre de pièces produites, soit en nombre d'accidents, anomalies, en jours, etc.

Par exemple:

equation
Figure: 74.76 - Mesures

Ce qui donne sous forme graphique:

equation
Figure: 74.77 - Carte de contrôle des fréquences

Bon c'est bien joli, mais nous il nous faut une UCL et LCL pour que cela soit utile! Afin d'y arriver nous allons utiliser la théorie des files d'attente avec les mêmes hypothèses et les mêmes contrôles préalables (cf. chapitre Techniques de Gestion). Rappelons d'abord que nous y avions démontré que la probabilité d'observer k événements dans un intervalle de durée t (ou un intervalle de nombre de pièces t), sous certaines hypothèses bien précises (!!!), suivait une distribution de Poisson:

equation   (74.214)

où le  paramètre equation est le taux moyen d'arrivée (taux moyen d'apparition) d'événements par unité de temps (ou en anglais "Poisson Arrivals See Time Average": PASTA...) supposé constant sur toute la durée:

equation   (74.215)

et où nous avons pour espérance et variance (cf. chapitre de Statistiques) du nombre d'événements:

equation   (74.216)

Il s'agit d'une loi de probabilité à support discret, ce qui correspond bien à notre cas d'études donc la loi de Poisson peut être un bon candidat (mais il y en a d'autres, comme la loi Géométrique par exemple).

Mais nous avions aussi démontré que la variable aléatoire equation représentant le temps (ou le nombre de pièces) séparant deux arrivées d'événements non désirés (ou désirés...) était donnée par la fonction de répartition basé sur la loi exponentielle:

equation   (74.217)

toujours avec:

equation   (74.218)

où:

equation   (74.219)

Donc, nous pourrions prendre les limites de Shewhart suivantes:

equation   (74.220)

Mais il est plus rigoureux (comme pour toutes les autres cartes) de prendre des limites probabilistes. Ainsi, si nous voulons fixer les limites avec un risque bilatéral habituel dans le domaine de equation de 0.5% nous calculons alors pour la limite inférieure:

equation   (74.221)

et pour la limite supérieure:

equation   (74.222)

Nous avons alors:

equation
Figure: 74.78 - Indicateurs correspondants aux mesures obtenues

Soit:

equation
Figure: 74.79 - Formules Microsoft Excel 14.0.6123 explicites du tableau précédent

Nous avons alors la carte de contrôle suivante (nous n'y avons exceptionnellement pas représenté USL):

equation
Figure: 74.80 - Carte de contrôle des fréquences limites

Il ne faut régulièrement (et donc aussi au tout début) vérifier que la distribution des événements suit bien une distribution de Poisson avant d'appliquer cette carte de contrôle!

CARTE DE CONTRÔLE DES ÉVÉNEMENTS RARES (CARTE-G)

Nous avons démontré dans le chapitre de Statistique que l'espérance d'avoir R réussites avant le E-ème échec sachant que la probabilité d'avoir un échec est p était donnée par l'espérance de la loi binomiale négative:

equation   (74.223)

et nous avions obtenu pour la variance:

equation   (74.224)

Bien évidemment, si nous posons E comme étant le premier échec, l'espérance se réduit à celle de la loi géométrique:

equation et equation   (74.225)

Nous avons démontré dans le chapitre de Statistiques que l'estimateur du paramètre de la loi géométrique était donné par:

equation   (74.226)

Il vient alors:

equation   (74.227)

et:

equation   (74.228)

et donc:

equation   (74.229)

Dès lors, nous avons:

equation   (74.230)

où si LCL est négatif, nous le posons comme étant égal à zéro.

Voyons un exemple en considérant la table suivante dans Microsoft Excel 14.0.6123:

equation
Figure: 74.81 - Indicateurs correspondants aux mesures obtenues

Avec les formules suivantes:

equation
Figure: 74.82 - Formules Microsoft Excel 14.0.6123 explicites du tableau précédent

Ce qui donne sous forme graphique:

equation
Figure: 74.83 - Carte de contrôle G

Cependant, il convient de se rappeler que la loi Géométrique (ou la loi Binomiale négative) n'est pas nécessairement symétrique. Raison pour laquelle, dans la pratique, il vaut mieux utiliser la médiane pour la CL (médiane que l'on déterminera en faisant une simple simulation de la loi et en prenant la valeur la plus proche de 50%) et pour les limites de contrôle inférieure LCL et supérieure UCL utiliser des limites probabilistes avec les même simulations.

Remarque: Pour un logiciel comme Minitab, la limite de contrôle inférieure de la carte des événements rare est définie au percentile 0.0013499 de la distribution géométrique (en prenant la valeur décimale la plus proche par interpolation linéaire). La limite de contrôle supérieure est définie au percentile 0.99865 (en prenant aussi la valeur décimale la plus proche par interpolation linéaire). La ligne centrale est définie au percentile 0.5 (en prenant la valeur décimale la plus proche par interpolation linéaire).

En Savoir Plus

- La maintenance (mathématiques et méthodes), P. Lyonnet, Éditions TEC&DOC
ISBN10: 2743004193 (393 pages) - Imprimé en 2000

- Six Sigma Statistics, Issa Bass, Éditions McGraw Hill, ISBN10: 0071496467 (374 pages) - Imprimé en 2007

- Pratiquer les plans d'expérience, J. Goupy, Éditions Dunod, ISBN10: 2100042173 (551 pages) - Imprimé en 2005

- Contrôle de la qualité (MSP, Analyse des performances, Contrôle de réception), L. Jaupi, Éditions Dunod, ISBN10: 2100042645 (282 pages) - Imprimé en 2002

- Pratique industrielle des plans d'expérience, Éditions AFNOR, J. Alexis + P. Alexis,
ISBN10: 2124650386 (276 pages) - Imprimé en 1999

- Statistical Quality Control (6th edition), Éditions John Wiley & Sons, D. C. Montgomery, ISBN13: 9780470169926 (754 pages) - Imprimé en 2009

- Fault-Tolerant Systems, Éditions Morgan Kaufmann , I. Koren + C. M. Krishna, ISBN13: 9780120885251 (400 pages) - Imprimé en 2007


Haut de page

GÉNIE INDUSTRIEL (1/2)GÉNIE LOGICIEL


Like7   Dislike0
64.55% sur 100%
Notée par 22 visiteur(s)
12345
Commentaires: [0] 
 


W3C - HTMLW3C - CSS Firefox
Ce travail est dans le domaine public
2002-2017 Sciences.ch

Haut de page