Axiomes
La
probabilité d'un événement sera en quelque sorte le répondant de
la notion de fréquence d'un phénomène aléatoire, en d'autres termes,
à chaque événement on va attacher un nombre réel, appartenant à
l'intervalle [0;1], qui mesurera sa probabilité (chance) de réalisation.
Les propriétés des fréquences que l'on peut mettre en évidence lors
d'épreuves diverses nous permettent de fixer les axiomes des probabilités.
Attention! La théorie des probabilités
représente un cadre théorique dans lequel nous allons pouvoir modéliser
le domaine de l'incertain. Comme dans toute formalisation, il existe
une part de schématisation de la réalité, qui implique que les résultats
obtenus ne seront valides que dans la mesure ou cette représentation
abstraite et simplifiée de la réalité n'est pas trop éloignée de
cette dernière.
Axiomes:
Soit
un univers. On dit que l'on définit une probabilité
sur les événements de
si à tout événement
de
on associe un nombre , appelé probabilité de l'événement
, satisfaisant aux trois axiomes suivants.
I.
Pour tout événement ,
la
probabilité de tout événement est un nombre positif
II.
la
probabilité de l'événement certain est égale à 1
III.
Si ,
alors la
probabilité de la réunion de deux événements incompatibles est égale
à la somme de leurs probabilités.
Si on a on
dit que
et
sont mutuellement exclusifs.
Des
trois axiomes énoncés ci-dessus, on déduit les théorèmes suivants:
THEOREMES
Théorème
1:
Démonstration:
et
donc
en vertu de l'axiome III:
Théorème
2:
Démonstration
immédiate en remplaçant par
dans le théorème 1
ci-dessus
Théorème
3:
Démonstration
immédiate en remplaçant
par
dans le théorème 1.
Théorème
4:
Il
en découle:
Soit une
séquence d'événements indépendants pour
.
Alors:
Soit U un univers comportant
un nombre fini n d'issues possibles: .
Les événements sont
appelés événements élémentaires. Lorsque ces événements ont même
probabilité, on dit qu'ils sont équiprobables. Dans ce cas, il est
très facile de calculer leur probabilité. En effet, ces événements
étant par définition indépendants entre eux on à en vertu de l'axiome
III des probabilités:

mais puisque et
que les probabilités du membre de droite sont par hypothèse équiprobables,
on a:

Soit
un événement et
un autre événement indépendant de l'événement A (on parle
alors d'événement "sans-mémoire"). On a:
Cette
relation est une conséquence logique de l'utilisation des cardinaux
vus dans la théorie des ensembles !
Soient deux évènements
et
réalisés respectivement
et
fois au cours
de
épreuves. On a donc:
et
Si de plus
et
sont
réalisés simultanément
fois, on a:
Que peut-on déduire sur la probabilité
de l'évènement
sachant que l'évènement
est réalisé?
Cette probabilité est appelée probabilité conditionnelle de
sachant
et se note .
Dans notre cas, on a:
ou
Nous voulons définir
la probabilité d'un événement conditionnellement à un autre événement.
Historiquement, le premier mathématicien à avoir utilisé correctement
la notion de probabilité conditionnelle fut Thomas Bayes (1702-1761).
Aussi parle-t-on souvent de Bayes ou de bayésien dès que des probabilités
conditionnelles sont en jeu: formule de Bayes, statistique bayésienne…
La notion de probabilité
conditionnelle que nous allons introduire est beaucoup moins simple
qu'elle ne paraît a priori et les problèmes de conditionnement sont
un source inépuisable d'erreurs en tout genre. A titre d'illustration,
on pourra méditer la petite histoire suivante:
Il est extrêmement
improbable que deux personnes ayant chacune une bombe prennent le
même avion. Quelle est alors la meilleure façon d'éviter d'avoir
une bombe dans son avion? Réponse: il faut se munir d'une bombe
puisque la probabilité qu'il y ait une deuxième bombe sachant qu'il
y en a déjà une est extrêmement faible…
Revenons à des considérations
plus mathématiques.
Supposons que l'on ait deux dès. Imaginons maintenant que nous ayons
lancé seulement le premier dé. Nous voulons savoir quelle est la probabilité
qu'en lançant le second dé, la somme des deux chiffres vaille 12.
Ainsi, la probabilité d'obtenir 12 sachant la valeur du premier dé
est totalement différente de la probabilité d'obtenir 12 en lançant
les deux dès. Comment calculer cette nouvelle probabilité? Prenons
le problème dans l'autre sens. Supposons que le résultat du premier
dé soit 6. Un argument empirique du type "règle de trois"
(voir mathématiques financières) nous dirait (imagination) que la
probabilité que la somme des chiffres des deux dès vaille 8 ou 9 sera
le double de la probabilité que la somme des chiffres vaille 7. Formalisons
la démarche. Après le lancer du premier dé, nous avons une nouvelle
loi qui tient compte de l'information supplémentaire:
Notons cette nouvelle loi .
Comment la déterminer? Deux solutions sont envisageables :
1.
soit on remodèlise
notre problème
2.
soit on calcule
à
partir de la probabilité
initiale. Nous allons choisir la
deuxième solution. Soit .
En généralisant l'argument "règle de trois", nous pressentons
que doit
être proportionnel à ,
la constant de proportionnalité étant déterminée par la normalisation
.
Soit maintenant (
est inclus dans le complémentaire de ). Il est assez
intuitif que .
Ceci nous mène aux définitions suivantes:
et 
Le
nombre
s'appelle "probabilité conditionnelle
de
sachant ". Attention: la notation
est quelque peu dangereuse. En effet,
n'est pas un événement!
ANALYSE
COMBINATOIRE
Définitions : "L'analyse
combinatoire" est le domaine de la mathématique qui s'occupe
de l'étude de l'ensemble des issues ou arrangements (combinaisons)
ordonnés ou non possibles d'événements ou faits (distinguables ou non tous
distinguables) possibles selon certaines contraintes données.
Propriétés :
P1. Une suite d'objets
(événements, issues,...) est dite "ordonnée" si chaque
suite composée d'un ordre particulier des objets est compatbilisé
comme une configuration particulière.
Corollaire : une suite
est non ordonnée si et seulement si nous intéresse la fréquence
d'apparition des objets indépendamment de leur ordre.
P2. Des objets (d'une
suite) sont dits "distincts" si leurs charactéristiques
ne permettent pas de les confondre avec des autres objets.
Remarque
: nous avons choisi de mettre l'analyse combinatoire dans ce
chapitre car lorsque nous calculons des
probabilités, nous avons également assez souvent besoin de savoir quelle est la probabilité
de tomber sur une combinaison ou un arrangement d'événements donnés
sous certaines contraintes (le Loto par exemple..).
Il existe plusieurs types
d'arrangements selons les contraintes et les propriétés des
éléments arrangés. Nous allons présenter et démontrer
ci-dessous les 5 cas les plus répandus à partir desquels nous
pouvons trouver (habituellement) tous les autres :
ARRANGEMENTS
AVEC RÉPÉTITION
Définition :
Un "arrangement avec répétition" est une suite ordonnée
de longueur de
objets distincts non
nécessairement tous différents dans la suite (avec répétition).
Soient et
deux
ensembles finis de cardinaux respectifs
tels que trivialement il y ait façons
de choisir un objet dans (de
type )
et façons
de choisir un objet dans (de
type ).
Nous avons vu
en théorie des ensemble que si et
sont
disjoints, que .
Nous en déduisons donc les propriété suivantes :
Propriétés :
P1. Si un objet
ne peut être à la fois de type et
de type et
s'il y a façons
de choisir un objet de type et
façons
de choisir un objet de type ,
alors il y a façons
de choisir un objet de type ou
de type .
P2. Si nous
pouvons choisir un objet de type de
façons
puis un objet de type de
façons,
alors il y a (produit cartésien de deux ensembles – voir théorie
des ensembles) :

de choisir un
seul et unique objet de type puis
un objet de type .
Avec les mêmes
notations, choisir une fonction de dans
,
c'est choisir (dans le cas général) pour chaque élément de ,
son unique image parmi les éléments
de .
Il y a donc façons
de choisir l'image du
premier élément de
,
puis aussi façons
de choisir l'image
du deuxième, …, puis façons
de choisir l'image
du -ième.
Le nombre d'applications totales possibles de dans
est
donc égal au produit de égaux
à .
Ainsi, nous avons :
où est
l'ensemble des applications de dans
.
Corollaire (important)
: il est intéressant de faire l'observation qu'à toute suite d'éléments de composé
d'éléments de tel
que nous
pouvons faire aussi une correspondance du type .
Ce corollaire nous amène à assimiler ce résultat mathématique
au résultat ordonné (un arrangement
dont l'ordre des éléments de la suite est pris en compte) de
tirages
dans un sac contenant boules
différentes avec remise après chaque tirage.
Exemple
: Combien de "mots" (ordonnés) de 7 lettres pouvons nous
former à partir d'un alphabet de 24 lettres distinctes ?

Une généralisation simple de ce
dernier résultat peut consister dans l'énoncé du problème
suivant :
Soit une suite non-ordonnée de objets
non
nécessairement distincts, chaque objet peut
prendre un nombre fini d'états avec
.
Alors nous avons par combinaisons :

Remarque : si nous avons et
et
que tout sous-ensemble d'objets est identique nous retombons sur .
PERMUTATIONS
SIMPLES
Définition : une "permutation simple" de
objets distincts est une suite ordonnée de ces
objets par définition tous différents dans la suite (sans
répétition).
Le nombre d'arrangements de
éléments peut être calculé par récurrence : il y a
places
pour un premier élément, pour
un deuxième élément,…, et il ne restera qu'une place pour le dernier
élément restant.
Il est dès lors trivial que nous aurons un nombre
d'arrangements donné par :

Rappelons que la série :
est appelé "factorielle
de "
et on que nous la notons
pour .
Il y a donc pour
éléments distinguables :

arrangements possibles.
Exemple
: Combien de "mots" (ordonnés) de 7
lettres distinctes pouvons nous former ?

Ce
résultat nous amène à l'assimiler au résultat ordonné (un
arrangement dont
l'ordre des éléments de la suite est pris en compte)
du tirage de toutes les boules d'un sac contenant boules
distinguables sans remise.
PERMUTATIONS
AVEC RÉPÉTITION
Définition : lorsque nous considérons le nombre de permutations
ordonnées (différentes) d'une suite de objets
distincts tous nécessairement non différents dans la suite nous parlons de
"permutation avec répétition".
Remarque : il ne faut pas confondre
cette dernière définition avec "l'arrangement avec répétition"
qui est une suite
ordonnée de longueur
de
objets distincts non nécessairement
tous différents la suite.
Lorsque certains éléments éléments ne sont pas
distinguables dans une suite d'objets (ils sont répétitifs dans
la suite),
alors le nombre d'arrangements (permutations) que nous pouvons constituer se
réduit alors trivialement à un nombre plus petit que si tous les éléments
étaient distinguables.
Si nous notons :
avec

le
nombre d'arrangements possibles (pour l'instant inconnu) avec
répétition (un ou plusieurs éléments répétitifs dans une suite
d'éléments sont non distinguables par permutation), alors si chacune
des places
occupées par des éléments identiques était occupée par des éléments
diffèrents, le nombre de permutations serait alors à multiplier par
chacun des (cas
précédent).
Il vient alors que nous retombons sur
la factorielle telle que :

alors:

Remarque
: si les objets
sont tous différentes dans la suite, nous avons alors :

et
nous nous retrouvons bien avec une permutation
simple tel que :

Exemple
: combien de "mots" (ordonnés) pouvons-nous former avec les lettres
du mot "mississippi" :

Ce
résultat nous amène à l'assimiler au résultat ordonné (un
arrangement dont
l'ordre des éléments de la suite est pris en compte)
du tirage de boules
non tous distinguables d'un sac contenant
boules avec remise
limitée pour chaque boule.
Propriété : quelques soient
les éléments dans la suite
analysée chacun des éléments peut donc apparaître et nous avons donc
(voire le chapitre traitant des suites et séries
dans la section d'algèbre) :
ARRANGEMENTS
SIMPLES SANS RÉPÉTITION
Définition : un "arrangement simple sans répétition"
est une suite ordonnée de
objets (tous différents dans la suite) pris parmi objets
distincts avec .
Nous
nous proposons maintenant de dénombrer les
arrangements possibles de
objets parmi .
Nous noterons
le
nombre des ces arrangements. Il est aisé de calculer et
de vérifier que ;
il existe en effet
façons de choisir le premier objet et
façons
de choisir le deuxième lorsque nous avons déjà le premier. Pour déterminer
,
nous raisonnons alors par récurrence.
Nous supposons connu
et nous en déduisons :

Dès lors:

alors:

d'où :

Ce
résultat nous amène à l'assimiler au résultat ordonné (un
arrangement dont
l'ordre des éléments de la suite est pris en compte)
du tirage de
boules d'un
sac contenant boules
différentes sans remise.
Exemple
: soit les 24 lettres de l'alphabet, combien de "mots"
(ordonnés) de 7
lettres distinctes pouvons nous former ?

Remarque : si nous prenons nous
nous retrouvons bien avec :

Une permutation simple est donc un
arrangement simple sans répétition avec .
COMBINAISONS
SIMPLES
Définition : une "combinaison
simple" est une suite non-ordonnée de
éléments tous différents choisis parmi
objects distincts et est par définition notée et
appelée "la binômiale".
Si nous permutons les éléments de chaque arrangement simple
de
éléments, nous obtenons toutes les permutations simples et nous savons qu'il y en a d'où :

Remarque
(triviale) : nous avons nécessairement par définition 
Exemple
: soit un alphabet de 24 lettres, combien avons nous de choix de
prendre 7 lettres parmi les 24 sans prendre en en compte l'ordre
dans lequel sont tirées les lettres :

Ce
résultat nous amène à l'assimiler au résultat non ordonné (un
arrangement dont
l'ordre des éléments de la suite n'est pas pris en compte)
du tirage de
boules d'un
sac contenant boules
différentes sans remise.
STATISTIQUES
Définition : les statistiques sont une science qui
a pour objet le groupement méthodique des faits qui se prêtent à
une évaluation numérique d'événements qui peuvent se répéter dans
le temps suivant une loi donnée. Certains s'aiment à dire que la
statistique est la première des sciences inexactes…
Autre définition : Le
but principal de la statistique est de déterminer les caractéristiques
d'une population donnée à partir de l'étude d'une partie de cette
population, appelée échantillon.
Lorsque nous observe un événement prenant
en compte certains facteurs, il peut arriver qu'une deuxième observation
ait lieu dans des conditions qui semblent identiques. En répétant
ces mesures plusieurs fois, nous pouvons constater que les résultats
observables sont distribuées statistiquement autour d'une valeur
moyenne qui est, finalement le résultat possible le plus probable.
Dans la pratique, nous n'effectuons cependant qu'une seule mesure et
il s'agit alors de déterminer la valeur de l'erreur que l'on commet
en adoptant celle-ci comme moyenne mesurée. Cette détermination
nécessite de connaître le type de distribution statistique auquel
nous avons à faire.
Introduisons avant de continuer quelques
définitions qui vont nous être utiles pour la suite:
echantillons
Lors de l'étude statistiques d'ensembles d'informations, la
façon de sélectionner l'échantillon est aussi importante que la
manière de l'analyser. Il faut que l'échantillon soit "représentatif"
de la population. Pour cela, l'échantillonnage aléatoire est le
meilleur moyen d'y parvenir.
Définitions
:
D1. Un échantillon
aléatoire est un échantillon tiré au hasard dans lequel tous les
individus ont la même chance, ou "équiprobabilité" (et
nous insistons sur le fait que cette probabilité doit être égale),
de se retrouver dans l'échantillon.
D2. Dans le
cas contraire d'un échantillons dont les éléments n'ont pas été
pris au hasard, nous disons alors que l'échantillon est "biaisé"
(dans le cas inverse nous disons qu'il est "non-biaisé")
Remarque :
un petit échantillon représentatif est, de loin, préférable à
un grand échantillon biaisé.
En fait,
lorsque la taille des échantillons utilisés est petite, le hasard
peut donner un résultat moins bon que celui qui est biaisé. Une
autre méthode consiste alors à utiliser la technique des quotas :
Définition
: un échantillon de population respecte la proportion d'éléments
distinctifs de la population totale.
Variables
discrètes
Soit
un variable
indépendante (un élément d'un échantillon dont la propriété
est indépendante des autres éléments) qui peut
prendre les valeurs aléatoires discrètes dans
avec les probabilités respectives où,
de par l'axiomatique des probabilités:
Alors on définit "l'espérance mathématique"
de la variable
par:

Si la probabilité est donnée par
une fonction de distribution (voir les définitions de fonctions de
distribution plus bas) de la variable aléatoire, nous avons:

peut
être notée s'il
n'y pas de confusion possible.
Voici quelque propriétés
mathématiques importantes de l'espérance:

Nous en déduisons que pour
variables aléatoires ,
définies sur une même loi de distribution:
Après avoir traduit la tendance par
l'espérance, il est intéressant de traduire la dispersion (ou
"déviation standard") autour de l'espérance par un
valeur (la variance ou l'écart-type).
La variance de , notée ou
est
définie par:
L'écart-type de , noté ,
est défini par:

peut
être noté s'il
n'y pas de confusion possible.
La variance peut également s'écrire
sous la forme de la formule de Huyghens. Voyons de quoi il s'agit:
Soit X une variable aléatoire d'espérance
(valeur
constante et déterminée) et de variance (valeur
constante et déterminée), nous définissons la "variable
centrée réduite" par la relation:

et l'on démontre de façon très simple
(contactez moi si vous souhaitez que je fasse quand même la petite
démonstration) que:

Voici quelque propriétés
mathématiques importantes de la variance:

En similitude avec
les propriétés mathématiques de la variance:
ainsi,
nous retrouvons bien si que
.
Le terme est
appelé "covariance" et possède les propriétés
suivantes et l'expression:

est
appelée "forme bilinéaire de la variance" (ou forme
"multivariée").
Si la convariance est univariée, nous avons
dès lors:
Soit un
vecteur de composantes et
un
autre vecteur de composantes le
calcul de la covariance des composantes deux à deux donnent ce
que l'on appelle la "matrice des covariances" (outil très
utilisé en mathématiques financières).
Effectivement, si nous notons:
et
ce jusqu'à .
Nous pouvons dès lors écrire une matrice
sous la forme:

Cette matrice à comme propriété remarquable
que si l'on prend deux vecteur identiques et que l'on calcule les
composantes de la matrice, alors la diagonale de cette dernière
donnera les variances des composantes de vecteurs!
Souvent en statistique, il est utile
de déterminer l'écart-type de la moyenne. Voyons de quoi il
s'agit:
Soit la moyenne d'un serie de termes
déterminés chacun par la mesure de plusieurs valeurs::
alors:

et:
d'où l'écart-type de le moyenne:

Soient
et deux variables
aléatoires ayant pour covariance:

Nous pouvons démontrer que (voir
la démonstration de cette inégalité en analyse vectorielle dans
la définition du produit scalaire):

Ce qui nous donne:
Finalement on obtient une forme de
l'inégalité statistique dite de Cauchy-Schwarz :
Si les variances de
et
sont non nulles, la corrélation
entre
et
est définie par:

Quels que soient l'unité et les ordres
de grandeur, le coefficient
de corrélation est un nombre sans unité, compris entre -1
et 1. Il traduit la plus ou moins grande dépendance linéaire de
X et Y et ou, géométriquement, le plus ou moins grand
aplatissement. Un coefficient
de corrélation nul ou proche de 0 signifie qu'il n'y a pas
de relation linéaire entre les caractères.
Mais il n'entraîne aucune notion d'indépendance
plus générale.
Quand le coefficient
de corrélation est proche de 1 ou -1, les caractères sont dits fortement corrélés. Il faut prendre garde à la confusion fréquente entre
corrélation et causalité.
Que deux phénomènes soient corrélés
n'implique en aucune façon que l'un soit cause de l'autre.
Ainsi:
- si on
a affaire à une corrélation négative dite parfaite (tous les points
de mesures sont situés sur une droite de régression de pente négative).
- si on
a affaire à une corrélation négative ou positive dites imparfaites
- si la
corrélation est nulle..
- si on
a affaire à une corrélation positive dite parfaite (tous les points
de mesures sont situés sur une droite de régression de pente positive).
L'analyse de régression et de corrélation
poursuit donc deux objectifs:
1. Déterminer le degré d'association
entre les différentes variables: celui-ci est exprimé par le coefficient
de détermination, qui est le carré du coefficient de corrélation.
Le coefficient de détermination mesure la contribution d'une des
variables à l'explication de la seconde.
2. Déterminer les caractéristiques
de cette association, c'est-à-dire des paramètres et
de
la droite de régression (voir la section d'analyse numérique
du site au chapitre des algorithmes traitant de la régression
linéaire). Si l'on peut faire valablement l'hypothèse de
la stabilité du processus générateur des couples de valeurs des
deux variables, la connaissance de ces paramètres permettrait de
prédire le comportement du phénomène étudié
Dans le cas où l'on a à disposition
une série de mesures couplées, on peut estimer la valeur moyenne
et la variance des mesures par les estimateurs suivants:
et 
ainsi que le coefficient de corrélation:
Variables
continues
Si l'on étudie un variable continue
(non discrète) pouvant prendre n'importe qu'elle valeur
dans ,
alors on définit la densité de probabilité normalisée
à 1comme étant la fonction qui permet de connaître la probabilité
d'obtenir un résultat compris entre et
.
Cette densité est donnée par l'intégrale de la fonction exprimant
la probabilité d'apparition de la variable aléatoire
suivant:
où de par l'axiomatique des probabilités
, .
Evidemment on a:
représente
la probabilité
d'obtenir le résultat .
Dans ce cas et
Toute fonction de distribution de probabilité
doit satisfaire l'intégrale de normalisation dans son domaine de
définition!
La moyenne ayant été défini par la
somme pour une variable discrète, elle devient une intégrale pour
une variable continue:
et la variance s'écrit donc:
Souvent les statisticiens utilisent
les notations suivantes pour l'espérance mathématique:

et pour la variance:
Par la suite, on calculera ces différents
termes avec développements uniquement dans les cas les plus usités.
FONCTIONS
DE DISTRIBUTION
Lorsque l'on observe des phéonomènes
stochastiques, et que l'on prend note des valeurs prises par ces
derniers et que les reporte graphiquement, on observe toujours que
les différentes mesures obtenues suivent une caractéristique courbe
ou droite typique fréquemment reproductible. En théorie des nombres,
on appelles ces caractéristiques des "fonctions de distribution".
Fonction
discrète uniforme
Si nous admettons qu'il est possible
d'associer une probabilité à un événement, nous pouvons concevoir
des situations où nous pouvons supposer a priori que tous les événements
élémentaires sont équiprobables (c'est-à-dire qu'ils ont même probabilité).
On utilise alors le rapport entre le nombre de cas favorables et
le nombre de cas possibles pour calculer la probabilité de tous
les événements de l'Univers des événements . Plus généralement
si
est un ensemble fini d'événements équiprobables et
une partie de .

c'est-à-dire le nombre de cas favorables
sur le nombre de cas possibles. Cette relation est utilisable dans
le cas particulier où les événements possibles sont équiprobables
et en nombre fini.
Plus communément on peut écrire: soit
un événement pouvant avoir
issues équiprobables
possibles. Alors la probabilité d'observer l'issue
de l'événement
sera:

Ayant pour espérance (ou moyenne) :
et pour variance :
Soit un ensemble
de
événements, et un sous ensemble d'événements.
La probabilité d'observer au moins un des sous-éléments est nous
l'avons déjà démontré:
Fonction
de Bernoulli
Si l'on à affaire à un observation
binaire alors la probabilité d'un événement reste constant d'une
observation à l'autre s'il n'y a pas d'effet mémoire (autrement
dit: une somme de variables de Bernoulli, deux à deux
indépendante). On appelle
ce genre d'observations où la variable aléatoire à valeurs 0 ou
1, avec probabilité ,
respectivement, des "essais de Bernoulli".
Ainsi, une variable aléatoire suit
une fonction (ou loi) de Bernoulli si elle ne peut prendre que les
valeurs 0 ou 1, associées aux probabilités et
de
sorte que et:
L'exemple classique
d'un tel processus est le jeu de pile de face.
Si l'on considère événements
où l'on obtient
fois une des issues possibles et
l'autre suivant un certain ordre (ou arrangement), alors la probabilité
d'obtenir à nouveau le même ordre est donné par:

Relativement à ce que nous avions vu
en analyse combinatoire!
La fonction de Bernoulli ayant pour
espérance (moyenne):

puisque:
et a pour variance:
Fonction
binomiale
Si l'on revient maintenant à
notre relation de l'événement binaire dont la probabilité d'un arrangement
particulier est .
Alors la densité de probabilité d'avoir
fois l'événement
et
fois l'événement
dans n'importe
quel arrangement (ou ordre) sera donné par les différentes possibilité
d'avoir des arrangement avec
et
fois ces événements
multipliés par la
probabilité de chaque séquence d'arrangement particulière.
Le nombres d'arrangements possibles
est, nous l'avons démontré, donné par :

donc:

Ecrite autrement ceci donne la fonction
binomiale connue sous la forme:
et
parfois notée:

Nous avons bien évidemment:

L'espérance mathématique de est:
La variance de la distribution binomiale
étant:
L'écart-type étant on
a:

Fonction
hypergEomEtrique
On considère une urne contenant
boules dont
sont noires et les autres blanches. On tire
successivement, et sans les remettre dans l'urne,
boules.
Quelle est la probabilité que parmi ces
boules, il y en
ait
qui soient noires (c'est que l'on appelle communément le
"tirage sans remise")?
Les
boules peuvent être choisies
parmi les
boules de façons
(représentant le nombre de tirages différents possibles). Les
boules noires peuvent être choisies parmi les
noires de
façons.
Les boules
blanches peuvent être elles choisies de .
Il y a donc tirages
qui donnent
boules noires et boules
blanches. La probabilité recherche vaut donc:
La fonction hypergéométrique a pour
moyenne :
et pour variance :
Fonction
multinomiale
Soit muni
d'une probabilité .
On tire
fois de suite un élément de avec
la probabilité .
Quelle est la probabilité d'obtenir le nombre 1, fois
le nombre 2, fois,
sur une suite d'un tirage de
éléments (c'est ce que l'on appelle communément le "tirage
avec remise") ?
Nous avons vu en analyse, que si l'on
prend un ensemble d'événements ayant plusieurs issues, alors les
différentes combinaisons de suites que l'on peut obtenir en prenant
éléments choisis parmi
est:

Il y a donc :
façons
différentes d'obtenir fois
un
certain événement.
Il y a ensuite :
façons
différentes d'obtenir un
seconde événement puisque
dans l'ensemble de la suite, de
éléments déjà on
été tirés ce qui fait qu'il n'en reste plus sur
lesquels on peut obtenir les voulus.
Par récurrence immédiate on a alors:
combinaisons
de sortir fois
certains événements dans l'ordre donné!
La probabilité
recherchée
vaut donc:
Fonction
de Poisson
Il existe une très grande quantités
de fonctions mathématiques qui décrivent le comportement d'observations
d'événements aléatoires et indépendants et identiquement distribués.
Nous allons parcourir ces fonctions et pour les plus connues, les
étudier en détails
Pour
certains événements fort rares, la probabilité
est très
faible et tend vers zéro. Toutefois la valeur moyenne tend
vers une valeur fixe lorsque
tend vers l'infini.
Nous
partirons donc d'une distribution binomiale de moyenne que
nous supposerons finie lorsque
tend vers l'infini.
La
probabilité de
réussites lors de
épreuves vaut:

En
posant ,
cette expression peut s'écrire:
En
regroupant les termes on peut mettre la valeur de sous
la forme:

On reconnaît que, lorsque
tend vers l'infini, le deuxième facteur du produit a pour limite
.
Quant au troisième facteur, puisque
l'on s'intéresse aux petites valeurs de
(la probabilité
de réussite est très faible), sa limite pour
tendant vers
l'infini vaut 1. On obtient ainsi la loi de distribution dite de
Poisson:

Cette distribution est importante car
elle décrit beaucoup de processus dont la probabilité est petite
et constante. Elle est souvent utilisée dans la 'queing theory'
(temps d'attente), test d'acceptabilité et fiabilité, et contrôles
statistiques de qualité. Entre autres, elle s'applique aux processus
tels que: l'émission des quanta de lumière par des atomes excités,
le nombre de globules rouges observés au microscope, le nombre d'appels
arrivant à une centrale téléphonique ainsi qu'au cas qui nous concerne,
le nombre de désintégrations de noyaux atomiques. La distribution
de Poisson est valable pour presque toutes les observations faites
en physique nucléaire ou corpusculaire.
La distribution de Poisson donne la
probabilité de trouver un nombre donné d'événement en fonction d'une
variable donnée, si les événements sont indépendants et on un taux
de répétition (probabilité) constants (équiprobables).
L'espérance (moyenne) de la fonction
de distribution de Poisson est:

La variance de la fonction de distribution
de Poisson est elle donnée par:
Pour la distribution de Poisson on
a le cas particulier ou:
Les lois de distribution statistiques
sont étables en supposant la réalisation d'un nombre infini de mesures.
Il est évident que nous ne pouvons en effectuer qu'un nombre fini
. D'où la nécessité d'établir des correspondances entre
les valeurs utiles théoriques et expérimentales. Pour ces dernières
nous n'obtenons évidemment qu'une approximation dont
la validité est toutefois suffisante.
Théoriquement on a:
Dans le cas d'une distribution de Poisson
par exemple:
,
,
Expérimentalement on a:
,
,
Donc à chaque fois qu'une mesure est
faite, il s'ensuit une incertitude sur le résultat unique obtenu.
Supposons avoir compté (observé)
événements en fonction
d'une certaine variable; l'écart entre
et la moyenne sera
en moyenne .
Il est donc naturel d'écrire:
Mais comme donc
on écrira l'observation de
événement comme étant:
Fonction
de Gauss-Laplace (OU loi NOrmale)
Partons d'une distribution binomiale
et faisons tendre le nombre
d'épreuves vers l'infini.
Si
est fixé au départ, la
moyenne tend
également vers l'infini; de plus l'écart tend
également vers l'infini.
Si on veut calculer la limite de la
distribution binomiale, il s'agira donc de faire un changement d'origine
qui stabilise la moyenne, en 0 par exemple, et un changement d'unité
qui stabilise l'écart, à 1 par exemple.
Voyons tout d'abord comment varie en
fonction de
et calculons la différence:

On en conclut que est
une fonction croissante de , tant que est
positif.
Remarquons que
et que
par conséquent les deux valeurs de
voisines de la moyenne
constituent
les maxima de .
D'autre part la différence est
le taux d'accroissement de la fonction ;
il peut s'écrire sous la forme:

Si
devient grand,
l'est également, pour autant que
soit fixé et que l'on
s'intéresse aux valeurs de la fonction proches de la moyenne; les
variations de
deviennent négligeables par rapport à .
Si l'on effectue un changement de variable adéquat, la variation
de la nouvelle variable tend vers 0 et l'on est conduit à effectuer
un passage à la limite. Remplaçons
par une nouvelle variable
dont la moyenne soit 0 et telle que son écart vaille 1;
on a:

appelons l'expression
de calculée
en fonction de la nouvelle variable. Le taux d'accroissement de
vaut
alors :
et, en appliquant le résultat trouvé
précédemment, on obtient:
Après un passage à la limite pour
tendant vers l'infini, tenant compte de ce que
et
du fait que les valeurs de
considérées se trouvent au voisinage
de la moyenne ,
on obtient:
Cette équation peut encore s'écrire:

et en intégrant les deux membres de
cette égalité on obtient:
.
La fonction suivante est une des solutions
de la relation précédente:
.
La constante est déterminée par la
condition que ,
qui représente la somme de toutes les probabilités, vaut 1.On peut
montrer que :

et
on obtient donc la fonction (ou loi) de Gauss-Laplace, dite aussi
"loi normale":
En revenant aux variables non normées,
on obtient:
Cette loi régit sous des conditions
très générales, et souvent rencontrées, beaucoup de phénomènes aléatoires.
Elle est par ailleurs symétrique par rapport à la moyenne .
La signification supplémentaire de
dans
la fonction est une mesure de la largeur de la distribution tel
que :
On a la relation:
où FWHM (Full Width at Half Maximum)
est la largeur de la distribution à mi-hauteur.
La largeur de l'intervalle à une très
grande importance dans l'interprétation des incertitudes d'une mesure.
La présentation d'un résultat comme signifie
que la valeur moyenne a environ 68.3% de chance (probabilité) de
se trouver entre les limites de et
,
ou qu'elle a 95.5% de se trouver entre et
etc.
Cependant, la fonction de
distribution de Gauss-Laplace n'est pas tabulée puisqu'il faudrait
autant de table numériques que de valeurs possibles pour la moyenne
et l'écart-type. C'est pourquoi, en opérant un changement de
variable, la loi normale générale devient la "loi normale
centrée réduite" où :
- "centrée" signifie
soustraire la moyenne
(la fonction à alors pour axe de symétrie l'axe des ordonnées)
-
"réduite" signifie, diviser par l'écart-type 
Par
ce cfhangement de variable, la variable
est remplacée par la variable aléatoire centrée réduite:

Si la variable a pour moyenne
et
pour écart- type alors
la variable a
pour moyenne 0 et pour écart-type 1. On se retrouve dès lors
avec la fonction de distribution dite 'loi Normale centrée
réduite'.
Donc la relation:

s'écrit
alors plus simplement :

Fonction
Uniforme
Soient .
La fonction:

est une fonction de distribution car
elle vérifie :
La fonction uniforme a pour
espérance (moyenne) :
et
pour variance :
signifie
qu'en dehors du domaine de définition la
fonction de distribution est nulle. On retrouvera ce type de notation
dans certaines autres fonctions de distribution.
Fonction
Exponentielle
Soient .
La fonction:

est une fonction de distribution car
elle vérifie :
La fonction exponentielle a pour
espérance (moyenne)
:
et
pour variance :
Fonction
de Cauchy
La fonction:

est une fonction de distribution car
elle vérifie :

La fonction de Cauchy a pour
espérance (moyenne) :
et
pour variance :

Fonction
bêta
On
définit la fonction gamma d'Euler comme étant la relation (voir le
chapitre de calcul différentiel et intégral dans la section
d'algèbre) :

pour
.
On peut démontrer que la fonction ainsi définie est bien définie,
c'est à dire l'intégrale existe, pour
.
Une propriété de la fonction gamma est que (on
la démontre en intégrant par parties).
De
plus on démontre que :

Où
.
En
faisant le changement de variables :

nous
obtenons :

pour
l'intégrale interne nous utilisons la substitution et
nous trouvons :

La
fonction
qui apparaît dans l'expression ci-dessus est appelée
"fonction bêta" et nous avons donc :

Pour
,
considérons maintenant la fonction de distribution :

où
:

qui
est égal à une constante si nous fixon .
On
vérifie que est
une fonction de distribution :

La
fonction beta a pour espérance (moyenne) :

et
pour variance :

En
sachant que et
que on
trouve :

et
donc :

Fonction
gamma
Pour
la définition de la fonction gamma voir ci-dessus.
Pour
on
considère la fonction de distribution :

En
faisant le changement de variables on
obtient :

et donc :

et
on vérifie avec un raisonnement similaire en tout point celui de
fonction bêta que est
une fonction de distribution :

La
fonction gamme a pour espérance (moyenne) :

et
pour variance :
Fonction
de Khi-Deux
On
considère la fonction de distribution gamma dans le cas particulier
où et
,
avec entier
positif :

Tous
les calculs faits auparavant s’appliquent et on a :
Loi
de Student
La loi de Student est donnée par :
est une fonction de distribution car
elle vérifie également :

C'est une fonction intéressant car
son espérance (moyenne) vaut :
et
sa variance :
LOI
de benford
En 1938,
un mathématicien du nom de Franck Benford fait une constatation
curieuse. Dans la bibliothèque de l'université, il remarque que
les premières pages des tables de logarithmes sont nettement plus
usées que les dernières.
Seule explication
possible : on a plus souvent besoin d'extraire le logarithme
de chiffres commençant par 1 que de chiffres commençant par 9, ce
qui implique que les premiers sont "plus nombreux" que
les seconds.
Bien que
cette idée lui paraisse tout à fait invraisemblable, Benford entreprend
de vérifier son hypothèse. Rien de plus simple : il se procure
des tables de valeurs numériques, et calcule le pourcentage d'apparition
du chiffre le plus à gauche. Les résultats qu'il obtient confirment
son intuition:
Chiffe
initial |
Probabilité
d'apparition |
1 |
30,1
% |
2 |
17,6
% |
3 |
12,5
% |
4 |
9,7
% |
5 |
7,9
% |
6 |
6,7
% |
7 |
5,8
% |
8 |
5,1
% |
9 |
4,6
% |
A
partir de ces données, Benford trouve expérimentalement que la probabilité
O qu'un nombre commence par le chiffre n (excepté
0) est:

Il convient
de préciser que cette loi ne s'applique qu'à des listes de valeurs
"naturelles", c'est-à-dire à des chiffres ayant une signification
physique. Elle ne fonctionne évidemment pas sur une liste de chiffres
tirés au hasard.
La loi de
Benford a été testée sur toute sorte de table : longueur des
fleuves du globe, superficie des pays, résultat des élections, liste
des prix de l'épicerie du coin... Elle se vérifie à tous les coups.
Elle est
évidemment indépendante de l'unité choisie. Si l'on prend par exemple
la liste des prix d'un supermarché, elle fonctionne aussi bien avec
les valeurs exprimées en Francs qu'avec les mêmes prix convertis
en Euros.
Cet étrange
phénomène est resté peu étudié et inexpliqué jusqu'à une époque
assez récente. Puis une démonstration générale en a été donnée en
1996, qui fait appel au théorème de la limite centrale.
Aussi surprenant
que cela puisse paraître, cette loi a trouvé une application :
le fisc l'utilise aux Etats-Unis pour détecter les fausses déclarations.
Le principe est basé sur la restriction vue plus haut : la
loi de Benford ne s'applique que sur des valeurs ayant une signification
physique.
S'il
existe une distribution de probabilité universelle sur
de tels nombres, ils doivent êtres invariants sous un changement
d'échelle tel que:

Si:

alors:

et la normalisation
de la distribution donne:

si l'on dérive
par
rapport à k et que l'on pose on
obtient:

en posant
finalement .
On a:

Cette équation
différentielle a pour solution:

Cette fonction,
n'est pas en premier lieu à proprement parler une fonction de distribution
de probabilité (elle diverge) et deuxièment, les lois de la physique
et humaine imposent des limites.
On doit donc
comparer cette distribution par rapport à une référence arbitraire.
Ainsi, si le nombre décimal étudié contient plusieurs puissance
de 10 (10 au total: 0,1,2,3,4,5,6,7,9) la probabilité que le premier
chiffre non nul (décimal) soit D est donné par la distribution
logarithmique:

Les bornes
de l'intégrale sont de 1 à 10 puisque la valeur nulle est interdite.
L'intégrale
du dénominateur donne:

L'intégrale
du numérateur donne:

Ce qui nous
donne finalement:

De par les
propriétés des logarithmes (voir le chapitre d'analyse fonctionelle
dans la section d'algèbre du site) on a:

Cependant,
la loi de Benford ne s'applique pas uniquement aux données invariantes
par changement d'échelle mais également à des nombres de provenant
de sources quelconques. Expliquer ce cas implique une investigation
plus rigoureuse en utilisant le théorème de la limite centrale.
Cette démonstration a été effectuée seulement en 1996 par T. Hill
par une approche utilisant la distribution des distributions.
Estimateurs
Soit un
ensemble dénombrable. On suppose que l'on dispose d'observations
qui
sont des réalisations de variable aléatoire indépendantes et identiquement
distribuées de
loi de probabilité inconnue. On va chercher à estimer cette loi
de probabilité inconnue à partir des observations .
Nous n'allons pas chercher cette loi dans l'ensemble de toutes les
probabilités possibles sur .
Nous allons au contraire supposer que
nous possédons une connaissance a priori sur cette loi de probabilité.
Nous allons supposer qu'il existe une partie telle
qu'à chaque ,
on puisse associer une probabilité sur
et
telle que la probabilité inconnue puisse s'écrire avec
.
Supposons que l'on procède par tâtonnement
pour estimer la loi de probabilité inconnue .
On essaye une probabilité arbitraire et
l'on veut savoir si ce choix est raisonnable ou loufoque. Une manière
de procéder est de se demander si les observations avaient
une probabilité élevée ou non de sortir avec cette probabilité arbitraire.
Nous devons pour cela calculer la probabilité
qu'avaient les observations de
sortir avec .
Cette probabilité vaut ,
en notant P la loi de probabilité associée à .
Il serait alors particulièrement maladroit de choisir comme estimateur
de une
probabilité telle
que la quantité soit
faible. Au contraire, on va chercher la probabilité qui
maximise ,
c'est-à-dire qui rende les observations le
plus vraisemblable possible.
Nous somme donc à chercher le (ou les)
paramètre
qui maximise(nt) la quantité:

Cette quantité porte le nom de vraisemblance.
C'est une fonction du paramètre et
des observations .
La ou les valeurs du paramètre qui
maximisent la vraisemblance sont
appelés estimateurs du maximum de vraisemblance.
Faisons quand même un petit exemple
avec les fonction de distribution de Gauss-Laplace:
Soit un
n-échantillon de variables aléatoires gaussiennes d'espérance
et
de variance .
Quel est l'estimateur de maximum de vraisemblance de ?
Le paramètre est
ici .
L'ensemble des paramètres possibles est .
La densité d'une variable aléatoire gaussienne est donnée par:
Nous avons donc bien un modèle statistique
dominé. La vraisemblance est donnée par:
Maximiser une fonction ou maximiser
son logarithme est équivalent donc:

Fixons d'abord l'écart-type. Pour
cela, dérivons
par rapport à et
regardons pour quelle valeur de la moyenne la fonction s'annule. Il
nous reste:

Ainsi :

Fixons maintenant la moyenne. L'annulation
de la dérivée de en
conduit
à :
Ce
qui nous permet d'écrire :

Cependant, nous n'avons pas encore défini ce qu'était
un bon estimateur. Il
nous faut néanmoins préciser dès à présent qu'un estimateur biaisé
peut très bien être un bon estimateur, alors qu'un estimateur sans
biais pourra se révéler être un mauvais estimateur. On entend par
là:
- Si un estimateur ,
vérifie ,
on dit que cet estimateur est sans biais (il correspond au paramètre
réel)
- Si un estimateur ,
vérifie ,
on dit que cet estimateur est biaisé
Par exemple de l'exemple précédent
la moyenne est biaisée mais qu'en est-il de la variance. Or, nous
avons :
L'estimateur de la variance est biaisé.
On remarquera au passage qu'un estimateur du maximum de vraisemblance
peut être biaisé. On notera également que la différence l'estimateur
tend vers un estimateur sans biais lorsque le nombre d'essais tend
vers l'infini .
On dit alors qu'on a un estimateur asymptotiquement non biaisé.
Un estimateur est dit consistant s'il
converge en probabilité, lorsque ,
vers la vraie valeur du paramètre.
De par les propriétés de l'espérance
on a:
On a donc:
et

deux relations que l'on retrouve souvent
dans les tables.
Tests
d'adéquation
Dans cette partie, on suppose que la
loi de probabilité de la variable aléatoire , dont on dispose
d'un échantillon, est inconnue. Une première remarque s'impose:
les tests d'adéquation ne permettent pas de trouver la loi d'une
variable aléatoire mais seulement d'accepter ou de rejeter une hypothèse
simple émise à priori.
Ainsi, il est nécessaire de faire une
étude sommaire préalable de l'échantillon afin de formuler des hypothèses
plausibles quant à la loi de probabilité de : la variable
aléatoire
est-elle discrète ou continue? Est-elle définie
pour tout x, ou seulement pour x > 0? L'histogramme
en fréquence obtenu est-il symétrique par rapport à la valeur moyenne?
Existe-t-il une relation simple entre moyenne estimée et variance
estimée? Les réponses à ces différentes questions, de même que la
nature de la variable représentée par
permettent dans la
plupart des cas d'émettre une hypothèse plausible.
Soit
un
échantillon de
réalisations indépendantes de la variable
aléatoire. . Soit la
loi de distribution inconnue de . L'hypothèse de départ
sera que la loi de distribution est .
Ceci permet de formuler les hypothèses:
Les
paramètres de seront
soient connus soit estimés.
A
partir de l'échantillon, on construit un histogramme en fréquence
de k classes .
On note le
nombre d'observations de
faites dans la classe (avec
bien sûr ).
Si
la variable aléatoire suit bien la loi alors
l'effectif théorique de
la classe est
donné par: où
est
la probabilité pour que la variable aléatoire
suivant la
loi prenne
une valeur sur le domaine définissant la classe
L'écart
entre la réalité issue de l'échantillon et la théorie issue de l'hypothèse
est
mesurée par l'indicateur:
Sous
l'hypothèse ,
on peut considérer que l'écart entre
distribution théorique et distribution empirique est distribué normalement.
Dans
ces conditions,
tend vers la loi du à
degrés de liberté où:
k
= (Nbr. de
classes) - 1 – Nbr. de paramètres nécessaires à la spécification
complète de |
La
région d'acceptation du test est l'intervalle tel
que la probabilité d'une variable du à
degrés de liberté prenne une valeur dans cet intervalle
soit égale à (étant
l'erreur de première espèce relative au test).
Si
la valeur de l'indicateur est supérieure à, alors on décide l'hypothèse
.
Il
n'est guère possible de déterminer l'erreur de deuxième espèce (et
donc la puissance du test), la loi de probabilité de
n'étant
pas spécifiée sous l'hypothèse .
On ne peut donc pas déterminer la loi de probabilité de l'indicateur
sous cette hypothèse.
Pour
que la loi (sous l'hypothèse )
de l'indicateur d'écart tende effectivement vers une loi du ,
il est nécessaire que l'effectif d'une classe soit
en pratique supérieur à 5. Dans le cas contraire, il faudra procéder
à un regroupement des classes jusqu'à ce que cette contrainte soit
satisfaite.
CONTROLE
DE QUALITE
On
renonce souvent à un contrôle à 100% à cause du prix. On procède
à une prise d'échantillons. Ceux-ci doivent être présentés, c'est-à-dire
quelconque et d'égales chances. But de la prise d'échantillons:
information de la probabilité du taux de défaillances réel du lot
complet sur la base des défaillances constatées sur l'échantillonnage.
Exemple:
Cette probabilité
du taux de défaillance réelle se calcule comme suit si, lors d'un
échantillonnage de n pièces parmi un lot total de
pièces, on trouve exactement
défectueuses et si p
désigne la probabilité d'une pièce défectueuse et le
nombre de pièces défectueuses de lot .
Nous avons donc
5 informations:
étant l'échantillon de pièces
le nombre total de pièces
le nombre de pièces défectueuses sur l'échantillon
p
la probabilité de défectuosité d'une pièce
le
nombre de pièces défectueuses du lot
On
considère un lot de pièces contenant
pièces dont m
sont défectueuses et les autres parfaites. On tire successivement,
et sans les remettre dans le lot, p pièces. Quelle est la
probabilité que parmi ces p pièces, il y en ait
qui soient défectueuses?
Nous avons déjà
vu que la loi qui s'applique dans ce contexte est la loi géométrique
donnée par (nous l'avons démontré):
qui donne donc
la probabilité que
pièces défectueuses parmi l'échantillon
de p pièces.
Mais dans notre
cas nous avons:
car
identiquement au fait que représente
le nombre de pièces non défectueuses parmi les p pièces tirées
uniquement, dans notre problème représente
lui aussi le nombre de pièces non défectueuses mais dans le lot
total
car c'est relativement à la totalité que l'on souhaite
faire une comparaison.
Corollaire:
,
Nous
avons également dans notre contrôle de qualité à poser que:
car
identiquement au fait que représente
le nombre de pièces non défectueuses dans le lot total ,
au contraire dans notre problème d'origine comme on inverse l'objectif
nous allons nous intéresser
aux pièces non défectueuses sur l'échantillon
qui a été
pris au hasard (pour l'instant tout est une question de mis en rapport
logique).
Corollaire:
,
On
a donc finalement:
qui
donne la probabilité d'avoir
pièces défectueuses dans un
échantillon de
pièces prises à partir d'un lot total de
pièces.
Ce
qui nous intéresse est une tolérance maximale, nous n'allons donc
non plus calculer la simple probabilité de tomber sur
pièces
défectueuses, mais la probabilité cumulée (maximale!) qui se calcule
dans ce cas particulier comme:
Exemple:
Dans un lot de vis,
on admet au maximum ,
c'est-à-dire: pièces
défectueuses. On procède à un échantillonnage de vis.
Combien peut-on accepter de vis défectueuses
dans cet échantillonnage si l'on impose que:
Le calcul montre
que l'on peut tolérer au pire qu'une pièce soit défectueuse.
Courbe
d'efficacité
Dans le même contexte
que précédemment, on définit la probabilité d'acceptation
où est
défini comme le risque du producteur et c le nombre de pièces
défectueuses dans l'échantillon comme précédemment:
On
peut calculer les différentes courbes d'efficacité en
fonction du pourcentage de défectueux p du lot avec par exemple
en admettant un distribution de type Poisonienne. On distingue alors
2 types:
VALEURS
DE NIVEAU DE QUALITE ACCEPTABLE (N.Q.A)
Après discussions,
le producteur et le client fixe un point important de la courbe
d'efficacité: la valeur NQA. Cette valeur indique le pourcentage
défectueux en
% d'un lot pour que le lot ait une chance d'être accepté lors d'un
contrôle par échantillonnage avec une probabilité usuelle de 90%
(car ,
est dans ce cas .
Ceci signifie que, sur la courbe d'efficacité de premier type (celle
de gauche ci-dessus), on ait au plus défectueux
dans un échantillon de taille n. Afin de limiter les retours,
le fournisseur maintien sa qualité (pourcentage de défectueux du
lot) en dessous de la valeur NQA garantie; par ex. à (voir
figure ci-dessous) où seulement défectueux
sont admis resp. si la probabilité d'acceptation est 99%. En pratique,
on admet souvent un valeur NQA avec
Moyennes
La
notion de moyenne nous semble très familière et nous en parlons
beaucoup sans nous poser trop de questions. Pourtant il existe divers
qualificatifs (nous insistons sur le fait que ce ne sont que des qualificatifs)
pour distinguer la forme de la résolution d'un problème consistant
à calculer la moyenne. Il faut être très très prudent quand
aux calculs des moyennes car nous avons une fâcheuse tendance à
nous précipiter et à utiliser systématiquement la moyenne
arithmétique
sans réfléchir, ce qui peut amener à de graves erreurs !
Soit
des nombres
réels, nous avons par définition :
D1.
Moyenne arithmétique (triviale) :
D2.
La "médiane" ou "moyenne milieu" (triviale)
:
Soit une suite de valeurs ordonnées ,
la "médiane" est par définition :
1. la valeur milieu qui coupe la
suite en deux parties de cardinaux égaux si est
impair
2. la moyenne arithmétique des deux
valeurs directement
voisines de l'élément
Rappel
: est
la partie entière d'un valeur donnéeD3.
Moyenne
quadratique :
peu
connue et de faible intérêt mais découle souvent de raisonnement simples dont voici un
exemple:
Soit un carré de côté
,
et un autre carré de côté .
La somme des aires des deux carrés est égale à :

Nous pouvons généraliser
à un nombre plus grand de carrés :
Au fait, cette
moyenne à peu d'intérêt et elle peut être généralisée aussi
à des formes de dimensions plus élevées selon la relation donnée
dans la définition.
De
plus, et cette moyenne à d'autant moins d'intérêt qu'il suffit de
poser et
pour
retomber sur un moyenne arithmétique simple.
D4.
Moyenne harmonique (triviale) :
peu
connue mais découle souvent de raisonnements simples et pertinents dont voici un
exemple :
Soit une distance
parcourue dans un sens à
la vitesse et
dans l'autre (ou pas) à la vitesse .
La vitesse moyenne s'obtiendra en divisant la distance totale par
le temps mis à la parcourir:

Si
nous calculons le temps mis lorsqu'on parcourt
avec une
vitesse c'est
tout simplement le quotient:

Le temps total vaut donc:

La
vitesse moyenne sera donc bien du type harmonique :

D5. Moyenne
géométrique :

peu
connue et assez peu rencontrée (mais connue dans le domaine de l'économétrie surtout quand
nous étudierons le rendement géométrique moyen), voyons un exemple de cette moyenne:
Supposons qu'une banque offre une possibilité
de placement et prévoit pour la première année un intérêt
(c'est absurde mais c'est un exemple) de
,
mais pour la deuxième année un intérêt de Au
même moment une autre banque offre un intérêt constant pour deux
ans: . C'est pareil,
dirons-nous un peu rapidement. En fait les
deux placements n'ont pas la même rentabilité.
Dans
la première banque, un capital deviendra
au bout de la première année:
et
la seconde année:

Dans
l'autre banque nous aurons au bout d'un an:

et
après la seconde année:
etc...
Comme
vous pouvez le voir le placement ne sera pas identique si contrairement
à ce que vous auriez pu penser au début.
Donc
n'est
donc pas la moyenne de et
.
Posons
maintenant:
et

Quelle
est en fait la valeur moyenne ?
Au
bout de deux ans le capital est multiplié par .
Si la moyenne vaut il
sera alors multiplié par .
Nous avons donc la relation:

C'est
un exemple d'application où nous retrouvons donc la moyenne
géométrique.
D6.
Moyenne
mobile ou moyenne glissante :
La "moyenne
mobile" ou "moyenne glissante" est définie par la
relation:

lorsque la moyenne
est dite "simple", et par la relation :
lorsque la moyenne
est dite "pondérée".
Les moyennes
mobiles sont particulièrement utilisées en économique, où elles
permettent de représenter un courbe de tendance de moyenne mobile
d'un série de valeurs, dont le nombre de points est
égal au nombre total de points de la série de valeurs moins le
nombre que vous spécifiez pour la période.
Une Moyenne Mobile ()
est une courbe calculée à partir des moyennes des cours d'une
valeur, sur une période donnée: chaque point d'une moyenne mobile
sur 100 séances est la moyenne des 100 derniers cours de la valeur
considérée.
Cette courbe, affichée simultanément avec la
courbe d'évolution des cours de la valeur, permet de lisser les
variations journalières de la valeur, et de dégager une tendance
haussière si la moyenne mobile est croissante avec les cours de la
valeur situés au dessus de la Moyenne Mobile et baissière si la moyenne mobile est décroissante avec les cours de
la valeur situés au dessous de la moyenne mobile
Les
moyennes
mobiles peuvent être calculées sur différentes périodes, ce qui
permet de dégager des tendances à court terme (20 séances selon
les habitudes de la branche), moyen terme (50-100 séances) ou long
terme (plus de 200 séances).

Les croisements des
moyennes mobiles par la courbe des cours de la valeur génèrent des
signaux d'achat ou de vente selon les professionnels suivant le cas:
- signal d'achat: lorsque
la courbe des cours franchit la MM vers le haut sur de bons volumes
de transactions et que la MM sert de support à la courbe des cours.
-
signal de vente: lorsque la courbe des cours franchit la MM vers le
bas et que la MM sert de résistance à la courbe des cours.
Propriétés
des moyennes :
Un simple calcul pour avec
permet
de le vérifier) :
|