Page en cours de chargement
  ACCUEIL | TELECHARGER | ANNONCES | FORUM | CHAT | LIVRE D'OR | PARTENAIRES | CONTACT | A PROPOS
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
3 connectés

recevoir les news :: signaler une erreur :: statistiques visiteurs :: imprimer

THEORIE DE LA DEMONSTRATION | NOMBRES | OPERATEURS | THEORIE DES NOMBRES | THEORIE DES ENSEMBLES | PROBABILITES ET STATISTIQUES |


PROBABILITES ET STATISTIQUES


PROBABILITES

Le calcul des probabilités s'occupe des phénomènes aléatoires (dits plus esthétiquement: "processus stochastiques"), c'est-à-dire de phénomènes qui ne mènent pas toujours à la même issue et qui peuvent êtres étudiés grâce aux nombres et à leurs conséquences et apparitions (d'où la place des probabilités dans l'arithmétique et suivant la théorie des nombres). Néanmoins, même si ces phénomènes ont des issues variées, dépendant du hasard, on observe cependant une certaine régularité statistique. Le jet d'un dé, le tirage du Loto pourraient être analysés par les lois de la mécanique, mais ce serait trop compliqué et même impossible car il faudrait parfaitement connaître les conditions initiales ce qui comme vous pouvez le voir en mécanique quantique est de toute façon impossible. La modélisation du calcul des probabilités a été inventée par A.N. Kolmogorov dans un livre paru en 1933. Cette modélisation est faite à partie de 3 objets que nous définirons rigoureusement plus loin..

On pourra critiquer aux écoles de rendre cette branche rébarbative à cause des trop nombreuses définitions qui désintéressent souvent les étudiants qui eux désirent voir plutôt le côté abstrait et formel de cette branche des mathématiques.

Univers DES ÉvÉnements

L'univers des événements (dit des "observables" aussi) est l'ensemble de toutes les issues (résultats) possibles, incompatibles deux à deux (indépendants), qui se présentent au cours d'une épreuve aléatoire déterminée.

Soit un univers et et un événement, on dit que l'événement A à lieu (se réalise) si lors du déroulement de l'épreuve se présente l'issue    et que  dans le cas contraire, on dit que n'a pas lieu.

Le sous-ensemble vide de s'appelle événement impossible. En effet, si lors de l'épreuve l'issue i se présente, on a toujours  et donc l'événement n'a donc jamais lieu.

Le sous-ensemble de s'appelle événement certain. En effet, si lors de l'épreuve l'issue i se présente, on a toujours  (car est l'univers des événements); l'événement a donc toujours lieu.

Soit et B deux sous-ensembles de ; on sait que l'événement et   sont tous deux des sous-ensembles de donc des événements. Si deux événements et sont tels que  , on dit qu'ils sont incompatibles, car ils ne peuvent avoir lieu simultanément.

 
 

Axiomes

La probabilité d'un événement sera en quelque sorte le répondant de la notion de fréquence d'un phénomène aléatoire, en d'autres termes, à chaque événement on va attacher un nombre réel, appartenant à l'intervalle [0;1], qui mesurera sa probabilité (chance) de réalisation. Les propriétés des fréquences que l'on peut mettre en évidence lors d'épreuves diverses nous permettent de fixer les axiomes des probabilités.

Attention! La théorie des probabilités représente un cadre théorique dans lequel nous allons pouvoir modéliser le domaine de l'incertain. Comme dans toute formalisation, il existe une part de schématisation de la réalité, qui implique que les résultats obtenus ne seront valides que dans la mesure ou cette représentation abstraite et simplifiée de la réalité n'est pas trop éloignée de cette dernière.

Axiomes: Soit un univers. On dit que l'on définit une probabilité sur les événements de si à tout événement de on associe un nombre , appelé probabilité de l'événement , satisfaisant aux trois axiomes suivants.

I. Pour tout événement  la probabilité de tout événement est un nombre positif

II.   la probabilité de l'événement certain est égale à 1

III. Si , alors   la probabilité de la réunion de deux événements incompatibles est égale à la somme de leurs probabilités.

Si on a  on dit que et sont mutuellement exclusifs.

Des trois axiomes énoncés ci-dessus, on déduit les théorèmes suivants:

THEOREMES

Théorème 1: 

Démonstration:  

et 

donc en vertu de l'axiome III:  

Théorème 2: 

Démonstration immédiate en remplaçant par dans le théorème 1 ci-dessus

Théorème 3: 

Démonstration immédiate en remplaçant par dans le théorème 1.

Théorème 4:   

Il en découle:

Soit  une séquence d'événements indépendants  pour . Alors:

Soit U un univers comportant un nombre fini n d'issues possibles: . Les événements sont appelés événements élémentaires. Lorsque ces événements ont même probabilité, on dit qu'ils sont équiprobables. Dans ce cas, il est très facile de calculer leur probabilité. En effet, ces événements étant par définition indépendants entre eux on à en vertu de l'axiome III des probabilités:

mais puisque  et que les probabilités du membre de droite sont par hypothèse équiprobables, on a:

Soit un événement et un autre événement indépendant de l'événement A (on parle alors d'événement "sans-mémoire"). On a:

Cette relation est une conséquence logique de l'utilisation des cardinaux vus dans la théorie des ensembles !

Soient deux évènements et réalisés respectivement et fois au cours de épreuves. On a donc:

  et

Si de plus et sont réalisés simultanément fois, on a: 

 

Que peut-on déduire sur la probabilité de l'évènement sachant que l'évènement est réalisé? Cette probabilité est appelée probabilité conditionnelle de sachant et se note . Dans notre cas, on a:

  ou

Nous voulons définir la probabilité d'un événement conditionnellement à un autre événement. Historiquement, le premier mathématicien à avoir utilisé correctement la notion de probabilité conditionnelle fut Thomas Bayes (1702-1761). Aussi parle-t-on souvent de Bayes ou de bayésien dès que des probabilités conditionnelles sont en jeu: formule de Bayes, statistique bayésienne…

La notion de probabilité conditionnelle que nous allons introduire est beaucoup moins simple qu'elle ne paraît a priori et les problèmes de conditionnement sont un source inépuisable d'erreurs en tout genre. A titre d'illustration, on pourra méditer la petite histoire suivante:

Il est extrêmement improbable que deux personnes ayant chacune une bombe prennent le même avion. Quelle est alors la meilleure façon d'éviter d'avoir une bombe dans son avion? Réponse: il faut se munir d'une bombe puisque la probabilité qu'il y ait une deuxième bombe sachant qu'il y en a déjà une est extrêmement faible…

Revenons à des considérations plus mathématiques.

Supposons que l'on ait deux dès. Imaginons maintenant que nous ayons lancé seulement le premier dé. Nous voulons savoir quelle est la probabilité qu'en lançant le second dé, la somme des deux chiffres vaille 12. Ainsi, la probabilité d'obtenir 12 sachant la valeur du premier dé est totalement différente de la probabilité d'obtenir 12 en lançant les deux dès. Comment calculer cette nouvelle probabilité? Prenons le problème dans l'autre sens. Supposons que le résultat du premier dé soit 6. Un argument empirique du type "règle de trois" (voir mathématiques financières) nous dirait (imagination) que la probabilité que la somme des chiffres des deux dès vaille 8 ou 9 sera le double de la probabilité que la somme des chiffres vaille 7. Formalisons la démarche. Après le lancer du premier dé, nous avons une nouvelle loi qui tient compte de l'information supplémentaire:

 

Notons cette nouvelle loi . Comment la déterminer? Deux solutions sont envisageables : 

1. soit on remodèlise notre problème

2. soit on calcule  

à partir de la probabilité initiale. Nous allons choisir la deuxième solution. Soit . En généralisant l'argument "règle de trois", nous pressentons que  doit être proportionnel à , la constant de proportionnalité étant déterminée par la normalisation . Soit maintenant ( est inclus dans le complémentaire de ). Il est assez intuitif que . Ceci nous mène aux définitions suivantes:

et

Le nombre s'appelle "probabilité conditionnelle de sachant ". Attention: la notation est quelque peu dangereuse. En effet, n'est pas un événement!

ANALYSE COMBINATOIRE

Définitions : "L'analyse combinatoire" est le domaine de la mathématique qui s'occupe de l'étude de l'ensemble des issues ou arrangements (combinaisons) ordonnés ou non possibles d'événements ou faits (distinguables ou non tous distinguables) possibles selon certaines contraintes données.

Propriétés :

P1. Une suite d'objets (événements, issues,...) est dite "ordonnée" si chaque suite composée d'un ordre particulier des objets est compatbilisé comme une configuration particulière.

Corollaire : une suite est non ordonnée si et seulement si nous intéresse la fréquence d'apparition des objets indépendamment de leur ordre.

P2. Des objets (d'une suite) sont dits "distincts" si leurs charactéristiques ne permettent pas de les confondre avec des autres objets.

Remarque : nous avons choisi de mettre l'analyse combinatoire dans ce chapitre car lorsque nous calculons des probabilités, nous avons également assez souvent besoin de savoir quelle est la probabilité de tomber sur une combinaison ou un arrangement d'événements donnés sous certaines contraintes (le Loto par exemple..).

Il existe plusieurs types d'arrangements selons les contraintes et les propriétés des éléments arrangés. Nous allons présenter et démontrer ci-dessous les 5 cas les plus répandus à partir desquels nous pouvons trouver (habituellement) tous les autres :

ARRANGEMENTS AVEC RÉPÉTITION

Définition : Un "arrangement avec répétition" est une suite ordonnée  de longueur de objets distincts non nécessairement tous différents dans la suite (avec répétition).

Soient  et  deux ensembles finis de cardinaux respectifs tels que trivialement il y ait  façons de choisir un objet dans  (de type ) et  façons de choisir un objet dans  (de type ).

Nous avons vu en théorie des ensemble que si  et  sont disjoints, que  . Nous en déduisons donc les propriété suivantes :

Propriétés :

P1. Si un objet ne peut être à la fois de type  et de type  et s'il y a  façons de choisir un objet de type  et  façons de choisir un objet de type , alors il y a  façons de choisir un objet de type  ou de type .

P2. Si nous pouvons choisir un objet de type  de  façons puis un objet de type  de  façons, alors il y a (produit cartésien de deux ensembles – voir théorie des ensembles)  :

de choisir un seul et unique objet de type  puis un objet de type .

Avec les mêmes notations, choisir une fonction de  dans , c'est choisir (dans le cas général) pour chaque élément de , son unique image parmi les  éléments de . Il y a donc  façons de choisir l'image  du premier élément  de , puis aussi  façons de choisir l'image du deuxième, …, puis  façons de choisir  l'image du -ième. Le nombre d'applications totales possibles de  dans  est donc égal au produit de  égaux à . Ainsi, nous avons :

 est l'ensemble des applications de  dans .

Corollaire (important) : il est intéressant de faire l'observation qu'à toute suite  d'éléments de  composé d'éléments de  tel que nous pouvons faire aussi une correspondance du type .

Ce corollaire nous amène à assimiler ce résultat mathématique au résultat ordonné (un arrangement dont l'ordre des éléments de la suite est pris en compte) de  tirages dans un sac contenant  boules différentes avec remise après chaque tirage.

Exemple : Combien de "mots" (ordonnés) de 7 lettres pouvons nous former à partir d'un alphabet de 24 lettres distinctes ?

Une généralisation simple de ce dernier résultat peut consister dans l'énoncé du problème suivant :

Soit une suite non-ordonnée de  objets  non nécessairement distincts, chaque objet  peut prendre un nombre fini d'états  avec  . Alors nous avons par combinaisons :

Remarque : si nous avons  et  et que tout sous-ensemble d'objets est identique nous retombons sur .

PERMUTATIONS SIMPLES

Définition : une "permutation simple" de objets distincts est une suite ordonnée de ces objets par définition tous différents dans la suite (sans répétition).

Le nombre d'arrangements de éléments peut être calculé par récurrence : il y a places pour un premier élément,  pour un deuxième élément,…, et il ne restera qu'une place pour le dernier élément restant.

Il est dès lors trivial que nous aurons un nombre d'arrangements donné par : 

 

Rappelons que la série : 

 

est appelé "factorielle de " et on que nous la notons pour

Il y a donc pour éléments distinguables :

arrangements possibles.

Exemple : Combien de "mots" (ordonnés) de 7 lettres distinctes pouvons nous former ?

Ce résultat nous amène à l'assimiler au résultat ordonné (un arrangement dont l'ordre des éléments de la suite est pris en compte) du tirage de toutes les boules d'un sac contenant   boules distinguables sans remise.

PERMUTATIONS AVEC RÉPÉTITION

Définition : lorsque nous considérons le nombre de permutations ordonnées (différentes) d'une suite de  objets distincts tous nécessairement non différents dans la suite nous parlons de "permutation avec répétition".

Remarque : il ne faut pas confondre cette dernière définition avec "l'arrangement avec répétition" qui est une suite ordonnée  de longueur de objets distincts non nécessairement tous différents la suite.

Lorsque certains éléments éléments ne sont pas distinguables dans une suite d'objets (ils sont répétitifs dans la suite), alors le nombre d'arrangements (permutations) que nous pouvons constituer se réduit alors trivialement à un nombre plus petit que si tous les éléments étaient distinguables.

Si nous notons :

avec

le nombre d'arrangements possibles (pour l'instant inconnu) avec répétition (un ou plusieurs éléments répétitifs dans une suite d'éléments sont non distinguables par permutation), alors si chacune des  places occupées par des éléments identiques était occupée par des éléments diffèrents, le nombre de permutations serait alors à multiplier par chacun des  (cas précédent). 

Il vient alors que nous retombons sur la factorielle telle que :

alors:

Remarque : si les objets sont tous différentes dans la suite, nous avons alors :

et nous nous retrouvons bien avec une permutation simple tel que :

Exemple : combien de "mots" (ordonnés) pouvons-nous former avec les lettres du mot "mississippi" :

Ce résultat nous amène à l'assimiler au résultat ordonné (un arrangement dont l'ordre des éléments de la suite est pris en compte) du tirage de boules non tous distinguables d'un sac contenant boules avec remise limitée pour chaque boule.

Propriété : quelques soient les éléments dans la suite analysée chacun des éléments peut donc apparaître   et nous avons donc  (voire le chapitre traitant des suites et séries dans la section d'algèbre) :

ARRANGEMENTS SIMPLES SANS RÉPÉTITION

Définition : un "arrangement simple sans répétition" est une suite ordonnée de  objets (tous différents dans la suite) pris parmi objets distincts avec .

Nous nous proposons maintenant  de dénombrer les arrangements possibles de objets parmi . Nous noterons  le nombre des ces arrangements. Il est aisé de calculer  et de vérifier que ; il existe en effet façons de choisir le premier objet et façons de choisir le deuxième lorsque nous avons déjà le premier. Pour déterminer , nous raisonnons alors par récurrence. 

Nous supposons  connu et nous en déduisons :

 

Dès lors: 

alors:

d'où :

Ce résultat nous amène à l'assimiler au résultat ordonné (un arrangement dont l'ordre des éléments de la suite est pris en compte) du tirage de boules d'un sac contenant   boules différentes sans remise.

Exemple : soit les 24 lettres de l'alphabet, combien de "mots" (ordonnés) de 7 lettres distinctes pouvons nous former ?

Remarque : si nous prenons nous nous retrouvons bien avec :

Une permutation simple est donc un arrangement simple sans répétition avec .

COMBINAISONS SIMPLES

Définition : une "combinaison simple" est une suite non-ordonnée de éléments tous différents choisis parmi objects distincts et est par définition notée et appelée "la binômiale"

Si nous permutons les éléments de chaque arrangement simple  de éléments, nous obtenons toutes les permutations simples et nous savons qu'il y en a d'où :

Remarque (triviale) : nous avons nécessairement par définition

Exemple : soit un alphabet de 24 lettres, combien avons nous de choix de prendre 7 lettres parmi les 24 sans prendre en en compte l'ordre dans lequel sont tirées les lettres :

Ce résultat nous amène à l'assimiler au résultat non ordonné (un arrangement dont l'ordre des éléments de la suite n'est pas pris en compte) du tirage de boules d'un sac contenant   boules différentes sans remise.

STATISTIQUES

Définition : les statistiques sont une science qui a pour objet le groupement méthodique des faits qui se prêtent à une évaluation numérique d'événements qui peuvent se répéter dans le temps suivant une loi donnée. Certains s'aiment à dire que la statistique est la première des sciences inexactes…

Autre définition : Le but principal de la statistique est de déterminer les caractéristiques d'une population donnée à partir de l'étude d'une partie de cette population, appelée échantillon.

Lorsque nous observe un événement prenant en compte certains facteurs, il peut arriver qu'une deuxième observation ait lieu dans des conditions qui semblent identiques. En répétant ces mesures plusieurs fois, nous pouvons constater que les résultats observables sont distribuées statistiquement autour d'une valeur moyenne qui est, finalement le résultat possible le plus probable. Dans la pratique, nous n'effectuons cependant qu'une seule mesure et il s'agit alors de déterminer la valeur de l'erreur que l'on commet en adoptant celle-ci comme moyenne mesurée. Cette détermination nécessite de connaître le type de distribution statistique auquel nous avons à faire.

Introduisons avant de continuer quelques définitions qui vont nous être utiles pour la suite:

echantillons

Lors de l'étude statistiques d'ensembles d'informations, la façon de sélectionner l'échantillon est aussi importante que la manière de l'analyser. Il faut que l'échantillon soit "représentatif" de la population. Pour cela, l'échantillonnage aléatoire est le meilleur moyen d'y parvenir.

Définitions :

D1. Un échantillon aléatoire est un échantillon tiré au hasard dans lequel tous les individus ont la même chance, ou "équiprobabilité" (et nous insistons sur le fait que cette probabilité doit être égale), de se retrouver dans l'échantillon.

D2. Dans le cas contraire d'un échantillons dont les éléments n'ont pas été pris au hasard, nous disons alors que l'échantillon est "biaisé" (dans le cas inverse nous disons qu'il est "non-biaisé")

Remarque : un petit échantillon représentatif est, de loin, préférable à un grand échantillon biaisé.

En fait, lorsque la taille des échantillons utilisés est petite, le hasard peut donner un résultat moins bon que celui qui est biaisé. Une autre méthode consiste alors à utiliser la technique des quotas :

Définition : un échantillon de population respecte la proportion d'éléments distinctifs de la population totale.

Variables discrètes

Soit un variable indépendante (un élément d'un échantillon dont la propriété est indépendante des autres éléments) qui peut prendre les valeurs aléatoires discrètes dans avec les probabilités respectives  où, de par l'axiomatique des probabilités: 

Alors on définit "l'espérance mathématique" de la variable par:

Si la probabilité est donnée par une fonction de distribution (voir les définitions de fonctions de distribution plus bas) de la variable aléatoire, nous avons:

 peut être notée  s'il n'y pas de confusion possible.

Voici quelque propriétés mathématiques importantes de l'espérance:

Nous en déduisons que pour variables aléatoires , définies sur une même loi de distribution:

Après avoir traduit la tendance par l'espérance, il est intéressant de traduire la dispersion (ou "déviation standard") autour de l'espérance par un valeur (la variance ou l'écart-type).

La variance de , notée  ou  est définie par:

L'écart-type de , noté , est défini par:

 peut être noté  s'il n'y pas de confusion possible.

La variance peut également s'écrire sous la forme de la formule de Huyghens. Voyons de quoi il s'agit:

Soit X une variable aléatoire d'espérance  (valeur constante et déterminée) et de variance  (valeur constante et déterminée), nous définissons la "variable centrée réduite" par la relation:

et l'on démontre de façon très simple (contactez moi si vous souhaitez que je fasse quand même la petite démonstration) que:

Voici quelque propriétés mathématiques importantes de la variance:

En similitude avec les propriétés mathématiques de la variance:

ainsi, nous retrouvons bien si  que .

Le terme est appelé "covariance" et possède les propriétés suivantes et l'expression:

est appelée "forme bilinéaire de la variance" (ou forme "multivariée").

Si la convariance est univariée, nous avons dès lors: 

Soit un vecteur de composantes et un autre vecteur de composantes le calcul de la covariance des composantes deux à deux donnent ce que l'on appelle la "matrice des covariances" (outil très utilisé en mathématiques financières).

Effectivement, si nous notons: 

et ce jusqu'à . Nous pouvons dès lors écrire une matrice sous la forme:

Cette matrice à comme propriété remarquable que si l'on prend deux vecteur identiques et que l'on calcule les composantes de la matrice, alors la diagonale de cette dernière donnera les variances des composantes de vecteurs!

Souvent en statistique, il est utile de déterminer l'écart-type de la moyenne. Voyons de quoi il s'agit:

Soit la moyenne d'un serie de termes déterminés chacun par la mesure de plusieurs valeurs:: 

 

alors:

et:

d'où l'écart-type de le moyenne:

Soient et deux variables aléatoires ayant pour covariance:

Nous pouvons démontrer  que (voir la démonstration de cette inégalité en analyse vectorielle dans la définition du produit scalaire): 

Ce qui nous donne:

Finalement on obtient une forme de l'inégalité statistique dite de Cauchy-Schwarz :

Si les variances de et sont non nulles, la corrélation entre et est définie par:

Quels que soient l'unité et les ordres de grandeur, le coefficient de corrélation est un nombre sans unité, compris entre -1 et 1. Il traduit la plus ou moins grande dépendance linéaire de X et Y et ou, géométriquement, le plus ou moins grand aplatissement. Un coefficient de corrélation nul ou proche de 0 signifie qu'il n'y a pas de relation linéaire entre les caractères. Mais il n'entraîne aucune notion d'indépendance plus générale.

Quand le coefficient de corrélation est proche de 1 ou -1, les caractères sont dits fortement corrélés. Il faut prendre garde à la confusion fréquente entre corrélation et causalité. Que deux phénomènes soient corrélés n'implique en aucune façon que l'un soit cause de l'autre.

Ainsi:

- si  on a affaire à une corrélation négative dite parfaite (tous les points de mesures sont situés sur une droite de régression de pente négative).

- si  on a affaire à une corrélation négative ou positive dites imparfaites

- si  la corrélation est nulle..

- si  on a affaire à une corrélation positive dite parfaite (tous les points de mesures sont situés sur une droite de régression de pente positive).

L'analyse de régression et de corrélation poursuit donc deux objectifs:

1. Déterminer le degré d'association entre les différentes variables: celui-ci est exprimé par le coefficient de détermination, qui est le carré du coefficient de corrélation. Le coefficient de détermination mesure la contribution d'une des variables à l'explication de la seconde.

2. Déterminer les caractéristiques de cette association, c'est-à-dire des paramètres  et  de la droite de régression (voir la section d'analyse numérique du site au chapitre des algorithmes traitant de la régression linéaire). Si l'on peut faire valablement l'hypothèse de la stabilité du processus générateur des couples de valeurs des deux variables, la connaissance de ces paramètres permettrait de prédire le comportement du phénomène étudié

Dans le cas où l'on a à disposition une série de mesures couplées, on peut estimer la valeur moyenne et la variance des mesures par les estimateurs suivants:

et

ainsi que le coefficient de corrélation:

Variables continues

Si l'on étudie un variable continue (non discrète) pouvant prendre n'importe qu'elle valeur dans , alors on définit la densité de probabilité  normalisée à 1comme étant la fonction qui permet de connaître la probabilité d'obtenir un résultat compris entre  et . Cette densité est donnée par l'intégrale de la fonction exprimant la probabilité d'apparition de la variable aléatoire suivant:

où de par l'axiomatique des probabilités , . Evidemment on a:

représente la probabilité d'obtenir le résultat .

Dans ce cas  et

Toute fonction de distribution de probabilité doit satisfaire l'intégrale de normalisation dans son domaine de définition!

La moyenne ayant été défini par la somme pour une variable discrète, elle devient une intégrale pour une variable continue:

et la variance s'écrit donc:

Souvent les statisticiens utilisent les notations suivantes pour l'espérance mathématique:

 

et pour la variance:

Par la suite, on calculera ces différents termes avec développements uniquement dans les cas les plus usités.

FONCTIONS DE DISTRIBUTION

Lorsque l'on observe des phéonomènes stochastiques, et que l'on prend note des valeurs prises par ces derniers et que les reporte graphiquement, on observe toujours que les différentes mesures obtenues suivent une caractéristique courbe ou droite typique fréquemment reproductible. En théorie des nombres, on appelles ces caractéristiques des "fonctions de distribution".

Fonction discrète uniforme

Si nous admettons qu'il est possible d'associer une probabilité à un événement, nous pouvons concevoir des situations où nous pouvons supposer a priori que tous les événements élémentaires sont équiprobables (c'est-à-dire qu'ils ont même probabilité). On utilise alors le rapport entre le nombre de cas favorables et le nombre de cas possibles pour calculer la probabilité de tous les événements de l'Univers des événements . Plus généralement si est un ensemble fini d'événements équiprobables et une partie de .

c'est-à-dire le nombre de cas favorables sur le nombre de cas possibles. Cette relation est utilisable dans le cas particulier où les événements possibles sont équiprobables et en nombre fini.

Plus communément on peut écrire: soit un événement pouvant avoir issues équiprobables possibles. Alors la probabilité d'observer l'issue de l'événement sera:

Ayant pour espérance (ou moyenne) :

et pour variance :

 

Soit un ensemble de événements, et un sous ensemble d'événements. La probabilité d'observer au moins un des sous-éléments est nous l'avons déjà démontré: 

Fonction de Bernoulli

Si l'on à affaire à un observation binaire alors la probabilité d'un événement reste constant d'une observation à l'autre s'il n'y a pas d'effet mémoire (autrement dit: une somme de variables de Bernoulli, deux à deux indépendante). On appelle ce genre d'observations où la variable aléatoire à valeurs 0 ou 1, avec probabilité , respectivement, des "essais de Bernoulli". 

Ainsi, une variable aléatoire suit une fonction (ou loi) de Bernoulli si elle ne peut prendre que les valeurs 0 ou 1, associées aux probabilités et de sorte que et:

L'exemple classique d'un tel processus est le jeu de pile de face.

Si l'on considère événements où l'on obtient fois une des issues possibles et l'autre suivant un certain ordre (ou arrangement), alors la probabilité d'obtenir à nouveau le même ordre est donné par:

 

Relativement à ce que nous avions vu en analyse combinatoire!

La fonction de Bernoulli ayant pour espérance (moyenne):

puisque: 

et a pour variance:

Fonction binomiale

Si l'on revient maintenant à notre relation de l'événement binaire dont la probabilité d'un arrangement particulier est . Alors la densité de probabilité d'avoir fois l'événement et fois l'événement dans n'importe quel arrangement (ou ordre) sera donné par les différentes possibilité d'avoir des arrangement avec et fois ces événements multipliés par la probabilité de chaque séquence d'arrangement particulière.

Le nombres d'arrangements possibles est, nous l'avons démontré, donné par :

donc: 

Ecrite autrement ceci donne la fonction binomiale connue sous la forme:

et parfois notée:

Nous avons bien évidemment: 

L'espérance mathématique de  est:

 

La variance de la distribution binomiale étant:

L'écart-type étant on a: 

Fonction hypergEomEtrique

On considère une urne contenant boules dont sont noires et les autres blanches. On tire successivement, et sans les remettre dans l'urne, boules. Quelle est la probabilité que parmi ces boules, il y en ait qui soient noires (c'est que l'on appelle communément le "tirage sans remise")?

Les boules peuvent être choisies parmi les boules de façons (représentant le nombre de tirages différents possibles). Les boules noires peuvent être choisies parmi les noires de  façons. Les boules blanches peuvent être elles choisies de . Il y a donc  tirages qui donnent boules noires et  boules blanches. La probabilité recherche vaut donc:

La fonction hypergéométrique a pour moyenne :

et pour variance :

 

Fonction multinomiale

Soit muni d'une probabilité . On tire fois de suite un élément de avec la probabilité . Quelle est la probabilité d'obtenir le nombre 1,  fois le nombre 2,  fois, sur une suite d'un tirage de éléments (c'est ce que l'on appelle communément le "tirage avec remise") ?

Nous avons vu en analyse, que si l'on prend un ensemble d'événements ayant plusieurs issues, alors les différentes combinaisons de suites que l'on peut obtenir en prenant éléments choisis parmi est:

Il y a donc :

 

façons différentes d'obtenir  fois un certain événement. 

Il y a ensuite : 

 

façons différentes d'obtenir  un seconde événement  puisque dans l'ensemble de la suite, de éléments déjà  on été tirés ce qui fait qu'il n'en reste plus  sur lesquels on peut obtenir les  voulus.

Par récurrence immédiate on a alors:

 

combinaisons de sortir  fois certains événements dans l'ordre donné!

La probabilité recherchée vaut donc: 

Fonction de Poisson

Il existe une très grande quantités de fonctions mathématiques qui décrivent le comportement d'observations d'événements aléatoires et indépendants et identiquement distribués. Nous allons parcourir ces fonctions et pour les plus connues, les étudier en détails

Pour certains événements fort rares, la probabilité est très faible et tend vers zéro. Toutefois la valeur moyenne tend vers une valeur fixe lorsque tend vers l'infini.

Nous partirons donc d'une distribution binomiale de moyenne  que nous supposerons finie lorsque tend vers l'infini.

La probabilité de réussites lors de épreuves vaut: 

En posant , cette expression peut s'écrire:

En regroupant les termes on peut mettre la valeur de sous la forme:

On reconnaît que, lorsque tend vers l'infini, le deuxième facteur du produit a pour limite .

Quant au troisième facteur, puisque l'on s'intéresse aux petites valeurs de (la probabilité de réussite est très faible), sa limite pour tendant vers l'infini vaut 1. On obtient ainsi la loi de distribution dite de Poisson:

Cette distribution est importante car elle décrit beaucoup de processus dont la probabilité est petite et constante. Elle est souvent utilisée dans la 'queing theory' (temps d'attente), test d'acceptabilité et fiabilité, et contrôles statistiques de qualité. Entre autres, elle s'applique aux processus tels que: l'émission des quanta de lumière par des atomes excités, le nombre de globules rouges observés au microscope, le nombre d'appels arrivant à une centrale téléphonique ainsi qu'au cas qui nous concerne, le nombre de désintégrations de noyaux atomiques. La distribution de Poisson est valable pour presque toutes les observations faites en physique nucléaire ou corpusculaire.

La distribution de Poisson donne la probabilité de trouver un nombre donné d'événement en fonction d'une variable donnée, si les événements sont indépendants et on un taux de répétition (probabilité) constants (équiprobables).

L'espérance (moyenne) de la fonction de distribution de Poisson est:

La variance de la fonction de distribution de Poisson est elle donnée par:

Pour la distribution de Poisson on a le cas particulier ou:

Les lois de distribution statistiques sont étables en supposant la réalisation d'un nombre infini de mesures. Il est évident que nous ne pouvons en effectuer qu'un nombre fini . D'où la nécessité d'établir des correspondances entre les valeurs utiles théoriques et expérimentales. Pour ces dernières nous n'obtenons évidemment qu'une approximation dont  la validité est toutefois suffisante.

Théoriquement on a:

Dans le cas d'une distribution de Poisson par exemple:

, ,

Expérimentalement on a:

, ,

Donc à chaque fois qu'une mesure est faite, il s'ensuit une incertitude sur le résultat unique obtenu. Supposons avoir compté (observé) événements en fonction d'une certaine variable; l'écart entre et la moyenne sera en moyenne . Il est donc naturel d'écrire: 

Mais comme  donc on écrira l'observation de événement comme étant:

 

Fonction de Gauss-Laplace (OU loi NOrmale)

Partons d'une distribution binomiale et faisons tendre le nombre d'épreuves vers l'infini.

Si est fixé au départ, la moyenne tend également vers l'infini; de plus l'écart  tend également vers l'infini.

Si on veut calculer la limite de la distribution binomiale, il s'agira donc de faire un changement d'origine qui stabilise la moyenne, en 0 par exemple, et un changement d'unité qui stabilise l'écart, à 1 par exemple.

Voyons tout d'abord comment varie en fonction de et calculons la différence:

On en conclut que est une fonction croissante de , tant que est positif.

Remarquons que et que par conséquent les deux valeurs de voisines de la moyenne constituent les maxima de . D'autre part la différence est le taux d'accroissement de la fonction ; il peut s'écrire sous la forme:

Si devient grand, l'est également, pour autant que soit fixé et que l'on s'intéresse aux valeurs de la fonction proches de la moyenne; les variations de deviennent négligeables par rapport à . Si l'on effectue un changement de variable adéquat, la variation de la nouvelle variable tend vers 0 et l'on est conduit à effectuer un passage à la limite. Remplaçons par une nouvelle variable dont la moyenne soit 0 et telle que son écart vaille 1; on a:

 

appelons  l'expression de  calculée en fonction de la nouvelle variable. Le taux d'accroissement de  vaut alors :

 

et, en appliquant le résultat trouvé précédemment, on obtient:

Après un passage à la limite pour tendant vers l'infini, tenant compte de ce que et du fait que les valeurs de considérées se trouvent au voisinage de la moyenne , on obtient:

Cette équation peut encore s'écrire: 

et en intégrant les deux membres de cette égalité on obtient: 

.

La fonction suivante est une des solutions de la relation précédente: 

.

La constante est déterminée par la condition que , qui représente la somme de toutes les probabilités, vaut 1.On peut montrer que :

et on obtient donc la fonction (ou loi) de Gauss-Laplace, dite aussi "loi normale":

En revenant aux variables non normées, on obtient:

Cette loi régit sous des conditions très générales, et souvent rencontrées, beaucoup de phénomènes aléatoires. Elle est par ailleurs symétrique par rapport à la moyenne .

La signification supplémentaire de  dans la fonction est une mesure de la largeur de la distribution tel que :

On a la relation:

où FWHM (Full Width at Half Maximum) est la largeur de la distribution à mi-hauteur.

La largeur de l'intervalle à une très grande importance dans l'interprétation des incertitudes d'une mesure. La présentation d'un résultat comme  signifie que la valeur moyenne a environ 68.3% de chance (probabilité) de se trouver entre les limites de  et , ou qu'elle a 95.5% de se trouver entre  et  etc.

Cependant, la fonction de distribution de Gauss-Laplace n'est pas tabulée puisqu'il faudrait autant de table numériques que de valeurs possibles pour la moyenne et l'écart-type. C'est pourquoi, en opérant un changement de variable, la loi normale générale devient la "loi normale centrée réduite" où :

- "centrée" signifie soustraire la moyenne (la fonction à alors pour axe de symétrie l'axe des ordonnées)

- "réduite" signifie, diviser par l'écart-type

Par ce cfhangement de variable, la variable est remplacée par la variable aléatoire centrée réduite:

Si la variable a pour moyenne  et pour écart- type  alors la variable  a pour moyenne 0 et pour écart-type 1. On se retrouve dès lors avec la fonction de distribution dite 'loi Normale centrée réduite'.

Donc la relation:

s'écrit alors plus simplement :

Fonction Uniforme

Soient . La fonction:

est une fonction de distribution car elle vérifie :

La fonction uniforme a pour espérance (moyenne) :

 

et pour variance : 

signifie qu'en dehors du domaine de définition la fonction de distribution est nulle. On retrouvera ce type de notation dans certaines autres fonctions de distribution.

Fonction Exponentielle

Soient . La fonction:

est une fonction de distribution car elle vérifie :

 

La fonction exponentielle a pour espérance (moyenne) : 

 

et pour variance : 

 

Fonction de Cauchy

La fonction:

est une fonction de distribution car elle vérifie :

La fonction de Cauchy a pour espérance (moyenne) :

 

et pour variance :

Fonction bêta

On définit la fonction gamma d'Euler comme étant la relation (voir le chapitre de calcul différentiel et intégral dans la section d'algèbre) :

pour . On peut démontrer que la fonction ainsi définie est bien définie, c'est à dire l'intégrale existe, pour . Une propriété de la fonction gamma est que  (on la démontre en intégrant par parties).  

De plus on démontre que :

En faisant le changement de variables :

nous obtenons :

pour l'intégrale interne nous utilisons la substitution  et nous trouvons :

La fonction qui apparaît dans l'expression ci-dessus est appelée "fonction bêta" et nous avons donc :

Pour , considérons maintenant la fonction de distribution :

où :

qui est égal à une constante si nous fixon .

On vérifie que  est une fonction de distribution :

La fonction beta a pour espérance (moyenne) :

et pour variance :

En sachant que  et que  on trouve :

et donc :

Fonction gamma

Pour la définition de la fonction gamma voir ci-dessus.

Pour  on considère la fonction de distribution :

En faisant le changement de variables  on obtient :

et donc :

et on vérifie avec un raisonnement similaire en tout point celui de fonction bêta que  est une fonction de distribution :

La fonction gamme a pour espérance (moyenne) :

et pour variance :

Fonction de Khi-Deux

On considère la fonction de distribution gamma dans le cas particulier où  et , avec entier positif :

Tous les calculs faits auparavant s’appliquent et on a :

Loi de Student

La loi de Student est donnée par :

est une fonction de distribution car elle vérifie également :

C'est une fonction intéressant car son espérance (moyenne) vaut :

et sa variance :

LOI de benford

En 1938, un mathématicien du nom de Franck Benford fait une constatation curieuse. Dans la bibliothèque de l'université, il remarque que les premières pages des tables de logarithmes sont nettement plus usées que les dernières.

Seule explication possible : on a plus souvent besoin d'extraire le logarithme de chiffres commençant par 1 que de chiffres commençant par 9, ce qui implique que les premiers sont "plus nombreux" que les seconds.

Bien que cette idée lui paraisse tout à fait invraisemblable, Benford entreprend de vérifier son hypothèse. Rien de plus simple : il se procure des tables de valeurs numériques, et calcule le pourcentage d'apparition du chiffre le plus à gauche. Les résultats qu'il obtient confirment son intuition:

Chiffe initial

Probabilité d'apparition

1

30,1 %

2

17,6 %

3

12,5 %

4

9,7 %

5

7,9 %

6

6,7 %

7

5,8 %

8

5,1 %

9

4,6 %

 

A partir de ces données, Benford trouve expérimentalement que la probabilité O qu'un nombre commence par le chiffre n (excepté 0) est:

 

Il convient de préciser que cette loi ne s'applique qu'à des listes de valeurs "naturelles", c'est-à-dire à des chiffres ayant une signification physique. Elle ne fonctionne évidemment pas sur une liste de chiffres tirés au hasard.

La loi de Benford a été testée sur toute sorte de table : longueur des fleuves du globe, superficie des pays, résultat des élections, liste des prix de l'épicerie du coin... Elle se vérifie à tous les coups.

Elle est évidemment indépendante de l'unité choisie. Si l'on prend par exemple la liste des prix d'un supermarché, elle fonctionne aussi bien avec les valeurs exprimées en Francs qu'avec les mêmes prix convertis en Euros.

Cet étrange phénomène est resté peu étudié et inexpliqué jusqu'à une époque assez récente. Puis une démonstration générale en a été donnée en 1996, qui fait appel au théorème de la limite centrale.

Aussi surprenant que cela puisse paraître, cette loi a trouvé une application : le fisc l'utilise aux Etats-Unis pour détecter les fausses déclarations. Le principe est basé sur la restriction vue plus haut : la loi de Benford ne s'applique que sur des valeurs ayant une signification physique.

S'il existe une distribution de probabilité universelle sur de tels nombres, ils doivent êtres invariants sous un changement d'échelle tel que:

Si:

alors:

et la normalisation de la distribution donne:

si l'on dérive  par rapport à k et que l'on pose  on obtient:

en posant finalement . On a:

Cette équation différentielle a pour solution:

Cette fonction, n'est pas en premier lieu à proprement parler une fonction de distribution de probabilité (elle diverge) et deuxièment, les lois de la physique et humaine imposent des limites.

On doit donc comparer cette distribution par rapport à une référence arbitraire. Ainsi, si le nombre décimal étudié contient plusieurs puissance de 10 (10 au total: 0,1,2,3,4,5,6,7,9) la probabilité que le premier chiffre non nul (décimal) soit D est donné par la distribution logarithmique:

Les bornes de l'intégrale sont de 1 à 10 puisque la valeur nulle est interdite.

L'intégrale du dénominateur donne:

L'intégrale du numérateur donne:

Ce qui nous donne finalement:

De par les propriétés des logarithmes (voir le chapitre d'analyse fonctionelle dans la section d'algèbre du site) on a:

 

Cependant, la loi de Benford ne s'applique pas uniquement aux données invariantes par changement d'échelle mais également à des nombres de provenant de sources quelconques. Expliquer ce cas implique une investigation plus rigoureuse en utilisant le théorème de la limite centrale. Cette démonstration a été effectuée seulement en 1996 par T. Hill par une approche utilisant la distribution des distributions. 

Estimateurs

Soit un ensemble dénombrable. On suppose que l'on dispose d'observations qui sont des réalisations de variable aléatoire indépendantes et identiquement distribuées  de loi de probabilité inconnue. On va chercher à estimer cette loi de probabilité inconnue à partir des observations . Nous n'allons pas chercher cette loi dans l'ensemble de toutes les probabilités possibles sur .

Nous allons au contraire supposer que nous possédons une connaissance a priori sur cette loi de probabilité. Nous allons supposer qu'il existe une partie  telle qu'à chaque , on puisse associer une probabilité  sur  et telle que la probabilité inconnue puisse s'écrire avec .

Supposons que l'on procède par tâtonnement pour estimer la loi de probabilité inconnue . On essaye une probabilité arbitraire  et l'on veut savoir si ce choix est raisonnable ou loufoque. Une manière de procéder est de se demander si les observations avaient une probabilité élevée ou non de sortir avec cette probabilité arbitraire. 

Nous devons pour cela calculer la probabilité qu'avaient les observations  de sortir avec . Cette probabilité vaut , en notant P la loi de probabilité associée à . Il serait alors particulièrement maladroit de choisir comme estimateur de  une probabilité telle que la quantité  soit faible. Au contraire, on va chercher la probabilité  qui maximise , c'est-à-dire qui rende les observations le plus vraisemblable possible.

Nous somme donc à chercher le (ou les) paramètre qui maximise(nt) la quantité:

Cette quantité porte le nom de vraisemblance. C'est une fonction du paramètre  et des observations . La ou les valeurs du paramètre  qui maximisent la vraisemblance sont appelés estimateurs du maximum de vraisemblance.

Faisons quand même un petit exemple avec les fonction de distribution de Gauss-Laplace:

Soit  un n-échantillon de variables aléatoires gaussiennes d'espérance  et de variance . Quel est l'estimateur de maximum de vraisemblance de ?

Le paramètre  est ici . L'ensemble des paramètres possibles est . La densité d'une variable aléatoire gaussienne est donnée par:

Nous avons donc bien un modèle statistique dominé. La vraisemblance est donnée par:

Maximiser une fonction ou maximiser son logarithme est équivalent donc:

Fixons d'abord l'écart-type. Pour cela, dérivons  par rapport à et regardons pour quelle valeur de la moyenne la fonction s'annule. Il nous reste:

Ainsi :

Fixons maintenant la moyenne. L'annulation de la dérivée de en  conduit à :

Ce qui nous permet d'écrire :

Cependant, nous n'avons pas encore défini ce qu'était un bon estimateur.  Il nous faut néanmoins préciser dès à présent qu'un estimateur biaisé peut très bien être un bon estimateur, alors qu'un estimateur sans biais pourra se révéler être un mauvais estimateur. On entend par là:

- Si un estimateur , vérifie , on dit que cet estimateur est sans biais (il correspond au paramètre réel)

- Si un estimateur , vérifie , on dit que cet estimateur est biaisé

Par exemple de l'exemple précédent la moyenne est biaisée mais qu'en est-il de la variance. Or, nous avons :

L'estimateur de la variance est biaisé. On remarquera au passage qu'un estimateur du maximum de vraisemblance peut être biaisé. On notera également que la différence l'estimateur tend vers un estimateur sans biais lorsque le nombre d'essais tend vers l'infini . On dit alors qu'on a un estimateur asymptotiquement non biaisé.

Un estimateur est dit consistant s'il converge en probabilité, lorsque , vers la vraie valeur du paramètre.

De par les propriétés de l'espérance on a:

On a donc:

 et

deux relations que l'on retrouve souvent dans les tables.

Tests d'adéquation

Dans cette partie, on suppose que la loi de probabilité de la variable aléatoire , dont on dispose d'un échantillon, est inconnue. Une première remarque s'impose: les tests d'adéquation ne permettent pas de trouver la loi d'une variable aléatoire mais seulement d'accepter ou de rejeter une hypothèse simple émise à priori.

Ainsi, il est nécessaire de faire une étude sommaire préalable de l'échantillon afin de formuler des hypothèses plausibles quant à la loi de probabilité de : la variable aléatoire est-elle discrète ou continue? Est-elle définie pour tout x, ou seulement pour x > 0? L'histogramme en fréquence obtenu est-il symétrique par rapport à la valeur moyenne? Existe-t-il une relation simple entre moyenne estimée et variance estimée? Les réponses à ces différentes questions, de même que la nature de la variable représentée par permettent dans la plupart des cas d'émettre une hypothèse plausible.

Soit un échantillon de réalisations indépendantes de la variable aléatoire. . Soit  la loi de distribution inconnue de . L'hypothèse de départ sera que la loi de distribution est . Ceci permet de formuler les hypothèses:

Les paramètres de seront soient connus soit estimés.

A partir de l'échantillon, on construit un histogramme en fréquence de k classes . On note le nombre d'observations de faites dans la classe  (avec bien sûr ).

Si la variable aléatoire suit bien la loi alors l'effectif théorique de la classe est donné par: est la probabilité pour que la variable aléatoire suivant la loi prenne une valeur sur le domaine définissant la classe

L'écart entre la réalité issue de l'échantillon et la théorie issue de l'hypothèse est mesurée par l'indicateur:

Sous l'hypothèse , on peut considérer que l'écart entre distribution théorique et distribution empirique est distribué normalement.

Dans ces conditions, tend vers la loi du à degrés de liberté où:

k = (Nbr.  de classes) - 1 – Nbr. de paramètres nécessaires à la spécification complète de

 

La région d'acceptation du test est l'intervalle tel que la probabilité d'une variable du à degrés de liberté prenne une valeur dans cet intervalle soit égale à  (étant l'erreur de première espèce relative au test).

Si la valeur de l'indicateur est supérieure à, alors on décide l'hypothèse .

Il n'est guère possible de déterminer l'erreur de deuxième espèce (et donc la puissance du test), la loi de probabilité de n'étant pas spécifiée sous l'hypothèse . On ne peut donc pas déterminer la loi de probabilité de l'indicateur sous cette hypothèse.

Pour que la loi (sous l'hypothèse ) de l'indicateur d'écart tende effectivement vers une loi du , il est nécessaire que l'effectif d'une classe soit en pratique supérieur à 5. Dans le cas contraire, il faudra procéder à un regroupement des classes jusqu'à ce que cette contrainte soit satisfaite.

CONTROLE DE QUALITE

On renonce souvent à un contrôle à 100% à cause du prix. On procède à une prise d'échantillons. Ceux-ci doivent être présentés, c'est-à-dire quelconque et d'égales chances. But de la prise d'échantillons: information de la probabilité du taux de défaillances réel du lot complet sur la base des défaillances constatées sur l'échantillonnage.

Exemple:

Cette probabilité du taux de défaillance réelle se calcule comme suit si, lors d'un échantillonnage de n pièces parmi un lot total de pièces, on trouve exactement défectueuses et si p désigne la probabilité d'une pièce défectueuse et  le nombre de pièces défectueuses de lot .

Nous avons donc 5 informations:

étant l'échantillon de pièces

le nombre total de pièces

le nombre de pièces défectueuses sur l'échantillon

p la probabilité de défectuosité d'une pièce

 le nombre de pièces défectueuses du lot

On considère un lot de pièces contenant pièces dont m sont défectueuses et les autres parfaites. On tire successivement, et sans les remettre dans le lot, p pièces. Quelle est la probabilité que parmi ces p pièces, il y en ait qui soient défectueuses?

Nous avons déjà vu que la loi qui s'applique dans ce contexte est la loi géométrique donnée par (nous l'avons démontré):

qui donne donc la probabilité que pièces défectueuses parmi l'échantillon de p pièces.

Mais dans notre cas nous avons: 

car identiquement au fait que  représente le nombre de pièces non défectueuses parmi les p pièces tirées uniquement, dans notre problème  représente lui aussi le nombre de pièces non défectueuses mais dans le lot total car c'est relativement à la totalité que l'on souhaite faire une comparaison.

Corollaire:

,

Nous avons également dans notre contrôle de qualité à poser que: 

car identiquement au fait que  représente le nombre de pièces non défectueuses dans le lot total , au contraire dans notre problème d'origine comme on inverse l'objectif nous allons  nous intéresser aux pièces non défectueuses sur l'échantillon qui a été pris au hasard (pour l'instant tout est une question de mis en rapport logique).

Corollaire: 

,

On a donc finalement: 

qui donne la probabilité d'avoir pièces défectueuses dans un échantillon de pièces prises à partir d'un lot total de pièces.

Ce qui nous intéresse est une tolérance maximale, nous n'allons donc non plus calculer la simple probabilité de tomber sur pièces défectueuses, mais la probabilité cumulée (maximale!) qui se calcule dans ce cas particulier comme:

Exemple:

Dans un lot de  vis, on admet au maximum , c'est-à-dire:  pièces défectueuses. On procède à un échantillonnage de  vis. Combien peut-on accepter de vis défectueuses   dans cet échantillonnage si l'on impose que:

Le calcul montre que l'on peut tolérer au pire qu'une pièce soit défectueuse.

Courbe d'efficacité

Dans le même contexte que précédemment, on définit la probabilité d'acceptation  est défini comme le risque du producteur et c le nombre de pièces défectueuses dans l'échantillon comme précédemment:

On peut calculer les différentes courbes d'efficacité en fonction du pourcentage de défectueux p du lot avec par exemple en admettant un distribution de type Poisonienne. On distingue alors 2 types:

             

VALEURS DE NIVEAU DE QUALITE ACCEPTABLE (N.Q.A)

Après discussions, le producteur et le client fixe un point important de la courbe d'efficacité: la valeur NQA. Cette valeur indique le pourcentage défectueux  en % d'un lot pour que le lot ait une chance d'être accepté lors d'un contrôle par échantillonnage avec une probabilité usuelle de 90% (car , est dans ce cas . Ceci signifie que, sur la courbe d'efficacité de premier type (celle de gauche ci-dessus), on ait au plus  défectueux dans un échantillon de taille n. Afin de limiter les retours, le fournisseur maintien sa qualité (pourcentage de défectueux du lot) en dessous de la valeur NQA garantie; par ex. à  (voir figure ci-dessous) où seulement  défectueux sont admis resp. si la probabilité d'acceptation est 99%. En pratique, on admet souvent un valeur NQA avec

Moyennes

La notion de moyenne nous semble très familière et nous en parlons beaucoup sans nous poser trop de questions. Pourtant il existe divers qualificatifs (nous insistons sur le fait que ce ne sont que des qualificatifs) pour distinguer la forme de la résolution d'un problème consistant à calculer la moyenne. Il faut être très très prudent quand aux calculs des moyennes car nous avons une fâcheuse tendance à nous précipiter et à utiliser systématiquement la moyenne arithmétique  sans réfléchir, ce qui peut amener à de graves erreurs !

Soit des nombres  réels, nous avons par définition :

D1. Moyenne arithmétique (triviale) :

D2. La "médiane" ou "moyenne milieu" (triviale) : 

Soit une suite de valeurs ordonnées , la "médiane" est par définition :

1. la valeur milieu qui coupe la suite en deux parties de cardinaux égaux si  est impair

2. la moyenne arithmétique des deux valeurs  directement voisines de l'élément

Rappel :  est la partie entière d'un valeur  donnée

D3.  Moyenne quadratique :

peu connue et de faible intérêt mais découle souvent de raisonnement simples dont voici un exemple:

Soit un carré de côté  , et un autre carré de côté . La somme des aires des deux carrés est égale à :

Nous pouvons généraliser à un nombre plus grand de carrés :

Au fait, cette moyenne à peu d'intérêt et elle peut être généralisée aussi à des formes de dimensions plus élevées selon la relation donnée dans la définition.

De plus, et cette moyenne à d'autant moins d'intérêt qu'il suffit de poser  et  pour retomber sur un moyenne arithmétique simple.

D4. Moyenne harmonique (triviale) : 

peu connue mais découle souvent de raisonnements simples et pertinents dont voici un exemple :

Soit une distance parcourue dans un sens à la vitesse  et dans l'autre (ou pas) à la vitesse . La vitesse moyenne s'obtiendra en divisant la distance totale par le temps mis à la parcourir:

 

Si nous calculons le temps mis lorsqu'on parcourt avec une vitesse  c'est tout simplement le quotient:

 

Le temps total vaut donc: 

La vitesse moyenne sera donc bien du type harmonique :

D5. Moyenne géométrique : 

peu connue et assez peu rencontrée (mais connue dans le domaine de l'économétrie surtout quand nous étudierons le rendement géométrique moyen), voyons un exemple de cette moyenne:

Supposons qu'une banque offre une possibilité de placement et prévoit pour la première année un intérêt (c'est absurde mais c'est un exemple) de , mais pour la deuxième année un intérêt de  Au même moment une autre banque offre un intérêt constant pour deux ans: . C'est pareil, dirons-nous un peu rapidement. En fait les deux placements n'ont pas la même rentabilité.

Dans la première banque, un capital deviendra au bout de la première année: 

 

et la seconde année: 

Dans l'autre banque nous aurons au bout d'un an: 

et après la seconde année:

etc...

Comme vous pouvez le voir le placement ne sera pas identique si contrairement à ce que vous auriez pu penser au début. 

Donc  n'est donc pas la moyenne de  et .

Posons maintenant:

  et

Quelle est en fait la valeur moyenne ?

Au bout de deux ans le capital est multiplié par . Si la moyenne vaut  il sera alors multiplié par . Nous avons donc la relation:

C'est un exemple d'application où nous retrouvons donc la moyenne géométrique.

D6. Moyenne mobile ou moyenne glissante :

La "moyenne mobile" ou "moyenne glissante" est définie par la relation:

lorsque la moyenne est dite "simple", et par la relation :

lorsque la moyenne est dite "pondérée".

Les moyennes mobiles sont particulièrement utilisées en économique, où elles permettent de représenter un courbe de tendance de moyenne mobile d'un série de valeurs, dont le nombre de points  est égal au nombre total de points de la série de valeurs moins le nombre que vous spécifiez pour la période.

Une Moyenne Mobile () est une courbe calculée à partir des moyennes des cours d'une valeur, sur une période donnée: chaque point d'une moyenne mobile sur 100 séances est la moyenne des 100 derniers cours de la valeur considérée.

Cette courbe, affichée simultanément avec la courbe d'évolution des cours de la valeur, permet de lisser les variations journalières de la valeur, et de dégager une tendance haussière si la moyenne mobile est croissante avec les cours de la valeur situés au dessus de la Moyenne Mobile et  baissière si la moyenne mobile est décroissante avec les cours de la valeur situés au dessous de la moyenne mobile

Les moyennes mobiles peuvent être calculées sur différentes périodes, ce qui permet de dégager des tendances à court terme (20 séances selon les habitudes de la branche), moyen terme (50-100 séances) ou long terme (plus de 200 séances).

wpe3.gif (16160 octets)

Les croisements des moyennes mobiles par la courbe des cours de la valeur génèrent des signaux d'achat ou de vente selon les professionnels suivant le cas:

- signal d'achat: lorsque la courbe des cours franchit la MM vers le haut sur de bons volumes de transactions et que la MM sert de support à la courbe des cours.

- signal de vente: lorsque la courbe des cours franchit la MM vers le bas et que la MM sert de résistance à la courbe des cours.

Propriétés des moyennes :

Un simple calcul pour  avec  permet de le vérifier) :

THEORIE DES ENSEMBLES CALCUL ALGEBRIQE

 

©2002-2004 Sciences.ch - Responsable : Isoz Vincent
Ce document issu de Sciences.ch est soumis à la licence GNU FDL