
PRINCIPES
| MÉCANIQUE ANALYTIQUE
| MÉCANIQUE
CLASSIQUE
MÉCANIQUE
ONDULATOIRE | MÉCANIQUE
STATISTIQUE | THERMODYNAMIQUE
MÉCANIQUE DES MILIEUX CONTINUS
32.
MÉCANIQUE
STATISTIQUE |
Dernière mise à jour de ce chapitre:
2015-10-03 17:46:09 | {oUUID 1.817}
Version: 2.7 Révision 8 | Rédacteur: Vincent ISOZ |
Avancement:
~90%
vues
depuis
le 2012-01-01:
0
LISTE DES SUJETS TRAITÉS SUR CETTE PAGE
La mécanique
statistique, appelée
aussi
"thermodynamique statistique" ou
encore plus généralement "physique
statistique",
a pour but d'expliquer le comportement des systèmes macroscopiques
(constitués d'un grand nombre d'objets en interaction) à partir
de leurs caractéristiques microscopiques.
C'est de façon beaucoup plus générale, la
physique quantique qui décrit les propriétés
et l'évolution
des systèmes physiques à l'échelle microscopique.
La mécanique statistique est donc construite sur cette
description quantique comme nous le verrons sur les développements
mathématiques
qui suivront.
La démarche
présentée ici est d'aborder la mécanique statistique
élémentaire pour en déduire ensuite la thermodynamique.
La mécanique statistique constitue en effet, avec la physique
quantique et la relativité, l'un des piliers de la physique
moderne dans l'explication de phénomènes à partir de leurs constituants.
Il est important de la percevoir d'emblée
comme une théorie fondamentale, et non pas comme une
simple tentative pour justifier à posteriori la thermodynamique.
La thermodynamique elle-même y gagne en retour compréhension
plus juste et plus profonde de ses principes et de ses méthodes.
THÉORIE STATISTIQUE
DE L'INFORMATION
Le mot "information" est
utilisé dans des contextes très variés, dans des sens totalement
différents suivants les disciplines scientifiques: nous pouvons
à titre d'exemple citer la thermodynamique avec le concept d'entropie,
la physique appliquée avec la théorie du signal, la biologie avec
la théorie du génome et la physique quantique avec la probabilité
d'obtenir de l'information.
Se pose alors la question, s'il est
possible de construire une théorie de l'information et si elle
est unique? Notre démarche ici, ne vise pas l'information
en tant que telle, mais la quantité d'information. Lorsque nous
parlons de quantité et de mesure, nous pensons à la notion de
contenu ou de valeur de l'information. La science de l'information
de par son
objet doit se sentir concernée par ce questionnement. Si nous définissons
"l'infométrie" comme l'ensemble
des techniques de mesures mathématiques et statistiques de l'information,
nous souhaiterions avoir une définition suffisamment claire du
concept de quantité
d'informations qui puisse nous amener à définir une mesure, c'est-à-dire
un ensemble d'opérations parfaitement définies, nous amenant à des
axiomes clairs et dont le résultat est un nombre. La synthèse
que nous développons ici n'est pas ambitieuse.
Nous nous intéressons donc ici aux
fondements de la théorie statistique de l'information connue également
sous le nom de "théorie de Shannon".
La formule de Shannon qui en ressort est certainement l'un des
concepts fondamentaux de
toute la physique puisqu'elle touche la brique irréductible
de la physique: l'information !!
Nous montrerons
(plus bas) qu'un système physique isolé a pour état
le plus probable, celui qui contient le plus d'états et
qui est donc à fortiori
le plus imprévisible. L'état le plus improbable
est donc celui qui est le plus prévisible. Dès lors, puisque
l'imprévisibilité
apparaît comme un attribut essentiel de l'information, nous identifions
la mesure quantitative de l'information à son improbabilité.
Ainsi, la quantité d'information h(x) apportée
par la réalisation d'un événement x de probabilité
p(x) sera une fonction croissante f de son
improbabilité 1/p(x):
(32.1)
De plus, la réalisation de deux événements
indépendants x et
y apporte intuitivement une quantité d'information qui
est la somme de leurs quantités d'informations respectives,
soit:
(32.2)
La fonction logarithme est
donc par ses propriétés une candidate naturelle pour f telle
que:
(32.3)
où est
bien évidemment un nombre positif.
Remarque: Le choix de la base du logarithme définit l'unité d'information
qui est complètement arbitraire. Par la suite, et sauf précision
contraire, "log" désignera le logarithme en base  .
Ainsi, la "quantité d'information
intrinsèque" d'un événement x est
donc de par les propriétés du logarithme:
(32.4)
Elle peut être considérée, comme nous
l'avons fait, comme une mesure d'incertitude sur l'événement,
ou comme celle de l'information nécessaire pour résoudre
cette incertitude. Voyons un exemple qui motive cette définition.
Exemple:
Convenons que la connaissance de la réalisation d'un évènement
qui avait pour probabilité 1/2 fournit 1 bit d'information.
Lançons maintenant n pièces de monnaie et
prenons connaissance du résultat de l'expérience
: nous acquérons n bits d'information. Or l'évènement
en question avait pour probabilité 1/2n.
Donc le nombre de bits d'information est ici:
(32.5)
où p est la probabilité de l'événement.
Ce qui motive la définition!
Définitions:
D1. Nous définissons "l'information
intrinsèque par paire" de deux événements x et
y de probabilité conjointe p(x, y)
(cf. chapitre de Probabilités)
par:
(32.6)
D2. Nous définissons de
même "l'information
conditionnelle" de x sachant y par
(cf. chapitre de Probabilités):
(32.7)
qui peut donc aussi s'écrire (ce n'est qu'une manière
de noter différente que nous avons
déjà présentée
dans le chapitre de Probabilités):
(32.8)
Il s'agit de la quantité d'information
restant sur x après l'observation de y.
La formule de Bayes (cf. chapitre de
Probabilités)
nous permet de remarquer immédiatement que si x et
y sont indépendants:
(32.9)
ce qui concorde avec le sens commun.
Nous
souhaitons
aussi mesurer la quantité d'information que la donnée
d'une variable, par exemple y,
apporte sur l'autre, x.
C'est le cas en particulier lorsque nous identifions x
au choix d'un signal appliqué à l'entrée d'un canal
et y
au signal correspondant observé en sa sortie. p(x)
est alors la probabilité à fortiori que
x
soit émis et p(x / y) la
probabilité à fortiori
que x
ait été émis, sachant que y
a été reçu.
Une mesure de cette quantité d'information, nommée "information mutuelle" est:
(32.10)
il s'agit de la mesure logarithmique
de l'accroissement de la probabilité de x (donc
de la baisse de sa quantité d'information) dû à son
conditionnement sur y.
Si la donnée de y est équivalente à celle
de x (cas
d'un canal parfait), elle est égale à l'information intrinsèque
h(x).
Elle est nulle si, à l'inverse, x et y sont
indépendants.
Nous avons bien évidemment:
(32.11)
et de par les propriétés des logarithmes:
(32.12)
cette dernière égalité justifiant le
terme "mutuelle". Alors que les informations intrinsèques
étaient positives, l'information mutuelle peut être négative.
Nous verrons que sa moyenne, beaucoup plus importante dans la pratique,
ne peut l'être.
Les événements individuels étant généralement
moins importants que les moyennes, nous les considérerons
par la suite comme provenant d'une source aléatoire, discrète,
finie, stationnaire, et blanche (c.-à-d. de réalisations successives
indépendantes).
Les événements
sont donc interprétés comme le choix d'un symbole
dans l'alphabet de la source. Soit n la
taille de cet alphabet, et ses
symboles. La source est donc décrite par la variable aléatoire
x, qui prend ses valeurs dans l'alphabet, avec des probabilités
respectives
,
telles que:
(32.13)
La quantité d'information
moyenne de cette source est l'espérance de l'information
intrinsèque
de chaque symbole de l'alphabet de la source (cf.
chapitre de Statistiques).
Elle est appelée
"entropie" (par
la notation S(X)) de X et
est donnée par la relation:
(32.14)
appelée "formule
de Shannon" et il s'agit bien d'une espérance car son
expression générale pour une variable aléatoire discrète est comme
nous l'avons vu dans le chapitre de Statistiques donnée par:
(32.15)
avec dans le cas présent:
(32.16) Cette dernière écriture constitue cependant
un abus de notation: en effet, l'espérance mathématique
a un sens si h(x)
est une fonction de x.
Or h(x) ne
dépend pas des valeurs de x,
mais seulement des probabilités associées. Nous
noterons parfois plus rigoureusement l'entropie d'une distribution:
(32.17)
Les "entropies conjointes et conditionnelles" sont définies de
manières similaires avec les notations idoines:
(32.18)
et (nous adoptons cette fois-ci le symbole "|" et non
plus le symbole "/" pour indiquer la relation conditionnelle):
(32.19)
Il faut noter dans la dernière expression
que l'espérance est effectuée dans l'espace produit,
et que donc le coefficient est la probabilité conjointe.
"L'information mutuelle moyenne", appelée par abus de langage
"information mutuelle" se définit elle aussi de manière
directe:
(32.20)
Remarque: Il est à noter que la définition de la quantité d'information,
par une mesure logarithmique peut paraître arbitraire, quoique
raisonnable, compte tenu des propriétés attendues d'une telle
mesure. Shannon, et plus tard Khintchine ont montré que compte
tenues de certaines propriétés posées en axiomes, la fonction
logarithmique est la seule
à convenir.
Exemple:
E1. Soit une variable aléatoire binaire,
valant 1 avec une probabilité p (et
donc 0 avec une probabilité 1-p).
Son entropie vaut:
(32.21)
avec et
avec un logarithme en base 2 tel que pour un événement à deux états
équiprobables, l'entropie d'obtention d'un des deux états soit égale
à l'unité. Ceci dit, il vient naturellement que .
Elle est représentée à la figure ci-dessous,
en "Shannon" (unité correspondant à l'utilisation du
logarithme
à base 2). Nous remarquerons sa symétrie par rapport à ½, valeur
pour laquelle elle atteint son maximum, égal à 1.

Figure: 32.1 - Entropie d'une variable binaire
E2. Dans le domaine de l'astronomie où il est souvent nécessaire
de compresser les images on chercher à calculer le "niveau
de redondance des données" afin de choisir un taux
de compression éventuelleemnt
applicable. Pour cela on calcul l'information contenue dans une
image en utilisant son entropie. Ainsi, une image dont les pixels
sont codés sur N bits, soit 2N valeurs
possibles et il y a une proportion (probabilité) de pi pixels
pouvant prendre chaque couleur. L'entropie de l'image est alors
donnée
par (avec la notation d'usage du domaine de l'imagerie numérique):
(32.22)
qui s'exprime donc en bits par pixels et représente le nombre
de bits qui sont nécessaire pour coder l'image sans perte d'informations.
Il convient maintenant de faire la liaison entre la théorie
statistique de l'information et la mécanique statistique:
LOI DE BOLTZMANN
Nous allons d'abord démontrer
par l'intermédiaire d'un cas simple, que pour tout système,
l'état le plus probable est l'état d'équilibre
!
Considérons un système
isolé (un système est dit "isolé" lorsqu'il
est imperméable à tout flux - chaleur (adiabatique),
matière, champs, ...) peuplé de N particules
discernables. Ce système est partagé en
deux compartiments (ou niveaux) identiques et séparés
d'une paroi imperméable. Chaque compartiment est supposé
contenir un nombre
de particules.
Pour une configuration donnée
du système, nous parlons de "macro-état" dans le
sens où il est possible de par la quantité de particules
de mesurer une grandeur dite macroscopique telle que l'énergie,
la masse, la pression, etc.
Si nous fixons ce système particulier,
il est bien sûr possible pour un nombre N de particules de concevoir un nombre donné de macro-états.
Tel que:
- 1 particule: 2 macro-états
(2 configurations possibles soit 1 configuration par macro-état)
- 2 particules: 3 macro-états
(4 configurations possibles par permutations des compartiments)
- 3 particules: 4 macro-états
(8 configurations possibles par permutations des compartiments)
- 4 particules: 5 macro-états
(16 configurations possibles par permutations des compartiments)
etc.
Définition: Nous appelons "micro-état",
une configuration de permutations du macro-état.
Remarque: Parfois au lieu de "micro-état" nous trouvons
dans la littérature "probabilité
thermodynamique" ou "complexions".
Déterminons maintenant à
l'aide de l'analyse combinatoire (cf. chapitre
de Probabilités)
le nombre de micro-états
possibles pour chaque macro-état. Par analogie, ceci correspond
à s'imaginer que le système est une tige sur laquelle
sont enfilées des boules (particules) et que la tige est
séparée par une frontière imaginaire en
un de ses points (boulier chinois). Pour une telle situation,
nous
avons:
(32.23)
Ceci nous donne tous les
arrangements possibles des "particules
gauches" avec les "particules
droites"
(de la frontière) pour un macro-état donné
(le nombre de manières dont les particules peuvent se partager
entre les deux compartiments). Mais nous avons aussi dans ce cas
particulier:
(32.24)
Or cela correspond à la combinatoire
tel que:
(32.25)
et donc:
(32.26)
Nous avons finalement pour tous les
macro-états d'un système de N particules, un total de:
(32.27)
micro-états (configurations)
possibles. Or, nous avons bien vu dans l'exemple initial que:
(32.28)
Ainsi, la probabilité d'existence
d'un micro-état donné est de
et elle est équiprobable !!
Nous pouvons maintenant énoncer
le premier postulat de la mécanique statistique (postulat
de Gibbs): tous les micro-états discernables et accessibles
d'un système isolé sont équiprobables.
Revenons-en maintenant à notre
question initiale sur l'équilibre:
La notion d'équilibre associée
à un macro-état nous est fournie par la thermodynamique
classique. Nous y voyons qu'un système est dit à l'équilibre
lorsque son état est caractérisé par l'indépendance
temporelle des grandeurs macroscopiques (masse, énergie,
pression, ...) et de la constance des potentiels thermodynamiques
(énergie
interne, enthalpie, énergie de Gibbs, ...).
Pour savoir pourquoi l'équilibre
est l'état le plus probable, il nous suffit de chercher quel
est le couple
qui maximise:
(32.29)
puisque tous les micro-états
sont de toute façon équiprobables. Il est facile de
contrôler que ce maximum est donné pour:
(32.30)
Nous pouvons dès lors énoncer
le deuxième postulat de la mécanique statistique: l'état d'équilibre est l'état qui correspond
au plus grand nombre de configurations (micro-états) et
est l'état le plus probable!!
Ou en d'autres termes: Un système atteint l'équilibre
lorsque son entropie devient maximale et l'entropie ne peut que croître
(postulat fondamental en physique!)!!
Remarque: Certains physiciens ont
postulé que ce postulat fondamental d'augmentation de l'entropie
est un principe encore plus fort que le modèle de sélection naturelle
de Darwin. Effectivement, si nous imaginons des molécules dispersées
dans un océan primordial, de par le principe d'entropie, elles
vont s'auto-organiser naturellement pour maximiser la dissipation
de chaleur de l'océan. Ce qui est puissant c'est que principe donne
une base physique au phénomène de sélection naturelle de Darwin
et aide à comprendre certaines tendances évolutionnaires que la
simple sélection naturelle n'est pas apte à expliquer à ce jour:
la raison pour laquelle certains organismes présentent un caractéristique
X plutôt que Y n'est pas due au fait que X est
mieux adapté que
Y mais parce que les contraintes physiques environnantes
font que X est plus apte à évoluer vers une entropie maximale
que Y.
Soit maintenant à considérer
le système suivant:
Figure: 32.2 - Exemple d'évolution de l'entropie d'un système
La fonction de distribution
P(x) qui décrit la position des particules
selon l'axe x à l'équilibre
va évoluer vers une autre fonction de distribution correspondant
au nouvel équilibre .
À l'équilibre P(x) est constante. Mais entre les deux équilibres, elle évolue,
et devient de plus en plus large. Nous perdons donc de l'information
sur la position des particules. Nous pouvons donc ré-énoncer
le deuxième postulat en disant qu'un système hors
d'équilibre évolue toujours dans le sens d'une
perte d'informations (d'un élargissement de la fonction
de distribution caractéristique).
Parallèlement, le deuxième
principe de la thermodynamique classique nous indique que
toute évolution naturelle doit nécessairement correspondre
à un accroissement d'entropie .
Il doit donc exister un lien étroit entre l'information que
nous possédons sur l'état de chacune des particules
et l'entropie du système.
Le cas que nous venons de décrire
montre clairement que les paramètres ou concepts: nombre
de configurations, désordre, équilibre, quantité
d'information et entropie d'un système isolé servent
à représenter l'état d'un système.
Ces paramètres jouent le même rôle. Des relations
mathématiques doivent donc les relier les uns aux autres.
Rappelons que nous avons démontré
que l'entropie statistique infométrique d'un système
est donnée par:
(32.31)
Si nous appliquons cette relation
au cas d'un système physique en équilibre pour lequel
nous souhaitons calculer l'entropie, nous avons démontré:
(32.32)
Il nous faut encore savoir à
quoi correspond cette probabilité constante. Nous avons démontré
précédemment qu'à l'équilibre, nous
avions:
(32.33)
qui est donc le nombre de micro-états
à l'équilibre. Ainsi, la probabilité de tirer
un micro-état parmi tous est de:
(32.34)
que nous notons simplement (un peu dangereusement...) par
tradition :
(32.35)
Nous avons ainsi:
(32.36)
Comme les probabilités des micro-états
sont équiprobables et que nous sommons sur l'ensemble de
ces derniers, il vient:
(32.37)
et donc (sans oublier que dans ce cas particulier les probabilités
ont toutes la même valeur!):
(32.38)
Puisque l'équilibre est lié
au désordre maximum, et que le désordre est lié
à l'information manquante, il paraît raisonnable de
relier l'entropie statistique de l'information à l'entropie
statistique thermodynamique en physique. Pour cela, il faut que
la constante
nous permette d'obtenir les bonnes unités et il vient naturellement
de choisir cette constante telle qu'elle soit égale à
la constante de Boltzmann k qui a les mêmes
unités que l'entropie thermodynamique.
Ainsi:
(32.39)
Il nous faut encore choisir la base
du logarithme. L'expérience montre qu'il faut choisir le
logarithme népérien qui permet de retrouver des résultats
de la mécanique classique après développements.
Ainsi, nous obtenons finalement la "loi
de Boltzmann":
(32.40)
qui nous donne l'entropie thermodynamique
d'un système à l'équilibre!
De par les propriétés
mathématiques de l'espérance (cf.
chapitre de Statistiques), en particulier la multiplication
par une constante, nous avons pour un ensemble N de
sous-systèmes:
(32.41)
puisque comme nous l'avons signalé plus haut lors de notre
présentation
de la formule de Shannon, l'entropie S est une espérance
(sans oublier que dans ce cas particulier les probabilités
ont toutes la même valeur!).
DISTRIBUTIONS STATISTIQUES
PHYSIQUES
Nous distinguerons quatre différentes
statistiques qui proviennent ou non d'effets quantiques et qui
conduiront
à quatre distributions distinctes connues. Ce sont les distributions
de Maxwell, Maxwell-Boltzmann, Fermi-Dirac et de Bose-Einstein.
Elles trouvent de nombreuses applications en physique comme le
rayonnement du corps noir qui sera démontré dans
le chapitre de Thermodynamique.
DISTRIBUTION
DE MAXWELL
(distribution des vitesses)
Pour un gaz en état
d'équilibre,
posons-nous la question suivante: Quelle est la probabilité qu'une
molécule ait ses composantes de vitesse comprises
entre
et
,
et
,
et
dans un repère cartésien habituel ?
Cette probabilité
dépend de
(c'est-à-dire: )
et de .
Elle ne dépend pas de la position de la molécule
puisque le gaz est supposé à l'équilibre
par rapport
à son centre de masse.
Nous postulons dans un premier temps
que
est proportionnelle à chacun des intervalles
tel que:
(32.42)
et qu'il n'y a pas de
directions privilégiées. Nous pouvons faire une rotation
circulaire des axes cartésiens, la probabilité sera
inchangée (isotropie de l'espace).
L'isotropie amène que la fonction ne
dépend pas du vecteur ,
au mieux elle dépend de la norme de cette vitesse, tel
que:
(32.43)
Soit
(noté aussi souvent en
fonction du contexte) la
probabilité pour une molécule
d'avoir sa composante suivant l'axe Ox comprise
entre
et
alors:
(32.44)
de même:
(32.45)
L'isotropie de l'espace impose:
(32.46)
La loi des probabilités composées
implique:
(32.47)
Déterminer les fonctions f et relève
de la méthodologie mathématique suivante:
(32.48)
Puisque:
(32.49)
Ce qui nous donne finalement:
(32.50)
Le membre de gauche de la dernière
égalité dépend uniquement de v ,
celui de droite uniquement de .
Le résultat ne peut être qu'une constante que nous
noterons
. Il suit que:
(32.51)
En intégrant:
(32.52)
Donc:
(32.53)
et posons .
Il vient donc:
(32.54)
Donc identique:
(32.55)
La loi des probabilités composées
impliquant:
(32.56)
Nous avons finalement:
(32.57)
Remarquons que
est nécessairement négatif sinon la probabilité
pour une molécule d'avoir une composante de vitesse infinie
serait infinie ce qui voudrait dire que toutes les molécules
seraient à vitesse infinie et que l'énergie serait
infinie !!!
Nous posons:
avec
(32.58)
Finalement, il vient que:
(32.59)
Il nous reste à normaliser
A. La probabilité pour une molécule d'avoir
une composante de vitesse comprise entre
ou une intensité de vitesse comprise entre
est égale à
(100% de chances). Ainsi en utilisant exactement la même méthode
calcul que celle vue dans le chapitre de Statistiques pour la loi
Normale,
nous avons:
(32.60)
Nous avons jusqu'ici parlé en
terme de probabilités. Un langage équivalent consiste
à chercher, dans une enceinte contenant N molécules,
le nombre dN de molécules ayant certaines caractéristiques, à
savoir par exemple, le nombre de molécules ayant
une composante de vitesse comprise entre et
.
Ce nombre étant bien évidemment égal dans
une dimension à:
(32.61)
Plus généralement:
(32.62)
Pour obtenir dP nous nous plaçons
dans l'espace
des vitesses c'est-à-dire
un repère cartésien de coordonnées .
Les composantes
ne sont pas indépendantes puisque liées par la relation:
(32.63)
L'extrémité des vecteurs
vitesse
ayant une intensité de vitesse v,
c'est-à-dire de composantes de vitesse liées par
la relation ci-dessus, se trouve dans l'espace des vitesses sur
la sphère de rayon v.
Il en sera de même pour l'extrémité des vecteurs
vitesse ayant une intensité .
Dans l'espace des vitesses, nous délimitons
une portion d'espace comprise entre la sphère de rayon v et
la sphère de rayon ,
de volume égal à .
La probabilité est
proportionnelle à
c'est-à-dire au volume élémentaire dans l'espace
des vitesses. Pour obtenir dP(v),
nous devons intégrer
à tous les vecteurs vitesses possibles c'est à dire
ayant leur extrémité entre les deux sphères.
Cette intégration est particulièrement simple puisque
l'intensité v de la vitesse dans
cet espace (inter-volume) est constante. Nous obtenons donc:
(32.64)
et ainsi, dans une enceinte
contenant N molécules, le nombre de molécules dN(v)
ayant un module de vitesse compris entre v et
est:
(32.65)
Rappelons maintenant que conformément à ce que nous
avons longuement
étudié dans le chapitre de Statistiques, la valeur
moyenne
d'une grandeur G est le produit de G pondérée
par la probabilité
d'obtenir G intégré à toutes
les valeurs possibles de cette grandeur telle qu'en une dimension
nous avons (selon x):
(32.66)
où l'intégrale a été calculée
en faisant un changement de variable et
où nous avons ensuite utilisé une intégration
par parties.
Nous avons respectivement de manière générale:
(32.67)
où l'intégrale a été calculée
de la même manière.
Donc:
ou
(32.68)
La thermodynamique, ou la
mécanique
des fluides (voir théorème du Viriel) nous donne
pour un gaz parfait monoatomique (cf. chapitres
de Mécanique Des Milieux Continus et de Thermodynamique),
de capacité calorifique
et volume constant:
(32.69)
Si nous formulons l'hypothèse
que la partie de l'énergie liée à la température
est due à l'agitation cinétique des molécules,
nous pouvons écrire:
(32.70)
Nous définissons alors la vitesse thermique
moyenne par:
(32.71)
Une application pour l'électron dans le cas
des semi-conducteurs (où nous approximons certaines relations
par une distribution de Maxwell-Boltzmann) donne une vitesse thermique moyenne à température
ambiante de 120'000 [m/s].
Mais pour en revenir à notre distribution.... Nous avons donc:
(32.72)
Ainsi, nous avons finalement:
(32.73)
qui est donc la distribution des vitesses dans un gaz monoatomique
dont voici un exemple de tracé (les unités des axes
en ordonnées sont arbitraires):

Figure: 32.3 - Distribution des vitesses dans un gaz monoatomique
La relation précédente donne donc la proportion
des molécules de gaz ayant à un instant t donné une
vitesse
v. Nous voyons que la densité de probabilité s'étend jusqu'à
l'infini et nous trouvons une probabilité non nulle (tendant vers
zéro) que la particule ait une vitesse extrêmement élevée. En fait,
si nous avons un système de particules identiques à la même température T,
alors nous en retrouverons un certain nombre avec ces vitesses
très élevées. Au coeur des étoiles ce sont ces rares particules
très rapides qui sont capables de vaincre la répulsion coulombienne
entre les noyaux et de aire qu'ils s'approchent l'un et l'autre
pour initier le mécanisme de fusion nucléaire qui est la source
d'énergie des étoiles.
Nous avons alors pour une unique direction spatiale et
selon une notation courante dans la littérature anglo-saxonne
(en adoptant les développements
précédents
on tombe relativement facilement sur ce résultat) la fonction
de distribution suivante:
(32.74)
et pour les trois dimensions spatiales la notation suivante aussi
courante dans la littérature anglo-saxonne (certains termes sont
simplement mis sous la racine):
(32.75)
Cette fonction de distribution permet donc de définir
la vitesse la plus probable (la valeur "modale"
comme l'on dit en statistiques) notée parfois ,
qui correspond au maximum de la courbe f(v), soit
là où la dérivée première est nulle.
Ainsi, pour une unique dimension spatiale nous avons en adoptant
la
notation
anglo-saxonne pour la proportion de molécules de gaz:
(32.76)
Dès lors (vous remarquerez que le résultat aurait été le
même
si nous avions pris toutes les dimensions spatiales... ce qui est
cohérent!):
(32.77)
d'où la vitesse la plus probable (attention! ce n'est pas la vitesse
maximale puisque nous savons que la distribution s'étend
jusqu'à
la vitesse infinie):
(32.78)
Pour la vitesse moyenne (l'espérance) et en utilisant
directement toutes les dimensions spatiales nous avons:
(32.79)
Nous avons donc une intégrale du type:
(32.80)
Le mieux est de décomposer en
et
on intègre par parties. Nous avons alors:
(32.81)
La dernière intégrale est facilement calculable. C'est
la même
que dans le chapitre de Statistiques pour la loi Normale.
Donc:
(32.82)
Il vient finalement:
(32.83)
et là par contre le résultat est dépendant du nombre
de dimensions spatiales que nous prenons!
DISTRIBUTION DE
MAXWELL-BOLTZMANN
En physique quantique corpusculaire,
nous apprenons que l'énergie d'une particule est quantifiée,
c'est à dire que les valeurs possibles pour l'énergie
forment un spectre discret. Même si, dans un certain nombre
de situations courantes, pour une particule et encore plus pour
un système constitué d'un grand nombre de particules,
les niveaux d'énergie sont si serrés que nous pouvons
traiter, sur le plan mathématique, ce spectre comme continu
(approximation du continuum), il n'empêche qu'en toute
rigueur ils sont quantifiés. Cette approche quantifiée
des distributions physiques au niveau corpusculaire de la matière
est souvent désignée sous le nom de "statistique
quantique".
Une particule, ayant un niveau
d'énergie ,
peut être dans différents sous-états.
Nous savons (nous n'avons pas utilisé
l'équation de Schrödinger dans le chapitre de Physique
Quantique Corpusculaire pour le montrer strictement) que, pour
décrire
un atome, nous introduisons quatre nombres quantiques, à savoir:
- le nombre quantique principal qui
quantifie l'énergie
- le nombre quantique secondaire qui
quantifie le moment cinétique
- le nombre quantique magnétique
qui quantifie le moment magnétique
- le spin qui quantifie la rotation
propre des électrons de l'atome
Ainsi pour une même énergie
(pour une valeur particulière du nombre quantique principal),
un atome ou un électron peuvent posséder différentes
valeurs des nombres quantiques secondaire, magnétique ou
de spin.
Pour qualifier la possibilité
de sous-états correspondant à une même énergie,
nous employons l'expression "dégénérescence"
et nous traduisons par la variable
le nombre de dégénérescences correspondant
à un même niveau d'énergie .
Nous allons considérer un système
composé de N particules qui se placent
sur K différents niveaux d'énergie .
Nous trouvons
particules sur le niveau d'énergie .
Nous avons alors toujours les relations suivantes pour l'énergie
totale (que nous notons par la même lettre que celle utilisée
en thermodynamique) et pour le nombre de particules:
(32.84)
Nous supposerons (c'est important) ces
quantités constantes et que le système est entièrement
déterminé par la distribution
des particules sur les K différents niveaux
d'énergie.
Il existe un grand nombre
de configurations microscopiques possibles qui sont compatibles
avec la distribution .
Il y en a (voir les permutations avec répétition
dans le chapitre de Probabilités):
(32.85)
Mais nous avons négligé
la dégénérescence possible des niveaux i.
S'il existe sous-niveaux
dont l'énergie est ,
nous avons alors:
(32.86)
ce qui peut se vérifier avec la figure ci-dessous:
Figure: 32.4 - États dans la distribution de Maxwell-Boltzmann
Remarque:  est
donc la dégénérescence de l'état d'énergie
 ,
à savoir le nombre d'états possédant cette
énergie.
En prenant le logarithme, il vient:
(32.87)
et en utilisant la formule
de Stirling (cf. chapitre de Méthodes
Numériques):
(32.88)
en se rappelant que celle-ci est une approximation grossière
pour les plus petites valeurs de n mais devient une approximation
acceptable pour n supérieur à 1000.
Nous avons:
(32.89)
Nous recherchons maintenant la distribution
la plus probable, c'est-à-dire celle qui maximise (et
donc qui maximise implicitement l'entropie qui ne peut selon l'expérience
qu'augmenter pour un système isolé). Pour trouver
l'extremum, nous allons différencier
cette expression tel que :
(32.90)
donc tous les autres paramètres autres que sont
fixés.
Or, comme:
(32.91)
où
sont des constantes qui permettent de s'assurer de la cohérence
de l'analyse dimensionnelle (des unités quoi...).
Il est donc équivalent et nécessaire
pour prendre en compte également ces paramètres
intrinsèques (le fait d'ajouter ainsi de manière
astucieuse des termes nuls est nommé "méthode
des multiplicateurs de Lagrange") d'écrire:
(32.92)
sous la forme plus complète suivante:
(32.93)
Donc après réarrangement:
(32.94)
ce qui donne après une première
simplification (élimination de la dérivée
des constantes):
(32.95)
Ce qui nous amène à écrire (puisque tous
les termes de la somme indexés sur une valeur i différente
de celle de la dérivée partielle sont nuls):
(32.96)
Ce qui nous donne finalement:
(32.97)
qui devra donc aussi être nul. Ainsi, nous avons astucieusement
fait apparaître un résultat qui n'en est pas moins très puissant.
En imposant de maximiser l'entropie nous avons fait apparaître
deux termes (incluant chacun une constante qu'il faudra déterminer
plus tard!) et dont la somme doit être nulle pour assurer la validité
expérimentale du
modèle
théorique lorsque l'entropie du système isolé est maximale.
Mais cette dernière relation équivaut aussi à
rechercher (ce qui va nous être très utile plus loin!):
(32.98)
Effectivement voyons cela en utilisant à nouveau
la méthode
astucieuse des multiplicateurs de Lagrange (ajout de termes nuls
en supposant les niveaux d'énergie et
le nombre de dégénérescences fixes)
et en se rappelant (cf. chapitre de Calcul
Différentiel
Et Intégral)
que:
(32.99)
Nous avons alors:
(32.100)
d'où:
(32.101)
Rappelons que nous avons pour l'entropie
de ce système:
(32.102)
et donc:
(32.103)
et comme:
(32.104)
Nous avons donc:
(32.105)
La thermodynamique nous
conduit à (cf. chapitre
de Thermodynamique):
(32.106)
où nous voyons donc apparaître le potentiel chimique qui a une
influence lorsque le nombre de particules considérées varie.
Si toutes les particules (ou groupes de particules) sont
identiques
donc:
(32.107)
Ce qui finalement conduit à:
(32.108)
et nous amène à identifier:
(32.109)
et donc:
et
(32.110)
Nous pouvons donc réécrire la relation suivante:

sous la forme finale et traditionnelle de la
"fonction de Maxwell-Boltzmann":
(32.111)
Que nous retrouvons plus fréquemment dans la littérature
sous la forme suivante:
(32.112)
et particulièrement sous cette forme:
(32.113)
Nous retrouverons cette relation dans le domaine de la théorie
des semi-conducteurs (cf. chapitre d'Électrocinétique)
ainsi que dans notre étude des plasmas (cf.
chapitre de Mécanique Des Milieux Continus).
Comme ,
nous avons:
(32.114)
Nous pouvons alors calculer et
nous obtenons ainsi la formulation
discrète de la "statistique
de Maxwell-Boltzmann":
(32.115)
Cette relation donne donc le rapport (ou la "proportion" ou
encore une
"probabilité") entre le
nombre de particules qui par hypothèse n'interagissent
pas entre elles (sinon le modèle est trop complexe) dans
un état
d'énergie donné et
le
nombre de particules qui n'interagissent pas entre elles et pouvant
prendre les différents états d'énergie
discrets .
Ainsi, connaissant N, il est possible à l'aide
de cette relation de connaître la proportion de particules
dans un état
d'énergie
particulier.
Évidemment, s'il n'y a qu'un sous-niveau par niveau énergétique,
cette relation se réduit à (c'est par ailleurs sous cette forme
qu'on la retrouve le plus souvent dans la littérature):
(32.116)
Remarque: La statistique de Maxwell-Boltzmann s'applique
en l'absence d'interaction entre particules et est donc valable
pour un gaz
parfait
mais ne s'applique pas, par exemple, à un liquide. De plus,
elle s'applique uniquement aux hautes températures lorsque
les effets quantiques sont négligeables. À basse
température
nous utilisons la statistique de Bose-Einstein pour les
bosons (en référence au nom de Bose...) et la
statistique de Fermi-Dirac pour les fermions (en référence
au nom de Fermi) que nous étudierons plus loin.
Nous appelons le terme au dénominateur,
la "fonction de partition canonique". Elle est le plus souvent notée
tel que:
(32.117)
Les ensembles microcanonique, canonique
et grand canonique correspondent à des ensembles de systèmes
soumis à des contraintes differentes qui sont respectivement
:
- Microcanonique: énergie fixée, nombre
de particules fixé,
volume fixé
- Canonique: énergie moyenne fixée
= température
imposée, nombre de particules fixé, volume fixé
- Grand canonique: énergie moyenne fixée
= température
imposée,
nombre de particules moyen fixé = potentiel chimique imposé,
volume fixé)
Ceci est vrai en quantique comme en classique.
DISTRIBUTION DE BOLTZMANN
Voyons maintenant une première application intéressante de la
fonction de distribution de Maxwell-Boltzmann.
Considérons le cas intéressant où:
- Le volume ainsi que le nombre de particules sont fixés
(système microcanonique)
- Le fait que le nombre de particules soit fixé, le potentiel
chimique est nul
- Une température suffisamment élevée pour que les états d'énergie
soient en quantité infinie
Il va relativement de soi que si les états d'énergie
sont en quantité infinie, le facteur de dégénérescence sera égal à l'unité (car
il n'y a pas de place pour des dégénérescences autre
que le niveau lui-même).
Nous avons alors la distribution de Maxwell-Boltzmann qui devient
sous ces conditions la "distribution
de Boltzmann":
(32.118)
que nous retrouvons plus fréquemment sous la forme suivante:
(32.119) .
Si nous considérons que dans un gaz globalement neutre, l'énergie
est définie uniquement par l'énergie cinétique (cas du gaz parfait).
Donc avec le passage au continu, nous avons:
(32.120)
Dès lors, nous pouvons intégrer la fonction de Boltzmann ci-dessus
sur toutes les vitesses et nous devrions avoir:
(32.121)
Avec la fonction de partition microcanonique:
(32.122)
pour que la condition de normalisation soit satisfaite (et puis
de toute façon cela correspond aux développements effectués plus
haut!).
Nous reconnaissons ici une intégrale qui nous est familière et
démontrée dans le chapitre de Statistiques lors de notre étude
de la loi Normale. Nous avons alors:
(32.123)
Dès lors, la fonction de densité de probabilité s'écrit:
(32.124)
Maintenant, puisque la vitesse est traitée comme une variable
aléatoire, intéressons-nous au calcul de la valeur moyenne du carré de
la vitesse qui se note traditionnellement de la manière suivante
(la notation n'a aucun rapport avec les ket-bra de la physique
quantique ou des produits scalaires fonctionnels!):
(32.125)
En statistiques, nous noterions cela:
(32.126)
Concentrons-nous sur:
(32.127)
Or, si nous posons:
(32.128)
Nous avons alors:
(32.129)
Soit avec un changement de variable:
(32.130)
et il s'agit exactement de l'intégrale de la loi Normale Centrée
démontrée dans le chapitre de Statistique comme valant:
(32.131)
Dès lors:
(32.132)
et au final:
(32.133)
pour une particule pour une dimension spatiale. Nous retrouvons
au fait le même résultat qu'avec la distribution de Maxwell des
vitesses démontrée, avec une démarche plus rigoureuse, mais
nous arrivons aux mêmes conclusions.
DISTRIBUTION
DE FERMI-DIRAC
Le principe d'indiscernabilité
peut avoir des conséquences très importantes sur
la statistique. Nous distinguons deux types de particules indiscernables: les bosons (comme le photon) et les fermions (comme l'électron).
Rappels:
R1. Les premiers correspondent à
des particules dont la fonction d'onde représentative est
toujours symétrique alors que celle des fermions est antisymétrique.
R2. Le principe d'exclusion de Pauli
impose que 2 fermions ne peuvent pas se trouver dans le même
état quantique. Les bosons, eux le peuvent !
Leurs propriétés
respectives ont pour conséquence importante que l'énergie
minimale d'un ensemble de N bosons est égale à N fois
l'énergie minimale de chaque boson. Alors que pour un ensemble
de fermions, l'énergie minimale est égale à
la somme des N énergies les plus faibles.
Ces deux types de particules entraînent
deux types de statistiques: la statistique de Fermi-Dirac pour
les fermions (que nous allons démontrer en premier) et la
statistique de Bose-Einstein pour les bosons (qui suivra).
Il n'existe donc qu'une seule
manière
de répartir N fermions sur les états
d'énergies accessibles (au
lieu des N!
pour les particules discernables). Il ne peut pas y avoir plus
de particules
dans un niveau d'énergie
qu'il existe de dégénérescences .
Donc:
(32.134)
Le
nombre de combinaisons possibles pour un niveau ,
dégénéré fois
et comportant particules
est donc la combinatoire .
Le nombre total de configurations est donc:
(32.135)
Ce qui peut se vérifier avec la figure ci-dessous:
Figure: 32.5 - États dans la distribution de Fermi-Dirac
La statistique est donc bien différente
du cas classique de Maxwell-Boltzmann. En prenant le logarithme
du nombre de micro-états et en faisant usage de l'approximation
par la formule de Stirling comme plus haut, il vient:
(32.136)
Que nous pouvons déjà
simplifier une première fois:
(32.137)
et en différenciant cette expression
pour trouver le maximum, nous obtenons:
(32.138)
Terme à terme:
(32.139)
Or, nous avons par conservation et
par symétrie:
(32.140)
Donc finalement:
(32.141)
Pour respecter les contraintes sur
l'énergie et le nombre de particules, nous utilisons encore
une fois la méthode des multiplicateurs de Lagrange:

(32.142)
Ce qui nous amène à la
distribution de Fermi-Dirac:
(32.143)
Les paramètres
et
jouent le même rôle que dans la distribution de Maxwell-Boltzmann.
Nous avons ainsi:
et
(32.144)
Nous avons alors:
(32.145)
Ainsi, en physique quantique, la statistique
de Fermi-Dirac désigne le nombre de fermions
indiscernables qui n'interagissent pas entre eux (sinon le modèle
est trop complexe) sur les états
d'énergie
d'un système à l'équilibre thermodynamique
dégénéré (donc le nombre de fermions
occupant le niveau d'énergie
donné!).
Pour les systèmes macroscopiques, les niveaux d'énergie sont si
serrés (ou tellement nombreux) que nous pouvons considérer le spectre
d'énergies comme continu (approximation du continuum).
Nous raisonnerons donc dans ce contexte de continuum, ce qui
nous permet d'écrire
en normant aux nombres de particules mises en jeu (tout ce que
l'on demande à la fonction c'est de nous dire comment
sont réparties les N particules):
(32.146)
ou:
(32.147)
pour la fonction de Fermi-Dirac avec le tracé correspondant plus
bas de la distribution.
Cette relation est très importante
par exemple dans la théorie
des semi-conducteurs (cf. chapitre d'Electrocinétique)
qui est à la base de l'électronique des 20ème
et 21ème siècles.
De manière numérique, nous pouvons simuler l'évolution
de l'allure de la distribution (qui n'est pas une distribution
dans le sens
mathématique du terme) en fonction de l'énergie et
de la température.
Pour cela, nous supposons pour simplifier que la constante de Boltzmann
vaut 1 et que le potentiel chimique mu vaut 2 (nous notons que
celui-ci est en toute rigueur fonction de la température).
Ainsi, nous pouvons écrire
le petit programme suivant sous Matlab 5.0.0.473:
clear all;kb=1; % Constante de Boltzmann
mu=2; % Potentiel Chimique
T=0.001:0.1:1; % " Gradient " de température pour le programme
for j=1:length(T)
beta(j)=1/(kb*T(j));
epsilon=0.1:0.1:4; % L'énergie avec le pas
for i=1:length(epsilon)
Nf(i,j)=1/(exp(beta(j)*(epsilon(i)-mu))+1); % Nb(epsilon,beta) moyen de fermions
au
end % niveau d'énergie epsilon
hold on %
plot(epsilon,Nf(:,j));
pause(0)
end

Figure: 32.6 - Tracé avec Matlab 5.0.0.473 de la distribution de Fermi-Dirac
Au zéro absolu nous
voyons que nous avons une marche. A cette température, les
niveaux d'énergie
dégénérés
sont occupés à bloc en partant du niveau d'énergie
le plus bas jusqu'à un certain niveau représentant
la chute de la marche. Nous disons alors que le gaz de fermions
est "complétement
dégénéré".
La fonction de Fermi-Dirac, au zéro absolu, vaut donc
1 si E est
inférieur à et
0 pour les valeurs supérieures (le système
choisit son état
d'énergie
minimale où les N particules occupent les N états
de plus basse énergie).
Évidemment, dans les hautes énergies d'excitation (ou
hautes températures)
la probabilité (rapport) d'occupation d'un état
est très faible et donc il n'est pas important d'appliquer
le principe de Pauli (la probabilité que deux électrons
veuillent occuper le même niveau d'énergie est très
faible). Pour ces raisons, ce régime limite entre le comportement
quantique et classique est appelé parfois
"régime
classique" et la haute température correspondante à l'excitation
énergétique est appelée "température
de Fermi".
Le potentiel chimique est quant à lui par définition
le dernier niveau énergétique occupé au
zéro
absolu (la fameuse marche d'escalier!). Comme nous le verrons dans
le chapitre de Physique Quantique Ondulatoire, celui-ci est noté (et à
l'opposé en
chimie...) et
nous l'appelons "niveau de Fermi" ou
"énergie de Fermi".
Nous voyons alors immédiatement que quelle que soit la température:
(32.148)
la probabilité d'occupation par les électrons
est donc de 1/2 dans ce niveau. La définition du niveau de Fermi
peut alors être donnée par:
(32.149)
La principale application aux solides
de cette statistique est la modélisation des phénomènes
de transport électronique (gaz d'électrons): théorie
des métaux, des semi-conducteurs, population des niveaux
d'énergie et propriétés de conduction (cf.
chapitre d'Electrocinétique).
DISTRIBUTION DE BOSE-EINSTEIN
Les bosons sont d'autres
particules quantiques qui peuvent indistinctement se placer
sur tous les niveaux
d'énergie. Le principe de Pauli ne s'y applique donc pas!
Dans ce cas, le nombre d'objet à permuter est
(les
particules et les
intervalles entre les niveaux). Parce que les particules sont indiscernables
et les niveaux et sous niveaux permutables, il faut diviser par
puis aussi par
Le nombre de configurations sur un niveau ,
fois dégénéré qui contient
particules indiscernables est ainsi égal à:
(32.150)
Ce qui peut se vérifier avec la figure ci-dessous:
Figure: 32.7 - États dans la distribution de Bose-Einstein
Son logarithme avec usage de la formule
de Stirling et après simplification est donné par:
(32.151)
Le maximum de
correspond à annuler ,
soit:
(32.152)
Pour respecter les contraintes sur
l'énergie et le nombre de particules, nous utilisons encore
une fois la méthode des multiplicateurs de Lagrange:
(32.153)
et donc:
(32.154)
qui est la distribution
statistique de Bose-Einstein. Cette distribution diverge lorsque:
(32.155)
C'est
la "condensation de Bose-Einstein".
Dans cet état,
tous les bosons se retrouvent dans le même état.
Les paramètres
et
jouent le même rôle que dans la distribution de Maxwell-Boltzmann
et Fermi-Dirac. Nous avons ainsi:
et
(32.156)
Le nombre (moyen) de bosons est alors donné par:
(32.157)
à comparer avec le nombre (moyen) de fermions au même
niveau d'énergie
(fonction de Fermi-Dirac):
(32.158)
Ainsi, en mécanique
quantique, la statistique de Bose-Einstein désigne la
distribution statistique de bosons indiscernables (tous similaires)
et n'interagissant pas entre eux (sinon le modèle est trop complexe)
sur les états
d'énergie
d'un système à l'équilibre
thermodynamique.
Pour les systèmes macroscopiques, les niveaux d'énergie sont si
serrés (ou tellement nombreux) que nous pouvons considérer le spectre
d'énergies comme continu (approximation du continuum).
Nous raisonnerons donc dans ce contexte, ce qui nous permet d'écrire
en normant aux nombres de particules
mises en jeu (tout ce que l'on demande à la fonction c'est de
nous dire comment sont réparties les N particules):
(32.159)
pour la fonction de Bose-Einstein. Elle n'est donc définie que
pour les énergies supérieures au potentiel chimique (sinon quoi
elle est négative!).
De manière numérique, nous pouvons simuler l'évolution
de l'allure de la distribution en fonction de l'énergie
et de la température.
Pour cela, nous supposons pour simplifier que la constante de Boltzmann
vaut 1 et que le potentiel chimique mu=2 (nous notons que celui-ci
est dans l'absolu fonction de la température). Ainsi, nous
pouvons écrire
le petit programme suivant sous Matlab 5.0.0.473:
clear all;kb=1; % Constante de Boltzmann
mu=2; % Potentiel Chimique
T=0.001:0.1:1; % " Gradient " de température pour le programme
for j=1:length(T)
beta(j)=1/(kb*T(j));
epsilon=0.1:0.1:4;
for i=1:length(epsilon)
Nf(i,j)=1/(exp(beta(j)*(epsilon(i)-mu))-1); % Nb(epsilon,beta) moyen de bosons
au
end % niveau d'énergie epsilon
hold on %
plot(epsilon,Nf(:,j));
pause(0)
end

Figure: 32.8 - Tracé avec Matlab 5.0.0.473 de la distribution de Bose-Einstein
À haute température, lorsque les effets
quantiques ne se font plus sentir, la statistique de Bose-Einstein,
comme la statistique de Fermi-Dirac qui régit les fermions,
tend vers la statistique de Maxwell-Boltzmann:

Figure: 32.9 - Exemple de tracé des trois distributions
Aux basses températures,
cependant, les statistiques de Bose-Einstein et de Fermi-Dirac
diffèrent entre elles. Nous nous
plaçons, par exemple, à température nulle: dans la première,
nous attendons alors que le niveau de plus basse énergie
contienne tous les bosons, tandis que dans la seconde, les niveaux
de plus
basse énergie contiennent fermions.
Par ailleurs, à température nulle
(-273.15 [°C]), la statistique de Bose-Einstein montre
de manière évidente que toutes les particules doivent
occuper le même état
quantique: celui de plus basse énergie.
Ce phénomène est observable à l'échelle
macroscopique et constitue un "condensat
de Bose-Einstein".
La statistique de Bose-Einstein est
utile à la compréhension des phénomènes
électromagnétiques ondulatoires car les photons sont
des Bosons (rayonnement du corps noir, interaction matière/rayonnement).
Elle est très largement utile à l'étude
des phénomènes vibrationnels dans les solides
(les phonons suivent la statistique de Bose-Einstein). Elle
a aussi été
utilisée pour expliquer les transitions de phase dans l'Hélium
(phénomène à très basse température).
Remarques:
R1. La statistique de Bose-Einstein a été introduite
par Satyendranath Bose en 1920 pour les photons et généralisée
aux atomes par Albert Einstein en 1924.
R2. Un résultat mathématique appelé "théorème
spin-statistique" relie le spin d'une particule et le type
de statistique qu'elle suit. Il stipule que les particules de
spin
entier sont des bosons, alors que les particules de spin demi-entier
sont des fermions. La démonstration de ce théorème
ne se trouve pas encore sur le présent site Internet à ce
jour.
Pour terminer, voici un résumé simplifié des choses qui peut éventuellement
aider à une meilleure compréhension:
Particules |
Statistiques |
Particularités |
Bosons
(photons, gluons…)
|
Statistique de Bose-Einstein

|
Particules indiscernables qui n'interagissent
pas.
Aucune contrainte sur le nombre de particules par état
|
Fermions
(électrons, protons, neutrinos…)
|
Statistique de Fermi-Dirac

|
Particules indiscernables qui n'interagissent
pas.
Le nombre de particules par état est égal à 0
ou 1
|
Classiques
|
Statistique de Maxwell-Boltzmann

|
Particules discernables qui n'interagissent
pas.
Aucune contrainte sur le nombre de particules par état
|
Tableau: 32.1 - Similitudes des différentes distributions quantiques
Figure: 32.10 - Résumé des états dans les trois distributions
LOI DE FICK
Nous avons vu dans le chapitre de Thermodynamique la démonstration
de l'équation de propagation de la chaleur proposée par Fourier
en 1822 obtenue à partir de l'équation de continuité. Nous avions
obtenu (il est très recommandé au lecteur de s'y référer à nouveau
ne serait-ce que pour lire les remarques relatives à la démonstration):
(32.160)
En se basant sur les mêmes hypothèses que Fourier, Fick proposa
en 1855 qu'un flux de particules pourrait se diffuser à travers
un matériau selon une loi similaire, la "deuxième
loi de Fick",
de la forme:
(32.161)
où la constante de proportionnalité est
le "coefficient de diffusion de la matière" et la
densité de particules par unité de volume (et non la densité de
masse!).
Remarque: En
pratique, la diffusion joue un rôle essentiel dans la fabrication
de céramique, de semi-conducteurs (dopage), de cellules-solaires
et dans la solidification des métaux (traitement au carbone
et à
la chaleur). Car lorsque deux matériaux chauffés
sont mis en contact, leurs atomes diffusent l'un dans l'autre.
Il faut comprendre que tout diffuse dans tout! Donc pensez aux
pesticides sur les fruits et légumes, à la pollution
dans les nappes phréatiques, au PET dans les boissons...
Dès lors, la relation du flux surfacique de chaleur que nous
avions utilisée en thermodynamique (voir chapitre du même nom)
pour obtenir la loi de Fourier et qui était:
(32.162)
peut alors s'écrire certainement aussi (nous allons le
démontrer)
dans le cas de la masse sous la forme d'un flux surfacique de particules
appelé "première loi de Fick":
(32.163)
où D est le coefficient de transport de la matière
(à déterminer...). Nous retrouvons dans la littérature
cette dernière relation fréquemment sous forme unidimensionnelle.
Il vient alors:
(32.164)
Soit sous forme discrète:
(32.165)
Si la variation de distance est mis en correspondant
avec une longueur L parcourue par la diffusion, nous avons alors
la notation encore plus simplifiée:
(32.166)
Pour retrouver la relation connue par les petites
classes de chimie il faut savoir que les chimiste on pour habitude
de noter la densité par la lettre C pour indiquer
qu'il s'agit d'une Concentration. Dès lors, nous avons:
(32.167)
Mais ce n'est pas le seul changement de notation
fait par les chimistes. Effectivement il faut se rappeler que le
flux surfacique de particules (masse) est défini par la
quantité de masse passant par une surface constante par unité de
temps. Nous avons alors:
(32.168)
Comme l'origine du temps est souvent pris comme étant
zéro et que la masse initiale est nulle il vient alors après
réarrangement
le relation classique finale connue par les chimistes et biologistes
(au signe près puisque ce n'est qu'une question de convention):
(32.169)
Exemple:
Les plantes absorbent de l'eau pour la photosynthèse.
Nous savons par mesures expérimentales que la coefficient
de diffusion de l'eau dans l'air est de .
Les pores d'absorption des plantes ont tyiquement une section de
l'odre de .
La distance de diffusion est de l'ordre de .
La densité de vapeur d'eau à l'intérieur de
la plante est de l'ordre de et
à l'extérieur .
Dès lors, la masse d'eau absorbée en une heure est d'environ:
(32.170)
Résultat qui convient d'être multiplié par les millions
de pores qu'a une plante.
Remarque: Au
fait, Fick démontra d'abord la première loi et en
procédant
en tous points de manière identique à l'équation de la chaleur
il obtint la deuxième loi qui porte son nom.
Les coefficients sont
appelés globalement "coefficients
de transport" et respectivement "coefficient
de diffusion thermique" dans le domaine de la chaleur
et "coefficient
de diffusion" dans le domaine de la matière.
Nous pouvons estimer les valeurs de ces coefficients à l'aide
d'un modèle microscopique simple.
Considérons pour cela une tranche de fluide (flux de chaleur
et flux de masse sont considérés comme un fluide) perpendiculaire à l'axe
des x et d'épaisseur où correspond
au libre parcours moyen (projeté selon x), dans laquelle
existe un gradient de concentration dirigé selon l'axe x.
Déterminons le courant de ce gradient à travers la section S d'abscisse x.
Pour faire simple, nous pouvons considérer que, parmi toutes
les particules se trouvant entre l'abscisse et x,
un tiers, ont leur vitesse dirigée selon x (les deux autres
tiers étant sur y et z), et parmi ces dernières,
la moitié a une vitesse positive (finalement nous devons considérer
le 1/6 par direction).
Comme est
le libre parcours moyen, ces dernières particules franchiront la
section S sans avoir subi de collision: elles participeront
donc au courant de diffusion.
Notant la
concentration volumique à l'abscisse (et
considérant que cette concentration est constante entre et x,
ce qui, vu l'ordre de grandeur de ,
est à peu près vérifié), le nombre de particules
se trouvant entre les abscisses et x et
traversant effectivement la section S vaut alors:
(32.171)
Cette traversée prend un temps égal à ,
où est
la vitesse moyenne d'agitation thermique. Par conséquent, la densité de
courant circulant de la gauche vers la droite vaut:
(32.172)
En procédant de la même manière pour les particules se trouvant à droite
de x, nous obtenons pour la densité de courant circulant
de droite à gauche:
(32.173)
La densité de courant totale circulant à travers S vaut
donc:
(32.174)
Or, nous pouvons aussi écrire cela sous la forme:
(32.175)
Si est
très petit, nous pouvons écrire:
(32.176)
Vu les simplifications apportées au modèle, le facteur 3 a toutes
les chances d'être peu réaliste. En revanche, la relation de proportionnalité entre
gradient de concentration et courant de diffusion est tout à fait
crédible, Nous écrirons finalement en généralisant à l'espace:
(32.177)
où D alors donnée par:
(32.178)
est
la constante de diffusion massique. Comme D est positive,
nous constatons que le mouvement de diffusion des particules a
lieu dans le sens opposé au gradient, ce qui tend bien à homogénéiser
les concentrations.
Remarque: Si
nous souhaitons obtenir le flux de charge, il suffit de multiplier
la relation obtenue à gauche et à droite par la charge élémentaire.
Nous pouvons également estimer le flux d'énergie
thermique transportée par
ces mêmes particules selon x. En effet, dans chaque tranche
de fluide, n particules transportent chacune une énergie E correspondant à une
quantité de chaleur Q donnée (selon la loi
de Joule). Nous avons donc un flux surfacique d'énergie dont
la première composante est donnée par le même type de bilan
que les développements précédents:
(32.179)
Nous y trouvons immédiatement la définition de la capacité calorifique
(si nous divisons par la masse nous aurions la capacité calorifique
massique selon ce que nous avons vu dans le chapitre de Thermodynamique).
Ainsi, dans le cas unidimensionnel:
(32.180)
Il y a donc un simple rapport de proportionnalité entre et C.
Remarque: Selon
les auteurs le flux est noté avec le symbole
de la densité de courant, soit  .
Faisons un petit tableau récapitulatif pour les quelques lois
de diffusion démontrées jusqu'à maintenant sur ce site (dans leurs
chapitres respectifs) en utilisant la notation la plus courante
en physique (et non celle des thermodynamiciens...):
Loi de Fourier |
Loi de Fick |
Loi d'Ohm |
Thermodynamique |
Mécanique Statistique |
Électrocinétique |
  |
 |
 |
Densité de courant thermique
T:
température
|
Densité de courant particulaire :
concentration
|
Densité de courant électrique
U:
potentiel électrique
|
:
conductivité thermique |
D: coefficient de diffusion |
:
conductivité électrique |
flux thermique:
 |
flux de particules:
 |
flux de courant électrique:
 |
Tableau: 32.2
- Similitudes des différentes lois de diffusion en physique
MOUVEMENT BROWNIEN
Le mouvement brownien est une description mathématique du mouvement
aléatoire d'une petite impureté organique ou non immergée dans
un fluide et qui n'est soumise à aucune autre interaction que des
chocs avec les petites molécules du fluide environnant. Il en résulte
un mouvement très irrégulier de la grosse particule, qui a été décrit
pour la première fois en 1827 par le botaniste Robert Brown en
observant des mouvements de particules à l'intérieur de grains
de pollen:

Figure: 32.11 -Exemple de mouvement Brownien (source: Wikipédia)
L'origine du mouvement dû aux molécules n'était
pas du tout évidente
au début du 19ème siècle car:
1. Il n'était pas encore communément admis que la matière était
simplement discontinue et donc composée de molécules.
2. On ne comprenait pas même en admettant l'aspect moléculaire
de la matière que quelques molécules soient capables de
déplacer
des impuretés plusieurs millions de fois plus grandes que
celles des molécules du fluide.
3. Même si on admettait l'aspect moléculaire, on ne comprenait
pas qu'une très grande quantité de chocs de milliards de molécules
ne s'annulent pas entre eux et que l'impureté soit finalement immobile
(on verra que cela est dû au fait que la matière n'est pas continue).
Le traitement mathématique du problème utilisant l'aspect moléculaire
et statistique de la matière a été une affirmation pour les scientifiques
partisans de l'aspect atomique de la matière et ouvrit encore une
fois la porte au nouveau domaine de la mécanique statistique déjà un
peu utilisée à l'époque par Maxwell dans le cadre des gaz.
Comme toujours il existe plusieurs modèles mathématiques
et suivant la tradition du présent site Internet nous avons
choisi la plus simple et... ce
n'est pas celle d'Einstein mais celle de Langevin (effectuée
deux ans après dans un souci de simplification).
Le point de départ est le théorème d'équipartition de l'énergie
cinétique (cf. chapitre de Mécanique des
Milieux Continus):
(32.181)
soit pour une particule:
(32.182)
avec pour rappel v qui est la vitesse moyenne! Si nous
simplifions l'analyse à un seul axe de translation possible la
relation devient (nous spécifions maintenant qu'il s'agit
de la moyenne afin de ne pas nous mélanger les pinceaux
avec la suite):
(32.183)
En écrivant ceci nous stipulons donc qu'une particule
en suspension dans un fluide en équilibre thermique possède,
dans la direction x par
exemple, une énergie cinétique moyenne égale à celle
d'une molécule
gazeuse de nature quelconque, dans une direction donnée, à la
même
température. Il s'agit donc à nouveau d'une identité forte
entre les solutions diluées et les gaz parfaits.
Une particule comme celle que nous considérons, grande par rapport
aux molécules du liquide, et se mouvant à la vitesse v par
rapport à celui-ci subit comme nous l'avons pseudo-démontré dans
le chapitre de Mécanique Des Milieux Continus (loi de Stokes) une
résistance
de:
(32.184)
où sera
appelé "coefficient de friction" (correspondant
donc à la viscosité) et où R est
le rayon de la sphère.
Maintenant, écrivons selon l'équation de la dynamique de Newton
(on ne spécifie plus que la vitesse est selon x dans la
notation qui suit):
(32.185)
La force complémentaire ,
introduite par Langevin, est aléatoire (stochastique). On
sait a priori peu de choses d'elle, si ce n'est qu'elle semble
a priori indifféremment
positive ou négative, et que sa grandeur est telle qu'elle
maintient l'agitation de la particule, qui, sans elle, finirait
par s'arrêter
sous l'effet de la résistance visqueuse.
L'équation précédente multipliée par x, peut s'écrire
encore:
(32.186)
Elle est alors appelée "équation
de Langevin" ou "équation
stochastique de Langevin".
Or, rappelons que (cf. chapitre de Calcul
Différentiel Et Intégral):
(32.187)
d'où:
(32.188)
En établissant cette dernière relation, nous avons aussi montré que:
(32.189)
Nous pouvons alors écrire:
(32.190)
et aussi:
(32.191)
Si nous prenons la moyenne (nous changeons de notation pour la
moyenne car la barre n'est pas très adaptée esthétiquement parlant
lorsqu'il y a des puissances):
(32.192)
Nous posons maintenant que:
(32.193)
en d'autres termes nous pouvons voir cela comme le travail moyen
de la force aléatoire qui est nul.
Il reste alors:
(32.194)
Posons:
(32.195)
Nous avons alors:
(32.196)
Et comme:
(32.197)
Donc:
(32.198)
Soit autrement écrit:
(32.199)
Il s'agit donc d'une équation différentielle à coefficients
constants d'ordre 1. Nous avons démontré dans le
chapitre de Calcul Différentiel
Et Intégral que la solution homogène était:
(32.200)
où la valeur de C nous importe peu car ce terme va de
toute façon disparaître dans les développements qui vont suivre.
La solution particulière peut être déterminée simplement par la
contrainte au temps zéro:
(32.201)
Soit après dérivation et avoir posé donne:
(32.202)
Une solution triviale simple est alors:
(32.203)
Nous avons alors:
(32.204)
Or après très peu de temps le terme en exponentielle devient
quasiment nul. Nous avons donc en régiment permanent:
(32.205)
Soit:
(32.206)
où D est appelé "coefficient
de diffusion" (comme en thermodynamique). Nous remarquons
dès lors que la position moyenne de la distance x parcourue
est in extenso proportionnelle à la racine carrée
du temps. Einstein avait appliqué un exemple numérique avec des
particules en suspensions d'un rayon d'un millième de millimètre
avec une eau à 290 [K] et trouva ainsi un déplacement
moyen de six millièmes de millimètre en une minute.
La relation (où il convient de ne pas confondre le R du
rayon de la particule en suspensions au dénominateur avec
le R de la constante des gaz parfaits au numérateur):
(32.207)
est parfois appelée "relation
de Sutherland-Einstein" (car
William Sutherland l'a découverte en Australie pratiquement
au moment où Einstein écrivait cette même relation dans
sa thèse) et que l'on retrouve aussi fréquemment
sous la forme suivante (où k est pour rappel la
constante de Boltzmann):
(32.208)
Einstein avait ainsi trouvé une relation qui offrait la possibilité
de calculer le rayon R des atomes avec un thermomètre,
un microscope et un chronomètre pour seuls instruments. Le physicien
Jean Perrin reçut le prix Nobel pour la vérification expérimentale
de ce résultat.
Le lecteur remarquera, que si nous avions faire les mêmes développements
que précédemment, mais en divisant à gauche et à droite l'équation
différentielle:
(32.209)
par m nous aurions eu comme résultat
(considéré à juste titre comme plus général):
(32.210)
La méthode de Langevin redonne le même résultat que le premier
modèle proposé par Einstein deux ans plus tôt et que le deuxième
modèle deux ans plus tard.
On peut se demander jusqu'à quel point la relation de Sutherland-Einstein
prouve l'existence de molécules. Autrement dit, que serait la limite
du coefficient de diffusion D si la nature était continue,
c'est-à-dire si le nombre d'Avogadro était infini?
Nous pressentons bien évidemment alors que D s'annulerait,
et que le déplacement de diffusion brownien disparaîtrait tout
simplement dans cette limite. Autrement dit, le mouvement brownien
cesserait
immédiatement
si la Nature était continue! Ce qui est un résultat remarquable
de preuve de l'aspect discret de la nature!

- Physique statistique, B.
Diu + C. Guthmann + D. Lederer + B. Roulet Éditions Hermann,
ISBN10: 2705660658 (1001 pages) - Imprimé en
1989
10 1 |
Commentaires:
Warning: mysql_connect() [function.mysql-connect]: [2002] Connection refused (trying to connect via tcp://crawl427.us.archive.org:3306) in /home/www/f9f6c3f0bb515fb7fa59d2c99a31acd3/web/htmlfr/php/commentaires/config/fonctions.lib.php on line 46
Warning: mysql_connect() [function.mysql-connect]: Connection refused in /home/www/f9f6c3f0bb515fb7fa59d2c99a31acd3/web/htmlfr/php/commentaires/config/fonctions.lib.php on line 46
Warning: mysql_select_db() expects parameter 2 to be resource, boolean given in /home/www/f9f6c3f0bb515fb7fa59d2c99a31acd3/web/htmlfr/php/commentaires/config/fonctions.lib.php on line 47
Warning: mysql_query() expects parameter 2 to be resource, boolean given in /home/www/f9f6c3f0bb515fb7fa59d2c99a31acd3/web/htmlfr/php/commentaires/config/fonctions.lib.php on line 50
Warning: mysql_fetch_array() expects parameter 1 to be resource, null given in /home/www/f9f6c3f0bb515fb7fa59d2c99a31acd3/web/htmlfr/php/commentaires/config/fonctions.lib.php on line 51
[] 
Warning: mysql_close() expects parameter 1 to be resource, boolean given in /home/www/f9f6c3f0bb515fb7fa59d2c99a31acd3/web/htmlfr/php/commentaires/config/fonctions.lib.php on line 58
|
|