
PRINCIPES
| MÉCANIQUE ANALYTIQUE
| MÉCANIQUE
CLASSIQUE
MÉCANIQUE
ONDULATOIRE | MÉCANIQUE
STATISTIQUE | THERMODYNAMIQUE
MÉCANIQUE DES MILIEUX CONTINUS
Dernière mise à jour de ce chapitre:
2017-12-31 18:03:23 | {oUUID 1.818}
Version: 3.5 Révision 33 | Avancement:
~70%
vues
depuis
le 2012-01-01:
30'454
LISTE DES SUJETS TRAITÉS SUR CETTE PAGE
La "thermodynamique"
est la partie de la physique qui traite des relations permettant
de déterminer formellement les échanges (variations)
d'énergie
sous forme de travail mécanique et
de chaleur dans le cadre de l'étude
des transformations des 4 états de la matière (mais
principalement des gaz parfaits dans le cadre scolaire) sous la
base d'hypothèses simplificatrices entre un système
(isolé, ouvert
ou fermé) et son environnement extérieur.
Les objectifs principaux de la thermodynamique sont:
1. Avec un minimum de variables de
pouvoir déterminer
l'état et les échanges énergétiques
d'un système sous des contraintes
prédéfinies et souvent considérées
comme idéales... (il y a à peu près une différence
de 5% entre les valeurs théoriques et celles qui sont mesurées) et
entre états d'équilibre et donc sans faire interevenir le temps
2. De trouver les "variables
d'état" (définissant l'état
du système étudié à l'équilibre thermodynamique),
telles que ces différentes
informations puissent être obtenues en ne connaissant dans
l'idéal que l'état final et initial
du système.
3. De se débrouiller à ramener les équations
toujours à une forme
mettant en évidence des variables (variations) facilement
mesurables dans la pratique.
Nous verrons plus loin
que tout système peut au point de vue énergétique être décrit
par:
- Son volume, sa masse, sa pression, sa
température,...
- Son énergie potentielle,
son énergie
cinétique, son potentiel chimique,...
- Ses propriétés physiques comme la capacité à absorber la chaleur,
à irradier, ...
Attention!! Bien que la puissance prédictive théorique
des équations
de la thermodynamique soit passionnante à mettre en pratique,
cette théorie est au final malheureusement (et forcément)
une jungle d'équations à cause du nombre de combinaisons
possibles des quelques paramètres que nous pouvons choisir à loisir
comme fixes ou variables dans la pratique. Alors courage et
n'oubliez pas que c'est en forgeant qu'on devient forgeron!
Remarques:
R1. Il est très difficile de présenter la thermodynamique
d'une manière pédagogique purement linéaire
au contraire des autres domaines de la physique. Le plan de ce
chapitre
est donc actuellement
un vrai mélimélo de notions qui seront parfois
définies
préalablement et d'autres qui ne le sont que bien plus
tard dans le texte. Le lecteur aura donc compris que ce chapitre
nécessite
dans sa forme actuelle une restructuration majeure pour arriver
à maturité et cela sera fait
dans
un avenir plus ou
moins longtemps...
R2. Ce chapitre contient peu d'exemples pratiques classiques
et scolaires car les hypothèses nécessaires pour
pouvoir appliquer les équations théoriques de le
thermodynamique sont tellement contraignantes et même absurdes
que l'exemple perd tout son intérêt (et pourtant
la majorité des exemples/exercices dans les écoles
d'ingénieurs et universités sont de ce type...).
R3. De nombreux auteurs font des "preuves" ou "démonstrations"
(en utilisant leurs propres mots) uniquement avec des figures
ou schémas dans le domaine dethermodynamique. Nous avons voulu
absolument éviter cela sachant
qu'un schéma
ou une
figure
n'est
en rien une démonstration mais seulement une illustration d'une
idée...
VARIABLES THERMODYNAMIQUES
En thermodynamique, il existe plusieurs concepts majeurs très
utiles suivant le type de système maintenu ou laissé en
libre évolution
étudié et les moyens de mesure à disposition.
Nous souhaitons ici donner les définitions les plus importantes
et nous démontrerons si possible leur provenance plus tard
sachant qu'il est très difficile d'avoir une
présentation purement linéaire de la thermodynamique
(comme déjà mentionné!).
Définitions:
D1. Un "système" est
un corps ou un groupe de corps subissant ou non des évolutions
et qui constitue un ensemble
bien défini et
bien délimité dans l'espace et entouré par
le milieu extérieur.
L'ensemble système/milieu extérieur est dénommé "univers".
D2. Le "travail", noté W ,
est l'énergie
associée à la valeur
ou au changement de la dynamique d'un système par l'agissement
de forces mécaniques diverses (d'où le choix du terme "travail"...).
D3. La "chaleur" ou "énergie
calorifique",
notée Q,
est l'énergie associée à la
valeur ou au changement de la dynamique d'un système dû à l'agitation
moyenne des molécules (énergie cinétique moyenne).
D4. "L'énergie
totale" d'un système, notée E,
est la somme de toutes les énergies
qui spécifient ce système par rapport à son
centre de masse (moment d'inertie, de masse, énergie cinétique
interne,...) et aussi (!) par rapport à un référentiel
extérieur (énergie cinétique,
énergie potentielle, rayonnement entrant).
D5. "L'énergie externe" qui est liée à la position du système
comme l'énergie cinétique ou l'énergie potentielle (gravitationnelle/électrostatique).
D6. "L'énergie interne" d'un
système, notée U, est
la somme de tous les types d'énergies
internes qui le distinguent uniquement par rapport à son
centre de masse tels que le travail W échangé avec
l'extérieur, la chaleur Q échangée
(énergie cinétique moyenne interne),
l'énergie
de masse (relativiste, nucléaire), le moment d'inertie...
De nombreux ouvrage de vulgarisation montrent qu'à ce point
de notre étude de la physique nous avons typiquement comme énergie
totale d'un corps considérée et donc comme énergie
interne:
(33.1)
D7. Les "énergies échangées" qui sont dones les énergies qui sont
échangées avec l'extérieur. Les plus courantes sont le travail
mécanique W et la chaleur Q précédemment
définies.
D8. "L'entropie",
notée S, permet
de quantifier la
qualité et le sens d'évolution de l'énergie
d'un système. Nous
démontrerons que l'entropie d'un système isolé ne
peut que croître.
D9. "L'enthalpie", notée H,
est la quantité de chaleur, reçue par un système
qui évolue à pression constante (isobare). En chimie
ce concept est très utile, car dans une transformation chimique
(ou d'état physique) une partie de l'énergie injectée
aura juste servie à repousser
l'atmosphère ambiante lors du changement de volume dans
la transformation. Ainsi, l'enthalpie rajoute à l'énergie
interne U un
terme correctif prenant en compte l'énergie
emmagasinée/perdue par la pression environnante qui compresse
le système
(s'il est compressible...).
D10. "L'énergie libre" ou "énergie
de Helmholtz", notée F, caractérise
la fraction d'énergie
interne utilisable sous forme de travail. Elle est simplement la
différence
entre l'énergie
interne et l'énergie calorique dissipée à cause
de l'entropie à une température donnée.
D11. "L'enthalpie libre"
ou "énergie
libre de Gibbs",
notée G, caractérise la fraction d'enthalpie
disponible sous forme de travail. Elle est simplement la différence
entre l'enthalpie et l'énergie
calorifique dissipée à cause de l'entropie à une
température donnée.
Pour résumer, dans l'ordre d'apparition et d'importance
nous avons les types d'énergie suivant:
Symbole |
Légende |
W |
travail |
Q |
chaleur |
P |
pression |
T |
température absolue |
V |
volume |
E |
énergie totale |
U |
énergie interne |
S |
entropie |
H |
enthalpie |
F |
énergie libre |
G |
enthalpie libre |
Tableau: 33.1
- Différentes grandeurs thermodynamiques
Indiquons que nous ne reviendrons pas sur le concept
de température T qui
est comme nous l'avons vu en Mécanique Des Milieux Continus
(théorème
du Viriel) et en Mécanique Statistique (rayonnement du
corps noir), un paramètre
qui permet de relier avantageusement le mouvement moyen de différents
corps avec leur énergie cinétique moyenne (sous-entendu
leur "excitation" ou "désordre")
ou respectivement le rayonnement de certains corps avec leur énergie
d'émission.
Mais rappelons quand même l'origine du zéro Kelvin,
car c'est une question redondante sur le web:
Nous avons démontré dans le chapitre de Mécanique
des Milieux Continus qu'à pression P constante
(système "isobare"),
le volume d'une quantité fixée de gaz parfait est
proportionnel à la
température absolue. C'est la "loi
de Gay-Lussac" (dans le cas des gaz parfaits...!):
(33.2)
et nous y avons alors mentionné que les
mesures expérimentales donnent alors une droite, qui extrapolée
(un peu brutalement...) dans les valeurs négatives de
la température
en Celsius donne un volume nul pour un gaz parfait (en négligeant
les aspects quantiques à cette frontière...) à une
température
systématiquement de -273.15 [°C]:

Figure: 33.1 - Représentation de la loi de Gay-Lussac avec la pression
d'où le choix confortable de poser le 0
[K]
à cette valeur et de redéfinir une nouvelle échelle
de températures.
Par ailleurs, une difficulté est de parler
de variation de température, lorsque par exemple nous étudions
la sensibilité
de l'eau à passer de la phase solide à la phase
liquide. Nous observons
effectivement expérimentalement qu'il suffit dans des
conditions idéales de laboratoire de passer de -0.1 °C à +0.1 °C
pour observer le passage de changement qualitatif de l'eau de
l'état solide
à liquide. Parler alors de sensibilité en % de
température
est difficile avec l'échelle traditionnelle dans le cas
présent.
Mais si nous parlons en échelle absolue alors cela correspond
au passe d'une température de 273.05 à 273.25 [K],
soit une sensibilité de transition de phase pour l'eau
de 0.1% en température autour de son point de fusion.
SYSTÈMES
THERMODYNAMIQUES
D'une manière générale, un
système thermodynamique est l'ensemble des corps situés à l'intérieur
d'une surface fermée imaginaire et souvent considérée
comme extensible sans déperdition d'énergie que
nous appelons "frontière".
La frontière peut aussi sous indication de ses caractéristiques
être matérielle!
Signalons que la frontière peut se limiter à une surface élémentaire
dS associée avec son vecteur normal enveloppant
une particule fluide (voir le chapitre de Génie Météo
pour un bon exemple!). Nous l'appelons dans ce cas "frontière
particulaire".
Il est souvent intéressant
en thermodynamique, de faire le bilan des énergies qui sont transférées
entre le système thermodynamique et le milieu extérieur, c'est-à-dire
de considérer tout ce qui traverse la frontière.
Les principaux transferts (mais pas les seuls!) susceptibles
d'être
opérés
sont:
1. Le "transfert-travail" W:
Travail (mécanique) macroscopique ordonné effectué par
une force sur une distance. Quand aucun transfert-travail (énergie)
n'est opéré à l'échelle macroscopique,
le système
est dit "système
sans travail".
2. Le "transfert-chaleur" Q:
Énergie provenant de la variation du nombre de micro-états
à l'échelle microscopique. Quand aucun transfert-chaleur
(énergie)
n'est opéré à l'échelle microscopique,
le système
est dit "système
adiabatique", dans le cas contraire il est dit "diatherme".
3. Le "transfert
de masse" M: Masse injectée dans le
système. Quand aucun transfert
de masse n'est opéré, le système est dit "système
fermé".
Définitions:
D1. Un "système isolé" ne
peut échanger
ni travail, ni chaleur, ni masse avec le milieu extérieur.
D2. Un "système
ouvert" peut échanger du travail, de la chaleur
et de la masse avec le milieu extérieur.
D3. Un "système
fermé" peut échanger du travail et de
la chaleur mais pas de matière avec le milieu extérieur.
Remarques:
R1.
Certains systèmes comptabilisent un bilan des actions extérieures
qui leur sont appliquées nul. Ils sont alors dits "pseudo-isolés".
R2. Nous parlons de "système
homogène" si la nature de ses constituants est égale
en tout point, alors qu'il est un "système
uniforme" ou "système
isotrope" si ses caractéristiques sont égales
en tout point.
TRANSFORMATIONS THERMODYNAMIQUES
Une "transformation thermodynamique" est
l'opération au cours de laquelle l'état du système se modifie en
passant d'un état initial à un état final.
Nous en distinguons au moins de deux types:
1. La "transformation thermodynamique
quasi-statique" qui amène un système
d'un état
initial à un état final à travers une succession
d'états qui sont exclusivement des états d'équilibre.
2.. Les transformations où toutes les variables d'état
changent simultanément sont appelées "transformations
polytropiques".
Il est possible que certaines variables restent constantes
lors d'une transformation thermodynamique. Dans ce cas, nous utilisons
une dénomination bien spécifique:
Symbole |
Légende |
Dénomination |
P |
pression |
isobare |
T |
température |
isotherme |
V |
volume |
isochore |
U |
énergie interne |
isoénergétique |
S |
entropie |
isentropique |
H |
enthalpie |
isenthalpique |
Q |
chaleur |
adiabatique |
G |
enthalpie libre (énergie de Gibbs) |
extensive |
Tableau: 33.2
- Dénomination des grandeurs constantes
Remarques:
R1. Les études
isobares sont d'un intérêt pratique important puisque
tous les systèmes en contact avec l'atmosphère
sont souvent, à l'équilibre, naturellement ou
de manière
forcée à pression
constante (c'est-à-dire à la même pression
que l'atmosphère
environnante!) dans les laboratoires.
R2. Il est difficile de construire réellement des transformations
isothermes utiles. Le maintient de la température exige
un excellent contact thermique et un temps de réacction
assez long pour garder la température uniforme. Ce type
de transformation sera donc, dans le monde réel, assez
lent. Attention! Une transformation adiabatique peut être
réversible ou irréversible, alors qu'une transformation
isotherme est forcément réversible pour la gaz
parfaits.
R3. Beaucoup de transformations réelles sont considérées comme
adiabatiques. Il suffit pour cela que le contenant soit très
bien isolé ou même que la transformation soit assez rapide pour
que les échanges thermiques soient négligeables.
Nous distinguons également deux cycles de transformations thermodynamiques
principaux qui sont:
1. Le "cycle thermodynamique fermé":
le système décrit une suite de transformations telles que
l'état
final et l'état initial de la transformation est identique
et que la quantité et les propriétés des éléments
participants au cycle sont toujours les mêmes.
2. Le "cycle thermodynamique ouvert":
le système décrit une suite de transformations telles que
l'état
final et l'état initial de la transformation est identique
et que la quantité et les propriétés des éléments
participants au cycle ne sont pas toujours les mêmes
VARIABLES
D'ÉTAT
Définition: "L'état
thermodynamique" d'un système est l'ensemble
des propriétés
qui le caractérisent, indépendamment de la forme
de sa frontière. Les variables qui décrivent l'état
du système
en ne connaissant que
l'état final et initial de celui-ci sont appelées principalement
"fonctions d'état" ou
fréquemment "variables
d'état" et encore parfois "grandeurs
d'état"...
Remarque: Certaines
fonctions d'état jouent un rôle
particulier dans la définition des états d'équilibre
d'un système. Ce sont des grandeurs accessibles, à l'échelle
macroscopique, directement ou indirectement grâce à des
instruments de mesure. Ces fonctions d'état particulières
(comme la pression, la température, le volume, etc.) sont appelées
"variables d'état
d'équilibre
d'un système thermodynamique".
La définition précédente
suppose implicitement l'existence d'un état et des variables
d'état,
c'est-à-dire que les grandeurs caractéristiques du système
sont définies (ou théoriquement accessibles dans
le sens de la mesure)
à tout instant et en tout point du système. Ceci est loin d'être
évident si nous considérons des évolutions
rapides telles comme des explosions.
Cette difficulté peut être éludée en se retranchant
derrière "l'hypothèse de l'état
local":
Nous supposons qu'à tout instant, les grandeurs caractéristiques
ont localement les mêmes expressions que dans une configuration
stationnaire, ce qui sous-entend que les temps nécessaires
aux changements d'état
sont négligeables devant les durées caractéristiques
de l'évolution.
Le choix des variables d'état
dépend de la nature du problème traité. Nous pouvons néanmoins séparer
l'ensemble de ces variables d'état en:
1. Des variables d'état dites "grandeurs
extensives", proportionnelles à la quantité de
matière et donc au nombre d'atomes/molécules
du système
servant à les
définir
(donc elles sont additives). C'est typiquement le cas de
la masse, le volume, l'entropie,...
2. Des variables d'état dites "grandeurs
intensives", indépendantes de la quantité de
matière
(donc par extension, non additives). C'est typiquement le cas de
la pression, la température, l'énergie
...
D'une manière
générale, une variable intensive dépend du
point envisagé dans le système étudié
(température, concentrations peuvent varier d'un point
à l'autre) alors que la grandeur extensive est définie
sur la globalité du système.
Montrons maintenant avec un exemple particulier que le rapport
de deux variables extensives est une grandeur
intensive. Pour cela, rappelons la loi des gaz parfaits (cf.
chapitre de Mécanique
Des Milieux Continus) qui est donc une équation d'état (nous
reviendrons sur les équations d'état en détails plus tard):
(33.3)
qui comprend donc trois variables thermodynamiques P, V et T (ce
qui laisse à choix deux variables de contrôle et indépendantes
et une variable dépendante).
Nous pouvons calculer la
concentration C (à ne pas confondre
avec la notation de la capacité calorifique que nous verrons
plus loin!), qui est donc une grandeur intensive, par le rapport
de deux grandeurs extensives n,
V:
(33.4)
Les variables d'état possèdent
par ailleurs une propriété particulière:
leurs variations ne dépendent pas de la nature de la transformation
qui affecte le système mais uniquement de l'état
final et initial du système à l'équilibre
(ce qui est très utile en pratique...!). Il s'agit du concept
d'intégrale
de chemin que nous avons déjà traité en détail
dans le chapitre de Mécanique
Classique et de Calcul Différentiel Et Intégral.
Citons les grandeurs extensives et intensives les
plus courantes en thermodynamique:
Symbole |
Légende |
Grandeur |
P |
pression |
intensive |
T |
température |
intensive |
V |
volume |
extensive |
E |
énergie totale |
extensive |
U |
énergie interne |
extensive |
S |
entropie |
extensive |
H |
enthalpie |
extensive |
F |
énergie libre |
extensive |
G |
enthalpie libre |
extensive |
Tableau: 33.3
- Grandeurs extensives et intensives courantes
À l'opposé, le travail W et la chaleur Q ne
sont pas des variables d'état, car elles dépendent
de la nature de la transformation. Néanmoins
il existe des cas particuliers où la chaleur et le travail
ne dépendent
plus du chemin suivi lorsque les transformations s'effectuent
soit à pression constante, soit à volume
constant (nous verrons cela plus loin).
PHASES
Définition: Un système
dans lequel les différentes grandeurs intensives varient
de façon continue constitue une "phase".
Nous pouvons donc considérer
que toute grandeur intensive dépend
des coordonnées du point envisagé:
le système est constitué par une seule phase
si la grandeur intensive
est continue dans tout le système.
C'est le cas des gaz, des liquides et de certains solides constituant
des solutions solides.
Si la grandeur intensive présente une discontinuité (ou
plusieurs), le système
est dit "polyphasique". Cependant,
si les grandeurs intensives
ont même
valeur en tout point du système, la phase est
dite "phase uniforme":
le système
a alors même température, pression, composition en
chacun de ses points.
Pour un système
homogène, il peut être commode de ramener les variables extensives
à l'unité de masse. Nous parlons alors de "grandeurs
massiques"
(ou "spécifiques"), généralement notées en minuscules.
Nous utilisons si possible pour éviter toute confusion les règles
de notation suivantes:
- Toute grandeur non massique
est représentée par une lettre latine majuscule
- Toute grandeur massique (très utilisée en chimie!)
est représentée par une lettre latine minuscule
Dans le cas contraire, nous spécifierons de quel type
de variable il s'agit.
ÉQUATIONS D'ÉTAT
En physique, et plus particulièrement
en thermodynamique, "l'équation
d'état" d'un système à l'équilibre
thermodynamique est une relation entre différents paramètres
physiques, appelés donc les "variables d'état" déjà traitées
au début de ce chapitre, qui déterminent son état.
Il peut s'agir par exemple d'une relation entre sa température,
sa pression et son volume. À partir de l'équation
d'état caractéristique d'un système physique,
il est possible de déterminer la totalité des quantités
thermodynamiques décrivant ce système et par suite
de prédire ses propriétés.
Les équations d'état sont généralement
restreintes à un type de comportement ou de phénomènes
physiques donnés. Un même corps peut donc avoir plusieurs équations
d'état, concernant par exemple son état magnétique
ou son état thermodynamique.
Pour qu'un corps puisse être caractérisé par
une équation d'état à un instant donné,
il faut que l'état de ce corps dépende uniquement
des valeurs prises par les paramètres à cet instant.
Les corps présentant un phénomène d'hystérésis
ne peuvent donc pas être caractérisés par une équation
d'état.
ÉQUATION D'ÉTAT D'UN GAZ PARFAIT
Nous avons démontré dans le chapitre de Mécanique
Des Milieux Continus que l'équation d'état d'un gaz
parfait était (relation déjà introduite une peu fortuitement
plus haut):
(33.5)
Soit:
(33.6)
et l'équation d'état des gaz réels
(aussi démontrée dans le chapitre de Mécanique Des Milieux Continus):
(33.7)
Pour déterminer des équations d'état
particulières et idéalisées des solides et
liquides, il faudra d'abord introduire plusieurs coefficients permettent
de caractériser certaines propriétés globales
de milieux continus.
Ces coefficients doivent être définis avec précaution,
dépendant de la façon dont on les mesures, c'est-à-dire
dépendant de ce qui est réellement mesuré.
Prenons, par exemple, le concept de compressibilité (volumique)
d'un échantillon. Il est raisonnable de dire que l'idée
sous-jacente est la mesure du changement de volume sous un changement
de pression. Si la pression augmente, le volume diminuera, il apparaît
donc raisonnable de définir un coefficient de compressibilité par:
(33.8)
où le signe "-" sert à garantir
un positif
dans le cas d'une compression.
Mais cette définition ne veut rien dire. Nous n'y avons
pas spécifié les conditions dans lesquelles les mesures
sont prises. Clairement, nous augmentons (ou diminuons) la pression
mesurée à l'aide d'un manomètre par exemple
et nous mesurons avec une règle (!) le changement de volume
qui en résulte. Cela semble simple, mais c'est incomplet.
Si nous augmentons la pression assez vite, le volume va diminuer
mais la température va augmenter. Mesure-t-on le changement
de volume immédiatement ou attend-on que la température
soit redevenue celle qu'elle était en plaçant l'échantillon
en contact thermique avec un thermostat avant de mesurer le changement
de volume. Dans ce dernier cas, la mesure aura été faite à température
constante.
En d'autres termes, mesure-t-on le changement de volume d'un réceptacle
en contact thermique parfait avec son environnement extérieur
(nous lui laissons le temps d'aller à l'équilibre)
ou isolé thermiquement de cet environnement. C'est très
différent!
De plus, V étant une variable extensive, il y aura avantage à définir
la compressibilité comme une quantité intensive, c'est-à-dire
indépendante de la quantité de gaz considéré (ici
isothermique), ce qui rend plus facile la construction des tables
de valeur. Nous avons alors intuitivement la définition suivante
du "coefficient de compressibilité (relative) isothermique":
(33.9)
sur lequel nous reviendrons un peu plus tard.
De la même manière intuitive, nous pouvons
définir le "coefficient de dilatation
(relative) volumique isobare"
(appelé plus rarement "coefficient de compression (relative) volumique
isobare"):
(33.10)
sur lequel nous reviendrons aussi un peu plus tard.
Ainsi, par exemple, pour un gaz parfait il vient:
(33.11)
Nous verrons un peu plus tard une autre approche
pour retrouver cette égalité.
ÉQUATION D'ÉTAT D'UN LIQUIDE
Maintenant les variables d'état (macroscopiques) d'un liquide
sont assez trivialement son volume V, sa pression P et sa température
T. Son équation d'état peut alors par exemple se
mettre aussi sous la forme:
(33.12)
Sous forme différentielle cela donne:
(33.13)
En introduisant les coefficients thermoélastiques
comme nous l'avons déjà fait plus haut, il vient:
(33.14)
L'expérience montre que pour les liquides,
les coefficients thermoélastiques varient très peu
avec la température et la pression (oui... l'expérience
c'est quand même utile parfois...). Nous pouvons donc les supposer
constants, pourvu que les variations de la température
et de la pression restent modérées. Comme par ailleurs
les variations de volume d'un liquide sont très faibles,
nous pouvons faire la même approximation que celle démontrée
dans le chapitre de Mécanique Des Milieux Continus avec
la déformation vraie longitudinale. C'est-à-dire
que:
(33.15)
où est
le volume de référence constant. Compte tenu de ces
remarques, nous obtenons trivialement par intégration l'équation
d'état générale d'un liquide:
(33.16)
Remarquons que l'approximation d'un fluide incompressible,
très utilisée en mécanique des fluides, consiste à supposer
que:
(33.17)
L'équation d'état du liquide devient
alors:
(33.18)
Indiquons aussi que dans les petites classes, les
solides sont considérés comme des liquides incompressibles.
Nous avons alors la fameuse relation connue de nombreux écoliers:
(33.19)
ou autrement écrit:
(33.20)
Ces deux dernières relations sont exactement
les mêmes que la formulation technique de loi Gay-Lussac
pour les gaz (cf. chapitre de Mécanique
Des Milieux Continus).
Nous pouvons refaire le même raisonnement avec
un élément de longueur mais en définissant
un autre coefficient thermoélastique linéique. Dès
lors, il vient une autre fameuse relation connue de nombreux écoliers:
(33.21)
Nous pouvons alors déterminer la relation
entre et (qui
sont tous deux de beaucoup inférieur à l'unité).
Effectivement pour un cube de côté L, nous
avons:
(33.22)
et donc il vient:
(33.23)
Nous avons par exemple pour l'eau à température
ambiante:
(33.24)
Exemple:
Un réservoir de volume V, aux parois
supposées indéformables, est complètement
rempli d'eau initialement à l'équilibre thermodynamique à la
pression initiale de
1 [bar] et à la température initiale de
298 [K]. Après avoir reçu une certaine
quantité de chaleur, le liquide atteint un nouvel état
d'équilibre thermodynamique, à la température
de 398 [K]. Nous avons alors puisque ,
l'équation d'état du liquide qui se réduit à:
(33.25)
Soit après réarrangement:
(33.26)
ÉQUATION D'ÉTAT D'UN SOLIDE
Considérons maintenant le cas particulier
d'une poutre (ou d'un fil), composée d'un solide élastique.
Les variables d'état typiques du système sont alors
sa longueur L, sa température T et la force de tension F (positive dans le cas de la traction et négative dans le
cas de la compression). L'équation d'état se met
donc sous la forme différentielle suivante:
(33.27)
Par analogie avec le coefficient de dilatation volumique
isobare , nous définissons le "coefficient
de dilatation linéique":
(33.28)
Par ailleurs, nous avons démontré dans
le chapitre de Mécanique Des Milieux Continus, que pour
un essai de traction (sans composante tangentielle) isotherme effectué sur
un solide élastique nous avions (implicitement c'est la loi
de Hooke pour rappel):
(33.29)
Mais nous pouvons aussi utiliser la déformation
vraie longitudinale après quoi il faut évidemment
adapter le terme de droite en conséquence:
(33.30)
Il vient alors:
(33.31)
L'équation d'état du solide peut
alors s'écrir en y injectant cette dernière relation:
(33.32)
Cette relation nous donne donc la variation d'allongement
relative correspondant à une variation infinitésimale
de la force de tension et de la température, connaissant
le coefficient de dilatation linéique.
L'équation d'état ci-dessus s'intègre facilement
en supposant que le coefficient de dilation linéique, le
module de Young et la surface de section sont constants:
(33.33)
Si les déformations sont très faibles,
nous avons démontré dans le chapitre de Mécanique
Des Milieux Continus que la variation relative d'allongement pouvait
s'écrire:
(33.34)
Nous avons alors l'équation d'état
qui s'écrit:
(33.35)
Donc après intégration:
(33.36)
Exemple:
Une poutre cylindrique en acier de rayon de 15 [mm]
est initialement dans un état d'équilibre thermodynamique
caractérisé par
une longueur initiale de 1 [m] à la température
initiale de 300 [K] et une force de tension initiale
nulle. La poutre est
chauffée jusqu'à un nouvel état d'équilibre
pour lequel sa température finale est de 400 [K]. Pour calculer
sa nouvelle longueur sous l'hypothèse particulière
que la poutre est libre de tout mouvement et que la déformation
est considérée comme faible:
(33.37)
Soit:
(33.38)
Si la poutre est par contre encastrée des
deux côtés, nous pouvons alors calculer la force de
tension interne générée sous l'hypothèse
des petites déformations. Nous utilisons alors:
(33.39)
Soit:
(33.40)
Nous voyons la un phénomène bien connu en construction
mécanique: la déformation d'origine thermique d'un
solide est généralement très faible, mais
l'empêcher peut générer des efforts énormes,
susceptibles de détruire un mécanisme.
PRINCIPES
DE LA THERMODYNAMIQUE
Les principes
de la thermodynamique sont les briques de la mécanique énergétique
ou thermique.
Chaque principe implique une grande quantité de concepts que nous
essaierons de présenter et définir au mieux. C'est la partie "sensible"
de ce domaine de la physique.
La thermodynamique est basée sur quatre principes fondamentaux
(dont certains sont démontrables):
P0. Le "principe
zéro de la thermodynamique" ou "principe
de l'équilibre thermique" est défini
par le fait que si
deux systèmes thermodynamiques 1 et 2 sont en équilibre
thermodynamique avec un troisième 3, ils sont eux-mêmes
en équilibre thermodynamique (il s'agit d'une "assertion"
dans le langage de la théorie de la démonstration).
Donc si deux corps en contact sont en équilibre thermique,
ils ont la même température et donc que l'état reste
stationnaire. Deux corps à même température
en contact sont en équilibre
thermique.
Remarque: Nous avons utilisé ce principe implicitement
(lorsque nous avons énoncé que l'état d'équilibre était le plus
probable) dans le chapitre de Mécanique
Statistique pour démontrer la loi de Boltzmann.
P1. Le "premier
principe de la thermodynamique" ou "principe
de conservation" concerne le caractère conservatif
de l'énergie et énonce qu'au cours d'une transformation
quelconque d'un système, la variation de
son énergie totale est égale à la somme des variations
de tous les types d'énergie le définissant:
(33.41)
Si le système est isolé la variation
d'énergie
totale sera bien évidemment toujours nulle!
Remarque: Suivant les auteurs, l'énergie
cinétique et l'énergie potentiel font partie intégrant de l'énergie
interne U.
Bien évidemment, lorsque le système étudié
(le conteneur et son contenu) est dans
le même référentiel que l'observateur, il ne
nous reste plus que le terme de variation d'énergie interne:
(33.42)
ou en termes différentiels:
(33.43)
Reste à déterminer l'expression exacte de la variation
d'énergie
interne U et des variables dont elle dépend (développements
que nous ferons un peu plus loin).
Remarque: Ce
principe est démontrable si nous acceptons le théorème de Noether
(cf. chapitre Principes) d'invariance
dans le temps des lois de la physique comme un
principe supérieur.
P2. Le "deuxième
principe de la thermodynamique" appelé aussi "principe
de Carnot-Clausius" ou encore "principe
d'évolution" concerne
le caractère d'irréversibilité et est associé au
concept d'entropie. Ce principe énonce que la chaleur
ne peut passer d'elle-même
que d'un corps chaud à
un corps moins chaud (ou qu'un corps va inexorablement refroidir).
L'opération
inverse nécessitant
l'apport de travail mécanique pris sur le système extérieur
ce qui est donné par la relation (démontrée
un peu plus loin):
(33.44)
Le terme de gauche de l'égalité nous dit que
l'entropie ne peut qu'augmenter et que pour cela, l'échange
de quantité chaleur
avec le système extérieur est toujours positif (numérateur
du terme
de
droite
de l'égalité). Donc le corps fournit de la chaleur
au système extérieur
et refroidit inexorablement.
La notation particulière est
ici pour indiquer que la chaleur est une différentielle totale
inexacte. Il s'agit d'un concept sur lequel nous reviendrons plus
loin.
Remarque: Nous
démontrerons grossièrement... cette relation plus
loin en utilisant la loi de Boltzmann sur l'accès à l'information
dans un système telle qu'étudiée
dans le chapitre de Mécanique
Statistique.
P3.
Le "troisième principe de la thermodynamique" ou "principe
de Nernst" concerne les propriétés de la matière
dans le voisinage du zéro
absolu et énonce qu'à la limite du zéro
absolu,
température
qui ne saurait être atteinte (cf. chapitre
de Physique Quantique Ondulatoire), l'entropie d'équilibre
d'un système tend vers une constante indépendante
des autres paramètres intensifs, constante qui est prise
nulle.
Démonstration: Il s'agit du "théorème
de Nernst" dont le résultat formel
est simplement basé sur le deuxième principe donnant
l'entropie (cf. chapitre de Mécanique Statistique):
(33.45)
Nous voyons que si nous considérons un cristal à la température
du zéro absolu, la position des particules, les unes par rapport
aux autres est parfaitement définie de façon unique. Par conséquent,
il n'y a qu'une seule complexion possible pour un cristal au zéro
absolu. Le nombre de complexions est
donc égal à 1. Ce qui entraine que:
(33.46).
Rappelons que le "zéro
absolu" est la température
la plus basse accessible théoriquement en physique. À cette
température,
une substance ne contient plus à l'échelle macroscopique,
l'énergie thermique (ou chaleur) nécessaire à l'occupation
de plusieurs niveaux énergétiques microscopiques
(cf. chapitre de Mécanique Statistique).
Les particules qui la composent (atomes, molécules)
sont toutes dans le même état d'énergie minimale
(état
fondamental). Cela se traduit par une entropie nulle due à l'indiscernabilité de
ces particules dans ce même niveau d'énergie fondamentale
(selon le
troisième principe de la thermodynamique) et par une totale
immobilité au sens classique selon le théorème
du Viriel.
Cependant, au sens quantique, nous avons
vu dans le chapitre
de Physique Quantique
Ondulatoire
que les particules possèdent
toujours une quantité de
mouvement non nulle d'après les relations d'incertitudes
de Heisenberg et que selon les distributions de Fermi-Dirac et
de Bose-Einstein (cf. chapitre de Mécanique
Statistique), qu'il y a quand même différents niveaux d'énergie
lorsque nous prenons en compte le principe d'exclusion de Pauli.
D'où l'émergence de la thermodynamique quantique.
CAPACITÉS CALORIFIQUES
Dans une transformation
donnée, un apport
de chaleur se traduit en général par une élévation
de la température du système.
Définition: Nous appelons "capacité
calorifique" (ou "capacité calorique",
ou encore "capacité thermique" ou
enfin "chaleur
spécifique"...) C du
système,
la quantité:
(33.47)
La capacité calorifique est donc de par ses
unités, l'énergie qu'il faut apporter à un
corps pour augmenter sa température de 1 Kelvin.
C'est une grandeur
extensive (plus la quantité de
matière est importante, plus la capacité calorifique
est grande). Sous forme infinitésimale, nous avons:
(33.48) Nous voyons que l'avantage pédagogique
d'avoir une
écriture utilisant des variations discrètes plutôt
qu'infinitésimales
permet de ne pas avoir se poser la question si nous avons une différentielle
totale exacte ou inexacte... (voir plus loin la distinction).
Dans le cas d'un gaz parfait, nous admettrons que
la totalité de la chaleur échangée (énergie)
est mise sous forme d'énergie cinétique
des atomes ou molécules (énergie thermique), donc
nous pouvons alors écrire:
(33.49)
et nous démontrerons plus loin comment déterminer
exactement la valeur de cette capacité pour de tels gaz.
Voyons cependant déjà comment déterminer cette
capacité calorifique
pour des solides cristallins (que nous supposerons à volume
constant). Pour cela, rappelons que nous avons démontré dans
le chapitre d'Électrocinétique
que dans un cristal, la densité d'états dans un volume
sous certaines conditions bien précises était:
(33.50)
et que le nombre d'états relatifs était donné:
(33.51)
Or la relation antéprécédente est indépendante
du fait que dans le domaine de l'électrocinétique
nous considérions
des électrons
ou toute autre particule vecteur d'une propriété quelconque
(charge, chaleur ou autre). Ainsi dans le cadre de la thermodynamique
des
solides cristallins, un modèle consiste à supposer
le vecteur de chaleur comme une particule ayant des propriété ondulatoires
similaires
à l'électron qu'il est d'usage d'appeler le "phonon".
En supposant que les phonons sont identiques dans
les trois directions de l'espace et en se rappelant la relation
de Planck-Einstein
(cf. chapitre de Physique Quantique Corpusculaire)
valable pour toute particule de par le principe de dualité onde-corpuscule:
(33.52)
et (cf. chapitre de Mécanique
Statistique) de la statistique de Bose-Einstein pour les bosons
(particules non soumises au principe d'exclusion de Pauli pour rappel...):
(33.53)
que nous noterons dans le cas présent sous la forme
suivante (puisque le potentiel chimique est nul dans le cas qui
nous intéresse):
(33.54)
nous avons en combinant ces trois grands résultats:
(33.55)
Nous avons alors (en écrivant abusivement que la
chaleur est :
(33.56)
À partir de là il existe deux principaux
modèles
de prévision
de la capacité calorifique des cristaux, le modèle
de Debye et le modèle d'Einstein, chacun faisant des
hypothèses sur la densité de modes des phonons.
Dans le modèle d'Einstein un seul mode de
fréquence (respectivement pulsation) est supposé possible,
de sorte la vibration du solide est schématisée par
N oscillateurs harmoniques à cette fréquence.
Cette pulsation partiuclière est souvent associée à ce que nous
appelons la "température d'Einstein":
(33.57)
La densité de
modes est alors symbolisée
par N distributions
de Dirac (cf. chapitre de Calcul Différentiel
Et Intégral) autour
de cette valeur tel que:
(33.58)
Ce modèle prévoit une valeur limite
de la capacité calorifique aux hautes températures
(nous utilisons un développement de Taylor):
(33.59)
Il est d'usage lorsqu'on présente cette relation
de considérer une quantité de matière correspondant à une mole
et de faire apparaître ainsi la constante des gaz parfaits:
(33.60)
Cette valeur avait été donnée
initialement par Dulong et Petit et elle est en assez bon accord
avec les résultats expérimentaux. Nous parlons souvent
de la "loi de Dulong et Petit".
En revanche aux faibles températures, il faut faire appel
au modèle de Debye qui consiste à supposer la relation
de dispersion comme linéaire avec la vitesse de propagation
des phonons (vitesse du son dans le cristal) supposée comme indépendant
de la température:
(33.61)
La densité d'états s'écrit alors:
(33.62)
Nous avons alors pour la capacité calorifique:
(33.63)
Dans le modèle de Debye, seule la branche
acoustique des phonons est considérée,
ce qui revient à schématiser le cristal comme un
réseau monoatomique formé des atomes
les plus lourds. Dès lors, les modes de résonances
sont limités à
une certaine fréquence (pulsation), avec le volume correspondant,
dite de coupure telle que (nous changeons la notation de la constante
de Boltzmann afin de ne pas la confondre avec le nombre d'onde):
(33.64)
où (nous avons mis les deux formes d'écritures les
plus courantes):
(33.65)
Nous avons alors pour la capacité calorifique:
(33.66)
Si la température est petite, nous avons alors:
(33.67)
Ce qui est difficile à calculer. Alors nous
passons plutôt par le cheminement suivant:
(33.68)
Et cette dernière intégrale nous est
connue. Effectivement, nous la démontrerons en détail plus bas
en utilisant la fonction zêta de Riemann lors de démonstration
de la constante de Stefan-Boltzmann:
(33.69)
Soit:
(33.70)
et les relevés expérimentaux correspondent
bien à ce comportement!
Remarque: Cette capacité n'est pas constante. Elle
dépend
bien évidemment elle-même de la température
et du matériau/fluide considéré défini
par le nombre de degrés de liberté qui change en
fonction des atomes/molécules
(ce qui explique la différence de capacité calorifique
entre les gaz monoatomiques et les autres).
En thermodynamique, il faut
aussi toujours préciser quelle est la transformation considérée
car
dépend de la nature de la transformation. Nous distinguerons
en particulier la capacité calorifique à volume
constant (isochore) notée:
(33.71)
et la capacité calorifique
à pression constante (isobare) souvent utilisée en
chimie et notée:
(33.72)
La différence entre la chaleur spécifique à pression
constante et la chaleur spécifique à volume constant
tient évidemment au travail qui doit être
fourni pour dilater le corps en présence d'une pression
externe. Ces deux expression mettent aussi en évidence une différence
fondamentale dans les montages expérimentaux de mesure, c'est-à-dire
des situations physiquement différentes. En pratique, pour utiliser
ce concept de capacité calorifique, nous devons identifier pour
notre expérience quel C utiliser selon la façon
dont le montage/machine aura été constitué.
Il est alors assez intuitif que la chaleur spécifique à pression
constante est toujours strictement plus grande que la chaleur
spécifique à volume constant. Nous démontrerons
d'ailleurs plus bas que nous avons même précisément
pour un gaz parfait:
(33.73)
Si au lieu de considérer
le système entier, nous rapportons les mesures à une
unité de masse (ce qui est beaucoup plus utile en pratique!),
nous définissons
alors la "capacité
calorifique massique" à volume
constant (isochore):
(33.74)
et la capacité calorifique
massique à pression constante (isobare):
(33.75)
Si au lieu de considérer
le système entier, nous rapportons les mesures à une
mole du corps considéré (ce qui est beaucoup plus
utile en chimie!),
nous définissons
le "capacité calorifique molaire" à volume
constant (isochore):
(33.76)
et la capacité calorifique molaire à
pression constante (isobare):
(33.77)
où n est le nombre de moles du système.
Nous avons donc bien évidemment par extension, en passant
au cas discret, la relation très
utile en pratique:
(33.78)
où c est la capacité calorifique
polytropique massique.
Il s'agit d'une relation très importante
dans la pratique et dont les applications au quotidien sont légio
n car elle permet dans des cas idéalisés
de calculer la chaleur utilisée ou fournie lorsqu'une certaine
quantité de
matière subit un changement de température ou de
calculer la température finale deux deux corps mis en contact.
Pensez-y lorsque vous prenez
votre douche ou que vous chauffez une casserole d'eau. Vous connaissez
alors ainsi
que la quantité d'eau
M utilisée
pour votre douche/bain ou casserole. Cela vous donnera l'énergie
totale utilisée
et en
connaissant le coût de l'énergie dans
votre ville vous en déduirez rapidement
le coût d'une douche, d'un bain ou d'une casserole d'eau
bouillante!
Une autre application
sympathique est de calculer l'augmentation de température
(dans un cas idéal) d'un objet lâché à une
certaine hauteur sous l'hypothèse
que toute son énergie potentielle est convertie en chaleur
après
avoir touché le sol (le seul problème étant
de trouver la valeur de capacité calorifique
polytropique massique dans les tables):
(33.79)
où cj est la capacité énergétique
polytropique massique (il s'agit simplement de c mais
donné en joules par kilo et par
kelvin plutôt qu'en calories par kilo et par kelvin).
Donc après réarrangement nous avons:
(33.80)
Le cas important de la température d'équilibre
finale de deux corps mis en contact est simple à obtenir
(si le système est totalement isolé de l'extérieur). Effectivement,
comme la chaleur perdue par l'un des deux corps sera gagnée
par l'autre, nous avons en choisissant convenablement pour
chacun des deux corps afin que soit
de même signe:
(33.81)
Soit après un réarrangement élémentaire:
(33.82)
Exemple:
Une barre d'acier 0.3 kilo à une températeur inititale
de 1'200 [K]
est plongée dans une cuve d'eau à 300 [K]
(la cuve est fermée, isolée de l'extérieur
et pleine à ras bord)
conenteant 9 kilos d'eau. En prenant la chaleur spécifique
polytropique de et
de pour
l'acier, la température finale d'équilibre (de la barre et de l'eau)
est alors de:
(33.83)
Considérons maintenant le cas où nous avons un
système sans échange de travail mécanique
mais uniquement de chaleur suivant la relation:
(33.84)
Or, la puissance est l'énergie divisée par le temps
(cf.
chapitre de Mécanique Classique). Il vient alors
(attention à ne pas confondre la notation de la puissance avec
celle de la pression!):
(33.85)
et si la capacité calorifique est donnée sous forme massique à pression
constante:
(33.86)
Ce qui permet déjà de calculer la puissance à fournir pour chauffer
une quantité de matière donnée à une température donnée et un temps
donné sans considérer de changement d'état sinon quoi il faut prendre
en compte la chaleur latente.
La fraction précédente peut aussi s'exprimer comme
le débit
volumique d'un fluide en multiplié par
la densité du fluide:
(33.87)
ce qui permet de connaître la puissance fournie par un débit
d'eau entrant dans un radiateur à une certaine température
et sortant de celui-ci avec le même débit mais avec
une autre température. Ceux qui travaillent avec des surfaces
préfèrent écrire cette relation sous la forme suivante:
(33.88)
qui est souvent appelée "loi
de Newton du transfert de chaleur par convection" et
où hC est la constante est le coefficient
de convection.
Nous retrouvons aussi parfois la relation antéprécédente dans
la littérature
sous la forme suivante:
(33.89)
après avoir bien évidemment multiplié les
deux côtés de l'égalité
par le temps.
Exemple:
Un microprocesseur de surface de 25 [mm2]
et est alimenté par une puissance de 0.224 [W].
L'atmosphère ambiante est à 20 °C et le coefficient de convection
est donné aux conditions normales de température et de pression
comme valant .
En considérant que tout le transfert de chaleur se fait entre l'air
et le microprocesseur, la température de ce dernier peut alors
être calculée de la manière suivante:
(33.90)
Dans certaines transformations,
nous avons un apport ou un retrait de chaleur alors que la température
du système reste constante (par exemple dans les transformations
de changement de phase d'un corps). Cela provient d'un autre
phénomène:
Définition: "L'enthalpie
de changement d'état" ou "chaleur
latente", notée L et donnée en joules
par kilogramme,
correspond à la
quantité de
chaleur nécessaire à l'unité de quantité de
matière ou de masse d'un corps pour qu'il
change d'état. C'est une valeur très importante en
pratique pour effectuer des calculs.
Nous avons donc bien évidemment par extension la relation
très utile en pratique:
(33.91)
qui donne donc la quantité de chaleur à fournir
pour faire changer de phase (passer donc d'une température donnée
à une autre température donnée) une certaine quantité de
masse m
(le signe de Q est alors par convention négatif).
Inversement, si la quantité de matière revient à un
niveau d'énergie
plus faible, cette quantité de chaleur latente sera donnée à l'environnement
et non absorbée et le signe de Q est alors
positif! Nous verrons plus loi qu'à pression constante cette dernière
relation s'écrit alors plus explicitement sous la forme suivante:
(33.92)
Remarque: Pour
le passage de l'état
liquide à l'état de vapeur, nous parlerons "d'enthalpie
de vaporisation".
L'enthalpie échangée lors du changement d'état
résulte de la modification (rupture ou établissement)
de liaisons interatomiques ou intermoléculaires. Il existe
trois états physiques principaux pour tout corps pur: l'état
solide, l'état liquide et l'état gazeux. Les liaisons
sont plus fortes dans l'état solide que dans l'état
liquide et ces liaisons sont quasi absentes dans l'état
gazeux. Il existe comme nous le savons déjà un quatrième état
obtenu à très
haute température où la matière se trouve
sous la forme d'un plasma d'ions et d'électrons (cf.
chapitre de Mécanique des Milieux Continus).
Nous différencions trois
modes d'échange de chaleur:
1. La "convection": fluide
venant alternativement au contact d'un corps chaud et d'un corps
froid (phénomène typique des mouvements de l'atmosphère terrestre).
2. Le "rayonnement":
un corps
à température donnée émet un rayonnement électromagnétique susceptible
d'être absorbé par un autre corps.
3. La "conduction": le
transfert d'énergie se produit des zones chaudes vers les
zones froides par collision des particules les plus excitées
(zone chaude) avec les particules voisines moins excitées
et ainsi de suite de proche en proche.
ÉNERGIE
INTERNE
Dans le chapitre de Mécanique Classique,
nous avons vu (deuxième théorème de König)
que l'énergie totale d'un corps par rapport à un
référentiel
galiléen
extérieur R' au centre de masse était donnée
par la somme de l'énergie cinétique et potentielle
par rapport à ce même référentiel,
additionnée
de l'énergie cinétique et potentielle de ce même
corps par rapport au référentiel assimilé à
son centre de masse R (référentiel
barycentrique).
Ce que nous écrivons
sous la forme:
(33.93)
où U est la grandeur énergétique
(énergie interne) propre au centre de masse du corps concerné.
Sous
une forme plus simplifiée,
la relation précédente s'écrit traditionnellement
en thermodynamique:
(33.94)
Le premier principe
de la thermodynamique s'écrit alors:
(33.95)
Donc l'énergie totale est la somme des énergies
mécaniques macroscopiques
(cinétiques et potentielles) et microscopiques (énergie
interne).
En règle générale,
les systèmes étudiés en thermodynamique sont
globalement au repos ( )
par rapport à l'expérimentateur et donc .
De même, nous avons en général un champ
de potentiel constant et isotrope dans la chambre d'expérimentation
ce qui implique .
En conséquence de ces simplifications la loi de conservation
de l'énergie,
ou premier principe de la thermodynamique, se réduit comme
nous l'avons déjà mentionné à l'énergie
interne tel que:
(33.96)
ou:
(33.97)
Exemple:
Un piston contient 0.9 [kg] d'air à une
température de 300 [K] et une pression 1 [bar].
Cet air est comprimé à une pression de 6 [bar]
pour une température de 470 [K]. Durant la phase
de compression 20 [kJ] de chaleur est échangé entre avec
l'environnement extérieur (conduction de chaleur). En utilisant
le fait que l'énergie interne massique de l'air standard est à
300 [K]
est donné dans les tables thermodynamique comme valant et
à 470 [K] comme valant ,
nous avons le travail fourni pour la compression qui a été de:
(33.98)
Remarque: L'énergie interne U n'est souvent
donnée
qu'à une constante additive près, c'est la raison
pour laquelle certains l'appelle à juste titre "surénergie
interne". Comme nous l'avons démontré dans
le chapitre de Mécanique
Classique, l'énergie totale d'un système, est
la somme des énergies élémentaires de
celui-ci. Ainsi, l'énergie interne est une grandeur extensive.
Considérons maintenant
un système décrit par les variables d'état
thermodynamiques:
(33.99)
Dans
une transformation élémentaire le
travail élémentaire dW (si nous ne nous
intéressons qu'à cette forme d'énergie) se
mettra sous la forme (cf.
chapitre de Calcul Différentiel
Et Intégral) d'une différentielle totale exacte:
(33.100)
si nous avons la relation
suivante, démontrée dans le chapitre de Calcul Différentiel Et
Intégral, qui est satisfaite (qui sont les coefficients des dx):
(33.101)
Sinon, si cette relation n'est pas
satisfaite, ce qui impliquerait:
(33.102)
alors dans ce dernier cas, nous avons une différentielle
totale inexacte (la différentielle dépend donc du
chemin parcouru!) ce qui nous amènerait à écrire:
(33.103)
Puisque le travail W est d'une manière ou une autre une
force sur une distance, nous avons déjà démontré dans le chapitre
de Mécanique Classique que celle-ci dépend du chemin parcouru et
pas seulement du point de départ et final.
Dans la même transformation,
la quantité de chaleur dQ se met sous une forme similaire:
(33.104)
si encore une fois la relation suivante est vérifiée pour les
variables d'état:
(33.105)
ou sinon dans le cas contraire:
(33.106)
Les grandeurs caractéristiques d'une
transformation du système mais dont
la valeur dépend non seulement de l'état initial
et de l'état final, mais aussi
du chemin suivi sont appelées "grandeurs
de transfert".
Rappelons qu'au vu de ce qui a déjà été étudié dans
le chapitre de Calcul Différentiel Et Intégral, nous avons alors
pour un cycle thermodynamique:
(33.107)
et c'est le fait que l'énergie interne soit une différentielle
totale exacte qui impose logiquement que la chaleur Q soit
une différentielle totale inexacte de par la propriété de
linéarité
de l'intégrale (sinon quoi elle n'annulerait pas par sommation
la variation de travail W sur un cycle fermé).
Effectivement, selon le premier principe de la thermodynamique,
si l'énergie
est conservative alors nous avons pour l'énergie interne
d'un système
fermé et isolé (sous forme discrète):
(33.108)
Ce qui implique que quelle que
soit la transformation, les variations de travail et de chaleur
sont données à l'intérieur de ce système
conservatif par (sous forme discrète):
(33.109)
ou plus techniquement:
(33.110)
Donc quelles que soient les
façons
dont les transformations se font à l'intérieur du
système, l'état
final et initial sont identiques en termes énergétiques.
Ce qui nous impose que les transformations thermodynamiques
soient indépendantes de la manière dont les phénomènes
ont lieu à l'intérieur du système. est
alors une différentielle totale exacte (cf.
chapitre de Calcul Différentiel Et Intégral)
que nous écrirons dU.
TRAVAIL DES FORCES MÉCANIQUES
Rappelons maintenant que nous avons
vu dans le chapitre de Mécanique Classique que par définition,
le travail est donné par une force sur une distance
(quelle que soit l'origine de cette force: mécanique, rayonnante,
nucléaire,
etc.). Il s'ensuit donc la relation très importante en
thermodynamique:
(33.111)
qui exprime donc, à pression constante (isobare), la variation
de l'énergie due au travail des forces extérieures
de pression sur un système
(généralement
un gaz en thermodynamique...) dont le volume a varié (sans
être restreint par une frontière rigide!).
Bien évidemment, si la variation de volume est nulle ou
la pression est nulle... la variation de l'énergie due au
travail des forces de pression sera alors nulle...
A
l'équilibre, la pression P est prise comme étant
celle du système considéré (pression interne) soit celle de
l'atmosphère
environnante
puisque la pression est alors égale (sinon il n'y aurait pas
équilibre...).
De même, la variation de volume est prise comme étant
soit celle du système considéré (volume propre)
soit la variation de l'atmosphère
environnante puisque de toute manière la variation de volume
sera la même pour les deux!
De plus, nous voyons que le chemin intervient
dans l'expression précédente du travail et donc que celui-ci
est une grandeur qui dépend du chemin parcouru (cf.
chapitre de Calcul Différentiel Et Intégral).
Ceci implique que nous devons écrire
au lieu de dW.
Il existe bien sûr quantité d'autres manières
d'exprimer le travail, mais par la définition de celui-ci
même, il s'agira toujours d'une différentielle inexacte.
Ce résultat a
une implication directe sur l'expression de la variation de chaleur
pour laquelle le théorème du Viriel (cf.
chapitre de Mécanique des milieux continus),
que celle-ci est donnée
par son agitation thermique. Il convient de
rappeler que cette agitation
est donnée par l'énergie cinétique moyenne
et que l'énergie cinétique existe de par l'application
d'une force sur une distance pour chaque particule.
Ainsi,
la chaleur est elle, aussi une différentielle inexacte !
Finalement, nous avons dans
le cas d'un fluide (liquide ou gazeux) ayant une variation d'énergie
interne polytropique:
(33.112)
Au cours de son évolution, le volume V du système
peut donc varier. Si nous considérons une évolution
infiniment petite au cours de laquelle le volume varie de dV
et si nous notons
la pression extérieure subie par le système, nous
écrirons dans un cadre plus général (le signe
négatif devant la pression est une
convention!):
(33.113)
où est
le travail dit de "refoulement extérieur" (si ,
l'augmentation du volume du système exprime ainsi la fourniture
d'un travail à l'environnement extérieur,
ce qui explique le signe - indiquant que l'énergie interne
du système
diminue) et où dT (à ne
pas confondre avec une variation de température!!)
est une autre forme d'énergie (si le système est
réactif
au niveau chimique par exemple, il peut fournir une éventuelle
énergie chimique aussi).
Sauf systèmes particuliers
(piles, accumulateurs,...) la seule énergie échangée
est le travail des forces de pression de sorte que nous n'ayons
plus que:
(33.114)
et alors nous pouvons à loisir écrire dW au
lieu d'utiliser la différentielle inexacte puisque ce travail
n'est dépendant que d'une variable d'état (la notation dW étant
souvent utilisée en physique dans ce cas)!
Par ailleurs, la plupart des
systèmes étudiés sont par hypothèse, à l'équilibre, à la
même pression interne que la pression extérieure
(atmosphère
environnante). Ce qui nous autorise dans ce cas particulier à écrire:
(33.115)
où P est
donc la pression dans et en dehors du système (le système
est alors dit "isobare" comme nous le savons déjà et
plus rarement
"monobare").

Figure: 33.2 - Exemple d'une sphère à l'équilibre avec l'environnement
Dès
lors, nous avons dans ce cas particulier:
(33.116)
La quantité de chaleur
mise en jeu dans une transformation isochore (à volume constant)
se réduit alors bien évidemment à
la variation de l'énergie interne telle que (attention à la
notation traditionnelle qui
peut faire oublier que nous avons affaire
à une variation de
chaleur!):
(33.117)
Si nous considérons
un système évoluant d'un état 1 vers un état
2 dans une atmosphère environnante isobare (à pression
constante) et donc que sa propre pression interne est à l'équilibre
avec cette atmosphère, nous avons
alors le "travail
des forces mécaniques à pression constante":
(33.118)
Ou si le système évolue d'un état 1 vers
un état
2 dans un environnement isotherme, nous avons alors le "travail
des forces mécaniques à température constante" pour
un gaz parfait:
(33.119)
Si on veut produire une quantité raisonnable de travail,
il sembe à priori que le volume devra atteindre des dimenions totalement
irréalistes. Aussi nous construisons la majorité des machines thermiques
avec un retour cyclique.
ENTHALPIE
Considérons le cas isobare très courant dans les
laboratoires de chimie puisque les béchers sont ouverts à l'atmosphère
ambiante. Si nous considérons une telle situation, nous
avons alors la variation d'énergie
interne:
(33.120)
où donc la pression P et le volume V sont
les variables d'état internes au système étudié!
Il est important de remarquer à nouveau que si la variation
de chaleur
est
nulle et que le volume interne augmente la variation d'énergie
interne U est alors négative, ce qui sera interprété
par l'expérimentateur comme un emprunt d'énergie au
système
extérieur
et donc il est courant de parler de perte ou de réaction endothermique!
La quantité de chaleur mise
en jeu dans une transformation isobare (l'indice de est
indiqué dans
ce sens... peut
faire oublier que nous avons affaire à une variation de
chaleur) est égale à la
variation de deux termes à forme identique:
(33.121)
où nous définissons donc une nouvelle
fonction d'état
commode, "l'enthalpie"
H (grandeur extensive) dans une transformation isobare
comme donnée
par:
(33.122)
où n est le nombre de moles internes
au gaz parfait subissant le changement de volume! Nous voyons
par ailleurs que si la pression environnante est nulle, l'enthalpie
est égale
à l'énergie interne. Le fait qu'il y ait des forces
de pressions extérieures (ou intérieures) rajoute
une énergie au système qui
définit donc le concept d'enthalpie!
La relation antéprécédente exprime
donc le fait que lorsqu'un système évolue à pression
constante, la chaleur reçue (ou échangée
par le système avec le milieu extérieur) est égale à sa
variation d'enthalpie.
Il vient également avec cette définition
une nouvelle
écriture possible pour la capacité calorifique à pression
constante très fréquemment utilisée en chimie:
(33.123)
Donc nous tirons la relation très importante dans
la pratique que nous avions spéficié
plus haut pour l'enthalpie de changement d'état:
(33.124)
où il ne faut pas oublier qu'en toute rigueur bien
que la capacité calorifique à pression fixe ne soit pas une
constante, elle est assez souvent considérée dans la pratique
comme étant constante pour une plage de température donnée.
De manière plus explicite, nous avons encore
pour la relation antéprécédente en utilisant
la loi des gaz parfaits:
(33.125)
où pour rappel (cf.
chapitre de Mécanique de Milieux Continus) le nombre
de degrés de liberté ddl pour
un gaz parfait monoatomique est de 3. Le dernier terme de cette
relation n'est évidemment pas valable pour les fluides!
Parfois, nous écrivons évidemment également
la définition
de l'enthalpie sous la forme d'une variation telle que:
(33.126)
dans le cas particulier d'application aux domaines
de validité des gaz parfaits (cf.
chapitre de Mécanique Des Milieux Continus) en ce
qui concerne le dernier terme.
Il est
important de bien mémoriser que le terme PV dans
les relations précédentes représente le travail
des forces de pression de l'atmosphère environnante sur
le système
ou, par équivalence, respectivement du système sur
l'atmosphère
environnante qui l'entoure. Mais la variable n est toujours
le nombre de moles du gaz parfait du système étudié et
non pas de l'atmosphère environnante.
L'enthalpie
est un concept énormément utilisé en chimie
thermique (voir chapitre du même nom) et nous l'utiliserons
sans cesse lors de son étude.
Dans la pratique il est cependant difficile (voire impossible)
de connaître
l'énergie interne. Nous calculons alors plutôt la relation
suivante pour une mole (n valant alors 1) de gaz parfait:
(33.127)
qui est donc une valeur strictement positive donnant l'énergie
(ou plutôt le surplus d'énergie) disponible dans le gaz parfait à cause
de la pression environnante (il n'y a qu'à poser la pression
comme étant
nulle pour le voir!).
Exemple:
Prenons une unité de volume molaire de gaz parfait aux
conditions normales de température
et de pression (quel que soit ce gaz parfait, son volume molaire
sera dans ces conditions toujours de 24 litres selon la loi des
gaz parfaits!).
Le travail des forces de pression qui ont été nécessaires pour
amener ce gaz parfait aux conditions susmentionnées est alors de:
(33.128)
ou:
(33.129)
qui est donc l'énergie sous forme du travail des forces
(mécaniques)
de pression que nous pourrions récupérer d'un volume molaire
d'air.
L'énergie interne sous forme de chaleur ET de travail
mécanique que nous pourrions en théorie récupérer
(le problème est de trouver comment...) de ce volume molaire est
donné,
pour un gaz monoatomique (voir plus bas pour la démonstration),
par:
(33.130)
et nous pourrions calculer aussi l'énergie interne de
liaison des électrons, et des noyaux des atomes... et l'équivalence
masse et énergie, mais nous sortirions des cas industriels
courants...
Pour l'eau, où nous ne pouvons
utiliser que la première
relation, car la deuxième n'est valable que pour les gaz parfaits,
le volume molaire étant 1'000 fois plus petit, nous ne pouvons
en tirer qu'une énergie que 1'000 fois plus petite (environ
2 [J]).
Raison pour laquelle dans le cas des fluides, nous considérons
qu'il n'y a aucune différence entre l'enthalpie et l'énergie
interne.
Voyons maintenant d'autres implications théoriques des quelques éléments
vus précédemment qui nous seront très utiles
aussi bien en acoustique (cf. chapitre de
Musique Mathématique)
ou en mécanique des milieux continus (voir chapitre du même
nom).
LOI DE LAPLACE
Nous avons démontré dans le chapitre de Mécanique Des Milieux
Continus avec le théorème du Viriel que l'énergie interne (énergie
cinétique)
d'un gaz parfait monoatomique était donnée
par:
(33.131)
où nous avons repris la notation du chapitre de Mécanique
Des Milieux Continus (un grand N au lieu d'un petit n).
Nous avons donc:
(33.132)
Si le processus est à volume constant, nous supposerons
qu'il n'y a aucun travail mécanique (force sur une distance)
fourni (collisions inélastiques
sur les parois) et alors:
(33.133)
donc où dW est nul!
Il vient alors la possibilité de calculer la capacité calorifique
à volume constant:
(33.134)
où l'on observe dès lors, que pour un gaz parait,
la capacité calorifique
volumique est indépendante du volume!! Nous avons in extenso
pour
une mole:
(33.135)
de sorte que nous pouvons écrire pour un gaz monoatomique
parfait à volume
constant l'énergie:
(33.136)
ce qui permet donc de connaître dans la partique, et à partir
de tables, la varation d'énergie interne d'un gaz en fonction
de sa variation de température puisque:
(33.137)
ce qui correspond évidemment à un travail fourni
ou absorbé. Sous forme différentielle nous l'appelons la
"première loi de Joule" (l'énergie interne
d'un gaz parfait ne dépend que de la température):

Un cas intéressant de la relation antéprécédenteest
de se rappeler que comme nous sommes à volume
constant nous avons alors:
(33.138)
ce qui nous permet d'écrire:
(33.139)
Donc s'il y a décompression, cette dernière relation est négative.
Dans ce cas le gaz perd de la chaleur au profit de l'environnement
raison pour laquelle lors d'une détente gazeuse le récipient refroidit!
Si le processus a lieu à pression constante (énergie cinétique
constante des atomes du gaz) alors nous avons (voir théorème
du Viriel):
(33.140)
(les collisions qui repoussent la paroi du volume font perdre
de l'énergie au système d'où le signe "-").
Ainsi:
(33.141)
Ainsi nous pouvons aussi calculer la capacité calorifique à pression
constante:
(33.142)
où l'on observe dès lors, que pour un gaz parait,
la capacité calorifique à pression constante est aussi indépendante
de la pression!! Nous avons in extenso
pour
une mole:
(33.143)
Des deux résultats encadrés précédents,
nous obtenons pour un gaz parfait monoatomique:
(33.144)
avec la "relation de Mayer":
(33.145)
qui nous donne par la même occasion puisque R est
positif:
(33.146)
Nous avons aussi une relation qui nous sera utile plus tard:
(33.147)
Si le gaz parfait est diatomique, il y a 5 degrés de liberté (3
pour la position du premier atome +3 pour la position du deuxième
-1 pour la contrainte que la distance entre les deux est fixée)
et nous avons alors:
(33.148)
En faisant les mêmes développements, nous obtenons (valeur
que nous utiliserons dans le chapitre de Musique Mathématique
mais qui est utile dans de nombreux autres domaines):
(33.149)
Quand un système isolé de gaz parfait subit une transformation
adiabatique à pression constante, la variation d'énergie interne
du système sera soutirée par la variation de travail interne. Ce
qui traditionnellement se note par un signe négatif tel que (en
utilisant le résultat obtenu plus haut):
(33.150)
Remarque: Attention!!! Rappelons que le choix du signe
pour le travail W n'est qu'une convention de signe!! Ainsi,
dans le présent cas d'étude il est pour tradition de mettre un
"-" au lieu d'un "+". Mais cela ne change rien aux résultats qui vont suivre!!!
Soit:
(33.151)
Prenons maintenant l'équation des gaz parfaits (sans
collisions) et différencions. Nous obtenons:
(33.152)
Soit en éliminant dT entre les deux dernières relations,
nous obtenons:
(33.153)
Soit après simplification et réarrangement des termes:
(33.154)
ce qui rapporté aux quantités de moles s'écrit (selon l'habitude
des chimistes):
(33.155)
bref... et en nous rappelant que:
(33.156)
Nous avons:
(33.157)
En utilisant la définition du "coefficient
de Laplace", appelé aussi "coefficient
adiabatique" déjà rencontre plus haut:
(33.158)
nous avons l'expression:
(33.159)
En remaniant:
(33.160)
Nous obtenons par intégration:
(33.161)
soit:
(33.162)
qui est équivalent en utilisant les propriétés
des logarithmes à:
(33.163)
Il s'agit de la "loi de
Laplace" ou "l'équation polytropique
des gaz" qui donne
la relation entre pression et volume dans une transformation
adiabatique
d'un gaz
(ce qui
ne
signifie pas que la température est constante rappelons-le
mais seulement que l'échange de chaleur avec le système
extérieur est nul ou négligeable!). Nous retrouverons
d'ailleurs cette relation dans le chapitre de Génie Météo.
Ainsi, nous avons aussi l'information qui peut être utile
dans l'industrie:
(33.164)
Ainsi que:
(33.165)
in extenso:
(33.166)
Donc au final nous avons les relations très utiles
dans la pratique pour le cas polytropique:
(33.167)
Tout le problème dans la pratique (sur le terrain)
est d'avoir sous la main la valeur du coefficient adiabatique...
ÉQUATION DE SAINT-VENANT
Il existe plusieurs équations qui portent le nom
"d'équation de Saint-Venant" en physique... Celle qui nous concerne
dans le cas présent est très utile dans le domaine de l'aéro-dynamique
et est plus orientée "thermodynamique" que l'équation du même nom
en mécanique des fluides incompressibles.
Voyons de quoi il s'agit.
Nous allons donc considérer un gaz ou un fluide compressible
en utilisant toujours le premier principe de la thermodynamique
mais en faisant ressortir de l'énergie interne explicitement trois
énergies macroscopiques couramment utilisées dans le domaine de
la mécanique
des milieux
continus:
(33.168)
Pour introduire l'équation de Saint-Venant
la plus simple, nous allons considérer que les cas où les
variation d'énergie
potentielle, d'échange de chaleur et de travail sont négligeables
ou nulles (ce qui est une hypothèse contraignante mais pas
inexistante dans certais cas pratiques). Nous avons alors:
(33.169)
qui serait appelée "équation
de Thomson" ou "formule de
Zeuner" (on donne des noms à n'importe
quoi parfois...).
Ce qui nous amène à écrire:
(33.170)
Or nous avons démontré plus haut que:
(33.171)
Souvent cette dernière relation est exprimée sous
forme massique telle que:
(33.172)
ou autrement écrit:
(33.173)
Il vient in extenso l'équation de Saint-Venant:
(33.174)
Si nous récrivons cette relation entre deux points
mais que nous choisissons que l'un des deux points a une vitesse
nulle (peu import lequel), nous pouvons toujours nous ramener
à une relation de la forme:
(33.175)
Or, nous avons démontré dans le chapitre de Musique
Mathématique que la vitesse du son était donnée par:
(33.176)
où r est la constante massique des gar parfaits...
Nous pouvons alors écrire:
(33.177)
Nous introduisons alors le "nombre
de Mach":
(33.178)
Donc:
(33.179)
Mais nous avons aussi:
(33.180)
D'où après un petit réarrangement:
(33.181)
Mais en utilisant les relations démontrées plus haut
découlant de la loi de Laplace, il vient:
(33.182)
Exemple:
De l'air comprimé contenu dans un grand réservoir
s'échappe vers l'extérieur à travers un orifice à un
nombre de Mach égal à 0.77. La détente se
produit dans l'atmosphère où règne
une pression atmosphérique de 1.014 [bar]. Le
rapport massique de l'air aux C.N.T.P. est donné comme valant
1.4. Nous avons alors la pression à l'intérieur du
réservoir qui est
donnée par:
(33.183) Nous pouvons aussi nous amuser à calculer
la pression nécesaire interne au réservoir pour que l'écoulement
devienne supersonique (et puis ne pas oublier que... action = réaction).
COEFFICIENTS THERMOÉLASTIQUES
Si nous différencions V(P,T) nous avons
(cf. chapitre de Calcul Différentiel Et Intégral):
(33.184)
ou autrement écrit:
(33.185)
Nous avons introduit de manière naturelle dans le chapitre
de Musique Mathématique un coefficient nommé "coefficient
de compressibilité isotherme" (l'indice T indique
que la température est maintenue constante):
(33.186)
que nous pouvons réintroduire ici:
(33.187)
De même il serait intéressant d'avoir un autre coefficient
pour le premier terme qu'il suffirait de définir par analogie
(l'indice V et là pour indiquer qu'il s'agit d'un coefficient
volumique et le P pour indiquer que nous sommes à pression
constante):
(33.188)
appelé "coefficient de dilatations
volumique isobare".
Ainsi, nous avons:
(33.189)
Soit nous avons le travail mécanique (la différentielle totale
est inexacte car nous avons plus d'une variable d'état) en multipliant
par la pression pour avoir les bonnes unités:
(33.190)
Pour une transformation isotherme le premier terme est nul, et
pour une transformation isobare, c'est le second qui est nul.
Les données des coefficients thermoélastiques (mesurés
expérimentalement)
doivent permettre de remonter à l'équation d'état
des gaz parfaits par intégration
de V(P,T),
ce qui est licite, puisque V est une fonction d'état.
Dans le cas du gaz parfait par exemple, nous pouvons écrire
par intuition des dimensions des constantes (nous présenterons
plus loin de notre étude des équations d'état le cheminement mathématique
inverse pour des raisons pédagogiques):
(33.191)
Nous avons donc:
(33.192)
et donc en multipliant par la pression:
(33.193)
Ce qui conduit à:
(33.194)
Soit:
(33.195)
Ce qui donne immédiatement après intégration:
(33.196)
Soit:
(33.197)
Cela dit, nous avons différencié V pour
obtenir deux coefficients tels
que:
(33.198)
Nous pourrions faire de même pour la pression et la température
et nous avons alors au total trois relations:
(33.199)
mais parmi les 6 facteurs que nous voyons dans ces trois relations,
quatre sont déjà définis (certains sont l'inverse
des coefficients définis plus haut). Il manque par contre
la définition d'un seul
coefficient pour les deux facteurs manquants. Nous choisissons
celui qui dans
la pratique est le plus souvent utilisé en analogie avec
les autres coefficients:
(33.200)
appelé "coefficient d'augmentation
de pression isochore".
Nous avons ainsi les trois coefficients très utilisés dans la
pratique:
(33.201)
respectivement et dans l'ordre:
1. Coefficient de compressibilité isotherme.
2. Coefficient de dilatation isobare
3. Coefficient d'augmentation de pression isochore
Nous retrouverons ces coefficients lors de notre étude
des mouvements de convections dans le chapitre de Génie Marin &
Météo.
CHALEUR
Avant de continuer, il va
à tout prix nous falloir éliminer une des deux plus grandes
difficultés
dans la bonne compréhension de la thermodynamique (mise à part
celle de la différenciation entre les différentielles
totales exactes et inexactes qui a déjà été réglée
dans le chapitre de Calcul Différentiel
Et Intégral):
- La différence entre la
chaleur et la température
- La différence entre l'énergie-travail
et l'énergie-chaleur
Comme nous l'avons vu dans le chapitre de Mécanique Des Milieux
Continus, la température caractérise un état
d'équilibre thermodynamique et traduit l'existence d'une agitation
thermique (théorème du Viriel) et elle peut varier lorsque l'extérieur
fournit un travail .
Cependant, l'expérience nous montre que c'est en "chauffant"
un système que nous augmentons le plus aisément sa température.
Mais qu'est-ce donc la chaleur?:
Considérons un système
thermodynamique à l'équilibre, et écrivons
son énergie interne totale E comme
étant la somme des produits de l'énergie E d'un
micro-état i par
la taille de la population P de ce même micro-état i :
(33.202)
Sa variation au cours d'une transformation
infinitésimale (que nous supposons à nombre de particules
constantes) est (différentielle totale):
(33.203)
où
est le déplacement de l'énergie
du micro-état i provoqué par
la transformation, et
la variation de la population
de ce même état i.
Nous avons vu plus haut que sous certaines conditions, si le système
au cours de cette transformation infinitésimale subit
une variation de travail
et de chaleur ,
son énergie interne varie de:
(33.204)
Nous pouvons maintenant comparer
cette dernière relation (exprimant le premier principe de
la thermodynamique) avec celle qui la précède (découlant
de la mécanique statistique) et identifier les termes
de la manière suivante:
(33.205) Examinons le cas
d'une transformation dans laquelle le système reçoit
seulement de la chaleur:
(33.206)
Dans cette situation aucun des paramètres
extérieurs au système ne varie en général
dans la transformation de sorte que .
Nous en déduisons:
(33.207)
Ainsi, lorsqu'un système
reçoit seulement de la chaleur, son énergie varie
par modification des populations de ses états microscopiques:
si la quantité de chaleur reçue est positive, la
probabilité des états d'énergie élevée
augmente, au détriment de celle des états de plus
basse énergie. Enfin, si nous tenons compte que le système
doit être à l'équilibre (l'état
le plus probable comme nous l'avons démontré dans
le chapitre de Mécanique
Statistique) dans les états initial et final de la transformation,
nous constatons, comme nous pouvions nous y attendre, que la température
du système varie: elle a augmenté si la quantité
de chaleur reçue est positive (cela se démontre en
choisissant une distribution canonique pour décrire les états
d'équilibre macroscopiques du système).
Cela explique la confusion
fréquente entre ces deux concepts très différents
que sont température et chaleur. Cette confusion est accentuée
par le décalage entre le langage quotidien et la terminologie
scientifique. Dans le langage quotidien, lorsque nous parlons
de
chaleur d'un corps, nous affirmons en réalité que
sa température est élevée. La confusion est
regrettable parce que la notion de chaleur est bien présente
en physique mais sa signification est autre.
Ainsi, chauffer un système,
c'est lui fournir de la chaleur, c'est augmenter son énergie
interne (le nombre de micro-états de haute énergie)
par des moyens qui ne sont pas purement mécaniques. La
chaleur est donc une forme d'énergie particulière!
ENTROPIE
Un système macroscopique isolé tend vers l'équilibre.
Il l'atteint en un temps fini (qui peut être extrêmement grand).
L'état d'équilibre
est unique: les exceptions à cette affirmation sont trop spéciales
pour mériter une digression.
L'existence même d'un état d'équilibre est fondamentale
pour la thermodynamique. Cependant, le processus de marche à l'équilibre
ne résulte pas d'un dogme: il ne doit pas en exister en
physique! Comme toute autre loi, il est soumis à vérification
et doit être
analysé. Une question, notamment, se pose: quelle est la
contrepartie microscopique de la marche à l'équilibre, processus
macroscopique.
Nous avons vu dans le chapitre de Mécanique Statistique que par
définition: l'état d'équilibre est l'état qui correspond au
plus grand nombre de configurations (micro-états) et est l'état
le plus probable.
Ce qui nous avait amenés à la relation suivante:
(33.208)
où S représente l'espérance statistique
de l'information sur les micro-états et que nous avions
appelée "entropie".
Il est évident que S a les unités de qui
comme nous l'avions montré est une constante.
La question qui se pose alors en thermodynamique est: quelle
est la constante qui permet de caractériser pour un gaz, fluide
ou solide l'espérance mathématique du nombre des états.
Il vient alors en regardant toutes les relations qui existent
en thermodynamique qu'une seule constante apparaît systématiquement
dès qu'il s'agit de caractériser un état thermodynamique.
Il s'agit de la constante de Boltzmann:
(33.209)
Donc S a les unités correspondant au rapport J/K qui
permet donc de mesurer le degré de désordre d'un
système
au niveau microscopique. Intuitivement: plus l'entropie du système
est élevée,
moins ses éléments sont ordonnés et capables
de produire des effets mécaniques, et plus grande est la
part de l'énergie inutilisée
ou utilisée de façon incohérente.
L'entropie est une grandeur extensive. Effectivement, nous avions
montré que le choix du logarithme dans la loi de Boltzmann
venait de ce que l'entropie d'un macro-état était
l'espérance
de l'ensemble des micro-états:
(33.210)
ce qui nous avait amenés à:
(33.211)
et montre bien que l'entropie est une grandeur extensive car
sommable sur les micro-états (complexions).
Ce qui reste difficile maintenant c'est de savoir si l'énergie
dans les unités de l'entropie provient du travail W,
de la chaleur Q ou des deux? Au fait la réponse est
simple car dans notre développement de la loi de Boltzmann, à aucun
moment le système (idéal) étudié n'a
fourni un travail (mécanique). Donc la seule énergie
mise en cause est celle de la chaleur.
Ainsi:
(33.212)
Or, l'entropie ne peut pas être donnée en toute rigueur
par:
(33.213)
car c'est la définition de la chaleur spécifique.
Par ailleurs, si le lecteur se rappelle de nos développements
en Mécanique Statistique,
l'étude se faisait dans un système isolé avec
deux cavités. Donc
si le passage d'une cavité à l'autre se fait très
lentement (de façon à ce qu'il n'y ait pas une détente
du gaz) la température
restera constante (détente isotherme). Ce qui implique donc
la définition (nous retrouvons donc la forme discrète du
deuxième principe de la thermodynamique déjà introduit au début
de ce chapitre9:
(33.214)
Pour passer à la forme différentielle, il convient de
se rappeler que la chaleur Q est une différentielle
inexacte. Donc pour une transformation réversible:
(33.215)
Donc l'entropie est une différentielle totale exacte (la
chaleur dépend de la manière dont se fait la transformation,
mais S ne
dépend que de l'état final et initial de la chaleur Q)
et comme:
(33.216)
Nous avons finalement:
(33.217)
Si le système est dans une transformation adiabatique (sans échange
de chaleur et de travail avec l'extérieur) alors le numérateur
est nul et l'entropie est in extenso nulle aussi (raison pour laquelle
un système adiabatique et forcéement isentropique!). Sinon, le
système
prend de l'entropie à l'Univers
dans une évolution
naturelle.
Ce qui signifie que l'entropie (espérance de l'information intrinsèque)
dans un système en contact avec l'extérieur ne peut qu'augmenter
ou rester constante.
Ce qui est important c'est que tout processus (non adiabatique)
convertissant de l'énergie d'une forme en une autre dans
un système
isolé en perd obligatoirement une partie sous forme de chaleur.
En ce qui concerne l'Univers... toute la question est de savoir
s'il s'agit d'un système thermodynamique isolé ou
non... Mais comme par hypothèse le Big Bang a engendré le temps
et l'espace (puisque la relativité montre que espace et temps sont
indissociables), alors rien n'existait avant lui puisque le temps
n'existait pas avant... et il n'y avait pas d'espace puisque c'est
le Big
Bang
est à l'origine. Donc il n'y rien autour (par hypothèse...).
Nous avons alors la relation très utile en mécanique des
fluides (et en cosmologie):
(33.218)
qui se nomme "identité
thermodynamique" relative
à l'énergie interne U ou encore "fonction
caractéristique d'un fluide à l'équilibre" ou
plus souvent "équation fondamentale
de Gibbs" (on remarquera au passage qu'il s'agit d'une
somme de produits de grandeurs intensives et extensives). Si la
quantité de
matière
n'est pas constante (matière
insérée ou extraite du système), cette dernière
relation s'écrit alors pour une variation de dn moles:
(33.219)
où est
un coefficient de proportionnalité qui porte le nom de "potentiel
chimique" et qui peut être donc mesuré de
par le fait que la relation précédente amène à la
définition que:
(33.220)
qui dit que le potentiel chimique est l'énergie dont
varie le gaz lorsqu'on lui injecte ou retire dn mole
de gaz, tout en gardant constant le volume de l'enceinte et en
interdisant les échanges de chaleur avec l'environnement.
On retrouve souvent dans la pratique la relation
antéprécédente sous la forme suivante après
réarrangement (et en supposant la quantité de matière constante):
(33.221)
Cette dernière relation est souvent assimilée
au premier principe de la thermodynamique pour des systèmes
fermés
dont la variation d'énergie potentielle et cinétique
globale est constante.
Remarquons qu'en utilisant le relation qui lie la
varation d'énergie
interne d'un gaz parfait monoatomique en fonction de sa variation
de température
à volume constant démontrée plus haut (première
loi de Joule):
(33.222)
et l'équation des gaz parfaits (cf.
chapitre de Mécanique Des Fluides):
(33.223)
Nous avons alors en utilisant la capacité calorifique
molaire à volume constant (se rappeler que nous ne pouvons
l'injecter dans cette relation que pour un gaz parfait car elle est
alors indépendante du volume!):
(33.224)
Et donc en intégrant entre deux états, il vient:
(33.225)
Soit la variation d'entropie d'un gaz parfait à pression
constante:
(33.226)
Et comme nous avons démontré aussi
plus haut que:
(33.227)
Il vient alors en utilisant aussi les propriétés
algébriques du logarithme:
(33.228)
Et comme dans la pratique il est plus facile de mesurer
une pression qu'un volume, nous avons en utilisant la loi des gaz
parfaits où à température constante:
(33.229)
le résultat suivant très important
dans la pratique considéré comme la variation d'entropie d'un gaz
parfait à volume constant:
(33.230)
Ne pas oublier que si le calcul avec des applications
numériques donnent des valeurs négatives pour la
variation de l'entropie l'interprétation
est très simple: c'est que le sens de la transformation
arbitraire considéré n'est pas le sens réel
(naturel) auquel procéderait le système laissé à lui-même dans
l'Univers.
Enfin, remarquons que pour un fluide incompressible
(équivalent à une transformation isobare), nous avons alors:
ÉCOULEMENT DE LA CHALEUR
Maintenant que nous avons introduit les notions élémentaires
de la thermodynamique, faisons de suite un exemple d'application
très important des premier et deuxième principes de la
thermodynamique.
Considérons deux systèmes fermés 1 et 2 étant en contact thermique
et formant un système total qui est supposé isolé thermiquement
de l'environnement..

Figure: 33.3 - Système total isolé avec deux sous-systèmes en contact
Dans les deux systèmes, il n'y a pas d'éléments mécaniques,
comme des pistons ou autres, qui peuvent travailler. Donc:
(33.231)
Les conditions et les hypothèses étant posées, nous utilisons
les ingrédients de la thermodynamique pour faire notre recette.
Il vient alors par application du premier principe tel que démontré plus
haut dans un premier temps pour l'ensemble:
(33.232)
Dont nous déduisons que:
(33.233)
Nous avons aussi pour chaque sous-système:
(33.234)
D'où nous déduisons de ce dernier système d'équations en sommant:
(33.235)
et comme nous avons démontré juste avant que:
(33.236)
Il vient:
(33.237)
et donc:
(33.238)
Appliquons maintenant le deuxième principe (principe d'évolution).
Nous avons:
(33.239)
Or avec la relation antéprécédente, nous avons:
(33.240)
Nous avons maintenant deux scénarios possibles, pour le premier,
nous avons:
(33.241)
et lorsque:
(33.242)
Donc:
(33.243)
Pour le deuxième scénario, nous avons:
(33.244)
et lorsque:
(33.245)
Donc:
(33.246)
Nous concluons que quoi qu'il arrive, l'entropie augmente pour
un système isolé. Ce résultat est donc conforme à ce
que nous avions communiqué lors de notre présentation
du deuxième principe. Donc ce résultat démontre
l'impossibilité
d'une machine thermique ditherme isolée fournissant un travail
perpétuel
puisque l'entropie ne peut faire qu'augmenter dans tous les cas!
Nous voyons aussi comme nous l'avons déjà mentionné que l'entropie
définit la flèche du temps dans l'Univers (ou inversement).
CYCLE DE CARNOT
Le cycle de Carnot a pour objectif principal de calculer le rendement
thermique d'un cycle thermodynamique d'une machine ditherme très
idéalisée... (donc le modèle est très éloigné de
la pratique!) basée sur une source de chaleur à laquelle
nous prenons de la chaleur pour la transformer en travail et ensuite
pour laquelle nous utilisons du travail afin de lui fournir de
la chaleur et ainsi de suite en boucle (penser à une locomotive
par exemple!). Nous parlons alors de "cycle
réversible".
L'idée est assez simple... mais comme toujours il fallait
y penser! Pour information nous avons choisi une approche mathématique
du cycle de Carnot qui permet de se soustraire de toute intégrale
est qui est plus proche du raisonnement fait à l'époque
de Carnot par Carnot lui-même. Cette approche peut donc faire
hérisser les cheveux à certains lecteurs...
Du point de vue de l'énergie interne, sur un cycle
thermodynamique, il n'y aura pas eu de variations (puisqu'à chaque
début de cycle nous devons nous retrouver dans la situation
du cycle précédent). Donc:
(33.247)
Il s'agit jusqu'ici simplement du rappel du principe
de conservation de l'énergie (premier principe de la thermodynamique).
Ce qui implique que sur un cycle le bilan de la chaleur empruntée à la
machine pour produire un travail (mécanique) et
de la chaleur réinjectée
ayant nécessité un travail (mécanique) est
nul tel que sur un cycle:
(33.248)
ou évidemment ce qui est emprunté aura,
comme il est d'usage, un signe positif et ce qui est injecté un
signe négatif!!!!! Il est d'usage de noter cette dernière
relation sous la forme condensée:
(33.249) Le rendement thermique est
par définition le rapport de
ce que la machine peut donner réellement donner sous forme
de travail (donc le différentiel entre ce qu'elle a donné et
ce qu'on doit lui donner pour qu'elle fonctionne ) sur la chaleur
que l'on lui a injecté (à l'aide du travail ). Donc:
(33.250)
ce qui est toujours inférieur à l'unité (et
supérieur à 0) puisque la quantité de chaleur
extraite (signe positif par convention) est obligatoirement inférieure
ou
égale à la quantité de chaleur injectée
(signe négatif par convention).
Or, nous avons démontré que dans la
condition d'une détente isotherme ou compression isotherme
(donc le cycle est supposé comme étant très
lent dans le modèle de Cournot), nous avions:
(33.251)
Or, dans notre cas sont
en réalité un
abus de notation courant en thermodynamique car il s'agit de variation
de chaleur (nous devrions noter objectivement ). Nous avons alors
pour le rendement thermique réversible à compression
ou détente isotherme:
(33.252)
étant donné que dans une transformation
thermodynamique quasi-statique la variation d'entropie ne dépend
que des valeurs initiales et finales de température (les
variations intermédiaires étant
considérées comme nulles puisque infiniment petites
car infiniment lentes) elle tend alors à être une
transformation réversible...
Il vient alors (puisque aucune entropie n'est créée) "l'égalité
Clausius-Carnot":
(33.253)
et donc nous avons pour le rendement thermique réversible
(donc situation parfaite et idéale considérée comme une limite théorique
maximale) à compression
ou détente
isotherme:
(33.254)
La transformation étant quasi-statique, la
relation obtenue est bien évidemment l'efficacité maximale
théorique
pour un moteur fonctionnant entre ces deux températures.
Elle n'est donc jamais atteinte dans un cycle réel. Nous disons
alors que le "rendement de Carnot" est
un maximum (l'entropie injectée étant dans un cas réel
toujours plus grande que l'entropie extraite par construction ).
Nous sommes donc amenés à "l'énoncé
de Kelvin-Planck"
qui dit que:
- Première variante: il est impossible de
concevoir une machine décrivant un cycle et qui n'aurait d'autre
effet que
de
produit
un travail
et d'échanger de la chaleur avec un seul et unique réservoir
thermique.
- Deuxième variante: il est impossible pour un moteur
thermique effectuant un processus cyclique de convertir intégralement
en travail la chaleur qu'il absorbe.
Dans
le cas d'une machine à vapeur d'eau, l'efficacité théorique
maximale serait donc (ne pas oublier que la température
est en Kelvin et donc toujours positive!):
(33.255) Par exemple dans le cas d'une central nucléaire à eau
sous pression, nous trouvons le fameux rendement souvent mentionné dans
la presse:
(33.256)
Le rendement réel de la conversion de la chaleur des fissions
en électricité est de l'ordre de 33% seulement car le rendement
réel est toujours inférieur au rendement théorique maximum.
La relation:
(33.257)
a un intérêt très utile en pratique. Effectivement, si un ingénieur
dit avoir construit une machine qui arrive à convertir par exemple 1'000 [kJ]
d'entrée en 410 [kJ] de pur travail soit un rendement de 41%,
alors d'autres ingénieurs pourront vérifier si ce rendement est surestimé en
mesurant le température de la source d'entrée et la température de sortie.
Remarque: Nous pouvons noter en passant l'intérêt
du condenseur. Si nous laissons s'échapper à l'atmosphère
la vapeur sortant des turbines, d'une part on perdrait une eau purifiée
au lieu de la recycler, d'autre part on aurait une température de source
froide plus élevée:
100 [°C] au lieu de 35 [°C] on perdrait alors
environ 12% sur le rendement de Carnot.
Nous retrouvons enfin implicitement également l'un des énoncés
historiques du second principe de la thermodynamique en envisageant le cas
où .
Dans ce cas, l'efficacité est nulle et le moteur ne fournit
donc aucun travail.
Revenons brièvement sur le fait que dans le cas particulier idéal
du cycle considéré ci-dessus (qui pour rappel est donc uncycle
thermodynamique idéal constitué de quatre
processus réversibles: une détente isotherme, une détente
adiabatique (donc isentropique car réversible), une compression isotherme,
et une compression adiabatique...) nous avons été amenés à écrire:
(33.258)
Or le deuxième principe de la thermodynamique nous dit
que la variation d'entropie est toujours positive ou nulle, ce que nous avions
écrit pour rappel:
(33.259)
mais dans le cas réversible ci-dessus, pour que la variation
d'entropie cyclique du processus réversible soit nul c'est qu'obligatoirement
un des deux termes viole ce principe (du moins dans le cas d'un cycle) et a
donc une entropie négative
(afin que la somme s'annule) tel que nous sommes amenés à écrire:
(33.260)
C'est une violation de la réalité que les thermodynamiciens
nomment
"inégalité de Clausius".
Il est alors d'usage de résumer les cycles thermodynamiques sous la
forme suivante:
(33.261)
RELATIONS DE MAXWELL
Revenons dans un premier temps à ce que nous avons déjà rappelé un
peu plus haut mais en nous restreignant à deux variables. C'est-à-dire à la
différentielle totale exacte:
(33.262)
Nous avons donc aussi:
(33.263)
En insérant dy dans dx:
(33.264)
ou encore:
(33.265)
comme les termes entre parenthèses sont des fonctions et que dx et dz sont
par contre arbitraires, la seule solution à cette relation est:
(33.266)
Multipliant la deuxième relation par :
(33.267)
Nous avons alors:
(33.268)
Venons-en maintenant aux faits. Rappelons l'équation fondamentale
de Gibbs:
(33.269)
relation très utile dans les fluides où la pression est constante
et la variation de chaleur se fait par celle de l'entropie. Ainsi
que la relation définissant l'enthalpie:
(33.270)
dont nous allons modifier la différentielle:
(33.271)
et y injectant (premier principe):
(33.272)
nous avons (remarquez que si la transformation est isobare la
variation d'enthalpie représente alors uniquement la quantité de
chaleur reçue par le système fermé):
(33.273)
et en y injectant l'entropie (deuxième principe) nous obtenons:
(33.274)
Ainsi, en ayant juste rajouté PV à l'énergie
interne U nous
avons bien une fonction d'état (H) où nous
maîtrisons
la pression et l'entreprise comme variables indépendantes,
alors que pour U seule, nous maîtrisons l'entropie
et le volume en tant que variables indépendantes. Nous
Nous allons donc utiliser les deux relations suivantes qui vont
nous être utiles:
(33.275)
Nous introduisons maintenant une nouvelle
quantité que nous appelons "énergie
libre" (celle qui est réellement disponible
dans le système)
et qui sera donnée par la "relation
de Gibbs-Helmholtz":
(33.276)
et donne simplement la différence entre l'énergie
interne et l'énergie calorique dissipée à cause
de l'entropie à une température
donnée. L'idée étant cette fois de contrôler le volume et
la température comme variables indépendantes (voir juste un peu
plus bas lorsque nous en prenons la différentielle), ce qui est
bien évidemment une situation des plus importantes en chimie!
Nous introduisons également une autre nouvelle quantité que nous
appelons "enthalpie libre" (celle qui est réellement
disponible dans le système) et qui sera donnée identiquement par:
(33.277)
qui est simplement la différence entre l'enthalpie et l'énergie
calorifique dissipée à cause de l'entropie à une température donnée.
Nous avons donc pour l'énergie libre la forme différentielle:
(33.278)
en y injectant le premier principe et deuxième principe:
(33.279)
Ainsi, nous voyons que si la transformation est isotherme dF se
réduit au travail reçu par le système fermé (puisque dT est
alors nul).
De même pour l'enthalpie libre:
(33.280)
en y injectant:
(33.281)
Par conséquent, dans le cas d'une transformation isotherme
et isobare la variation d'enthalpie libre est nulle.
Nous avons donc quatre relations:
(33.282)
appelées "équations de Gibbs".
Nous remarquons que ces équations sont toutes de la forme:
(33.283)
Or, rappelons que selon le théorème de Schwarz (cf.
chapitre de Calcul Différentiel Et Intégral)
si dz est
bien une différentielle totale exacte, nous avons alors:
(33.284)
Ce qui nous donne les quatre relations:

(33.285)
Par ailleurs, par la définition même des dérivées partielles
et des quatre relations:
(33.286)
nous avons:
(33.287)
Toutes ces relations sont mises à profit pour calculer les variables
thermodynamiques non directement mesurables à partir des données
expérimentales.
Pour clore les définitions de ces variables thermodynamiques,
indiquons le fait que d'avoir posé:
(33.288)
ou autrement dit, le fait que pour tout couple X, Y de
variables conjugées et une fonction thermodynamique f nous
posions:
(33.289)
s'appelle une "transformation de Legendre" (voir
pour les détails mathématiques de la transformation
le chapitre de Mécanique Analytique). Ce type de transformation
permet donc de modifier l'ensemble des variables indépendantes
pour avoir un ensemble de variables mieux adaptées au problème
considéré.
Maintenant voyons une relation qui nous sera utile en météorologie!:
Nous savons que la chaleur spécifique est donnée par définition à pression
constante par:
(33.290)
Or à pression constante, la variation de chaleur peut s'écrire
par définition avec la variation d'enthalpie:
(33.291)
Maintenant rappelons que l'enthalpie s'écrit:
(33.292)
comme dS est une différentielle exacte, nous pouvons l'écrire
en fonction des paramètres de température et de pression
seuls:
(33.293)
Nous avons donc:
(33.294)
Comme par ailleurs dH est une différentielle exacte, nous
pouvons aussi l'écrire en fonction des paramètres de température
et de pression seuls:
(33.295)
Nous avons alors les deux relations à identifier:
(33.296)
Il vient alors:
(33.297)
ÉQUATION DE CONTINUITÉ
Considérons
de manière générale un système ouvert, limité par une frontière
quelconque (déformable ou non) et animé d'un mouvement quelconque
(en déplacement ou immobile) par rapport à un référentiel considéré
comme fixe.
Ce système,
qui est représenté sur la figure ci-dessous, est
susceptible de transférer
de l'énergie (ou de la masse) entre lui-même et l'extérieur.
Ce système peut être inertiel ou non.
Soit une grandeur extensive A (comme la masse ou la charge).
La grandeur quantitative correspondante est a (elle peut
exprimer par exemple l'isotropie ou l'anisotropie du système).

Figure: 33.4 - Système ouvert en mouvement ou non dans un référentiel
et transférant
de l'énergie
D'une façon générale, la
valeur de A
à l'intérieur du système est, à un instant quelconque:
(33.298)
étant
la densité de la grandeur extensive A.
Le
taux de variation spatial de A
est donné par la dérivée dA/dt.
Les causes de variations de A
peuvent être liées à deux phénomènes différents: les flux et les
sources ou puits.
En comptant
positivement ce qui entre dans le système, le flux de A
à travers la frontière
est donné par l'intégrale de surface:
(33.299)
dans laquelle
nous définissons:
-
comme
le vecteur flux surfacique (ou le vecteur densité de courant)
total relatif à A
-
comme
l'élément de frontière, exprimé par un vecteur normal à la surface
et dirigé vers l'extérieur
Remarquons que,
contrairement à l'acceptation
usuelle en physique, le concept de flux contient déjà la
dérivation par rapport au temps. Par ailleurs, afin d'alléger le
texte, l'expression vecteur flux surfacique est réduite au terme
flux dans tout ce qui suit.
Ce flux peut
être décomposé en plusieurs flux, selon la relation:
(33.300)
Le terme est
un flux par déplacement absolu, caractérisant un flux lié à un écoulement
fluide. Nous avons la relation:
(33.301)
où est
la vitesse absolue d'une particule fluide par rapport au référentiel
fixe.
Le terme est
un flux par déplacement apparent, mis en jeu seulement lorsque la
frontière
se déplace (par exemple si le volume V
est en révolution). Nous avons la relation:
(33.302)
où est
la vitesse apparente de déplacement (dans le sens déformation!)
d'un point de la frontière ,
par rapport au référentiel fixe.
Le terme est
le flux total par conduction, caractérisant un flux lié à un phénomène
de transfert de proche en proche, sans déplacement fluide (par
exemple: conduction thermique, conduction électrique, travail
mécanique).
Le terme est
un flux par déplacement relatif, résultant à la fois du déplacement
du fluide et de celui de la frontière .
Nous avons la relation:
(33.303)
où est
la vitesse relative d'une particule fluide par rapport à un point
bien défini de la frontière .
En vertu du principe de composition des vitesses (vitesse absolue
est la somme de la vitesse relative et de sa vitesse apparente),
nous avons:
(33.304)
Lorsque la frontière
est traversée par un fluide, le débit-masse élémentaire (c'est la
masse qui nous intéresse le plus souvent en physique donc sera
une densité massique) est:
(33.305)
Le flux de A
correspondant est alors donné par:
(33.306)
où désigne
la portion de frontière
traversée par le débit masse (ou fluide).
Si nous comptons
positivement l'effet d'une source, le taux d'augmentation de A
est donné par:
(33.307)
où est
le flux volumique d'une source de A.
En tenant compte
à la fois des flux et des sources, nous avons le taux de variation
spatial de A:
(33.308)
Le bilan spatial
de A
est finalement exprimé par la relation:
(33.309)
Dans le cas
particulier d'un système en régime permanent (par exemple dans le
cas d'un fluide qui s'écoule ou d'un solide qui est le siège de
conduction thermique, de conduction électrique, de réaction nucléaire,...),
toutes les grandeurs locales sont constantes en tout point du système.
Si, de plus, nous choisissons une frontière
indéformable, il est possible de raisonner par rapport à un référentiel
lié au système. Nous avons alors, en tout point fixe du système
par rapport à ce référentiel:
;
;
(33.310)
Il en résulte
pour l'ensemble du système:
(33.311)
Donc dans le
cas particulier d'un système en régime permanent, avec une frontière
indéformable ,
liée au système, le taux de variation spatial de toute grandeur
extensive scalaire est nul.
Le taux de variation uniquement spatial de A est:
(33.312)
La variation
élémentaire du volume V
est due au déplacement (au sens de la déformation!) de la frontière
,
de sorte que
(33.313)
Dès lors nous
pouvons écrire que:
(33.314)
nous avons donc:
(33.315)
En prenant en
compte les flux des sources et des puits, nous avons:
(33.316)
Le théorème
de Gauss-Ostrogradsky
(cf. chapitre de
Calcul Vectoriel) va
nous permettre d'écrire
l'intégrale
de surface en une intégrale de volume, et en groupant tous
les termes sous le même signe intégrale, nous obtenons:
(33.317)
Comme les limites
d'intégration (frontière )
sont arbitraires, l'expression entre crochets est identiquement
nulle.
(33.318)
Considérons
maintenant que la grandeur extensive scalaire soit la masse M,
nous avons alors:
(33.319)
avec .
Comme la masse
n'est pas susceptible d'être transférée par un phénomène de conduction
(dans un cas classique (non quantique)), nous avons qui
est nul. Comme la masse est conservative, il n'y a ni source, ni
puits de masse de sorte que est
également nul.
Nous avons dès
lors:
(33.320)
La relation:
(33.321)
est
appelée "équation de continuité" ou
encore "équation
de conservation (de la masse)".
Le
signe "-" est ici car nous avons défini le flux
entrant comme étant positif. Il est possible que dans la
littérature ainsi
que sur ce site, vous trouviez un "+" à la place de
ce signe.
Il y a une autre forme beaucoup
plus fréquente sous laquelle nous trouvons l'équation
de continuité. Le lecteur aura remarqué que le terme
a les unités d'une densité de surface de courant
massique
ce qui nous amène en analogie avec l'électronique
(cf. chapitre d'Électrocinétique) à noter:
(33.322)
Ce qui ramène l'équation
de continuité à:
(33.323)
ÉQUATION DE LA CHALEUR
Appliquons
maintenant ce résultat à la diffusion de la chaleur.
Comme pour l'équation de
conservation de la masse, nous pouvons écrire pour la chaleur
dans le cas d'absence de sources:
(33.324)
où q
est la quantité de chaleur par unité de volume (ne pas l'oublier
sinon nous aurions pris un Q majuscule!) et
le flux de chaleur dont la quantité entrante a été définie comme
négative.
Une variation de température
entraînant une variation de la quantité de chaleur est définie
en première approximation par la loi physique suivante (cela découle
de la définition de la chaleur spécifique massique
aussi...):
(33.325)
où est
la densité de matière et est
la capacité calorifique massique. Ou de manière équivalente
(puisqu'en thermodynamique, comme nous l'avons déjà précisé les
minuscules sont rapportées à la masse):

Le flux de chaleur étant
trivialement induit par une différence spatiale de température,
nous obtenons alors la "loi de Fourier" qui
exprime le flux de chaleur proportionnellement au gradient spatial
de
température:
(33.326)
Le signe "-" étant
simplement dû au fait que le flux de chaleur va du plus chaud
au plus froid et est
le "coefficient de transport de la
chaleur" exprimant
la "conductivité thermique" du
matériau dépendant
des propriétés
atomiques de la matière (cf. chapitre
de Mécanique Statistique).
Nous retrouvons plus souvent dans la pratique cette relation sous
la forme suivante dans le cas unidimensionnel (nous ferons un petit
exemple pratique plus loin avec cette forme d'écriture):
(33.327)
En insérant
les deux relations antéprécédentes
dans l'équation
de conservation de la chaleur, nous avons:
(33.328)
De façon plus esthétique et générale,
nous la retrouvons sous la forme condensée de "l'équation
de diffusion de la chaleur" ou appelée plus
sobrement
"équation de la chaleur":
(33.329)
où le coefficient de proportionnalité est
appelé dans
le cadre de la chaleur: "coefficient
de diffusion thermique":
(33.330)
Il est possible de démontrer
son origine microscopique comme nous l'avons fait dans le chapitre
de Mécanique Statistique.
Il faut cependant toujours faire attention aux unités de suivant
que nous travaillons avec la capacité calorifique massique ou
la capacité calorifique C au dénominateur!
Donc sous forme totalement explicite,
nous avons en une dimension:
(33.331)
Remarques:
R1. Nous retrouverons cette équation dans le chapitre de
Méthodes
Numériques pour introduire le lecteur au concept de résolution
d'équations différentielles par la méthode
des éléments
finis avec un exemple de résolution avec MS Excel.
R2. C'est en étudiant cette équation que Fourier a introduit
les séries et la transformée qui portent son nom, et qui sont devenues
si importantes dans l'étude des phénomènes de propagation/diffusion.
R3. L'équation de diffusion se retrouve dans de nombreux
domaines (thermodynamique, fluides, finance,...) et il existe une
littérature
considérable sur les différentes solutions de cette équation
différentielle
du second ordre.
Dans le chapitre d'Analyse Fonctionnelle nous montrerons comment résoudre cette
équation avec la transformée de Fourier et la transformée de Laplace.
R4. Souvent les praticiens écrivent:
(33.332)
et donc introduisent le concept de "résistance
thermique"
au dénominateur. Bref rien d'extraordinaire mais d'usage fréquent.
Insistons sur le fait que toutes les relations du type:
(33.333)
sont appelées "équations
de diffusion" du
paramètre
physique D. Nous allons tout de suite voir comment la résoudre
en prenant comme exemple l'équation de diffusion de la chaleur
et cela nous permettra aussi de comprendre pourquoi Fourier a introduit
la fameuse transformée qui porte son nom. Mais rappelons
au lecteur que nous la retrouvons dans de multiples contextes
(cf.
chapitre de Mécanique Statistique).
Exemple:
E1. Un parallélépipède constitué d'acier
(ayant une conductivité thermique
de )
a une de ces faces maintenue à 331.15 [K] et l'autre
à 297.15 [K], les
deux faces étant
distantes
de 1 [cm] et ayant une surface de 1 [m2].
En supposant une situation à l'équilibre le transfert
de chaleur est alors donné
par:
(33.334)
E2. Pour une tube cylindrique de longueur transportant
un fluide chauffé (cas très important dans la pratique)
nous souhaitons déterminer
la quantité de chaleur échangée
par unité de temps avec
l'extérieur
sachant que la surface en contact avec le fluide (rayon interne
ri ) n'étant pas la même
avec la surface en contact avec l'extérieur
(rayon re ) nous ne
pourrons
pas simplement faire le rapport des différences de la température
et de la distance entre les deux surfaces. Nous avons donc:
(33.335)
Remarque: Cette équation
(du moins sa forme et donc l'étude de
sa résolution!) se retrouve dans des domaines inattendus comme
dans la diffraction en physique ondulatoire, dans l'équation de
Schrödinger en physique quantique, en finance dans l'équation de
Black & Scholes, en électrocinétique dans le domaine des résistances,
dans l'étude de la propagation des champs électromagnétiques dans
la matière, dans l'étude des réactions en chimie, en neutronique
nucléaire, etc.
Résolvons donc la forme générale de l'équation
de diffusion::
(33.336)
Pour résoudre cette équation différentielle
du second ordre, nous allons utiliser la méthode de séparation
des variables (cf. chapitre de Calcul Différentiel
Et Intégral) plutôt qu'en attaquant directement
par les transformées de Fourier (qui nécessite la
démonstration préalable
du théorème de convergence dominée qui me
fait horreur).
Nous supposons dès lors en utilisant la méthode de séparation
des variables que:
(33.337)
où T(t) par le principe du second principe
de la thermodynamique doit diminuer lorsque t croît.
Nous avons immédiatement:
(33.338)
d'où l'équation de diffusion:
(33.339)
ce qui remanié et condensé s'écrit aussi:
(33.340)
Ce qui peut s'écrire en posant que chacun des expressions
à gauche et à droite de l'égalité sont assimilables à des fonctions:
(33.341)
donc pour que l'égalité soit vraie pour tout t et x les
fonctions G et F doivent être constantes. Donc nous
avons le droit d'écrire:
(33.342)
Le fait d'écrire la constante négative et au carré
est une simple anticipation du résultat historiquement déjà connu...
Mais pour comprendre pourquoi la constante est obligatoirement
négative, il suffit de penser que que T '
est obligatoirement négatif (la température d'un système isolé
ne va
pas augmenter
tout seul mais naturellement diminuer selon le principe de l'entropie)
et comme D et T sont positifs alors in extenso...
Ce qui nous donne le système de deux équations
différentielles indépendantes du deuxième ordre:
(33.343)
que les américains écrivent sous sous la forme suivante:
(33.344)
Nous résolvons la deuxième équation différentielle:
(33.345)
Donc:
(33.346)
Pour la première équation différentielle:
(33.347)
Nous avons alors le polynôme caractéristique:
(33.348)
Soient les racines:
(33.349)
Donc comme le discriminant est négatif (cf.
chapitre de Calcul Différentiel
Et Intégral):
(33.350)
Soit:
(33.351)
Si nous mettons l'exponentielle des constantes en exposant dans
les facteurs tel que:
(33.352)
cela simplifie l'expression:
(33.353)
dont les coefficients seront déterminés au cas par
cas par les conditions initiales dont les cas scolaires les plus
connus et
faisant l'objet d'une
littérature abondante sont: - Conditions de Dirichlet:
(33.354)
- Conditions de Neumann:
(33.355)
Puisque pour chaque valeur de possible
nous obtenons une solution, il apparaît donc qu'en faisant
la somme de toutes ces solutions,
nous obtenons la solution générale. Nous avons
donc séries de Fourier finie:
(33.356)
à cause de la présence au carré du dans
l'exponentielle temporelle en facteur de la paranthèse,
si nous sommons sur tous les de
alors
la somme de tous les termes de la paranthèse s'annuelle
pour tout couple positif
et négatif de même valeur. Il nous faut alors sommer
que sur la demi-droite infinie (soit
à gauche soit à droite cela n'a pas d'importance)
si nous ne voulons pas que le résultat soit nul. Si nous choisissons
abitrairement le demi-droite infinie positive, nous avons alors:
(33.357)
Rien ne nous interdit maintenant de sortir un facteur des
constantes ,
le seul effet que cela aura sait de changer leur normalisation
donnée par les conditions initiales.. Nous avons alors:

Comme est
un paramètre réel continu (et accessoirement positif),
en le faisant tendre vers zéro la somme peut être changée
une intégrale (en faisant cela à la physicienne)
et nous avons alors:
(33.358)
Et en faisant un changement de variable pour la deuxième intégrale,
nous avons:
(33.359)
En regroupant les constantes, nous avons:
(33.360)
avec:
(33.361)
Nous avons maintenant une chose intéressante! Au temps t nul,
l'intégrale précédente s'écrit:
(33.362)
et en changeant la notation pour le paramètre ainsi
que la notation pour x, nous avons:
(33.363)
Et alors direz-vous? Eh bien comme nous l'avons vu lors de notre étude
des transformées de Fourier (cf. chapitre
Suites Et Séries) il s'agit d'une transformée
de Fourier inverse qui est une somme infinie de fonctions trigonométriques
réelles! Ce qui signifie que toute fonction décrivant la
distribution de température au temps t nul
pour une barre de longueur infinie et dont les extrémités au même
moment tendent vers zéro (donc implicitement il s'agit d'une fonction
de période infinie) telle que:
(33.364)
satisfait l'équation de la Chaleur en tant que série
trigonométrique
infinie. Revenons à notre notation initiale:
(33.365)
Pour rappel du chapitre de Suites Et Séries
(avec la notation adaptée ici présente) nous avons
en appliquant la transformer de Fourier inverse:
(33.366)
Donc est
la transformée de Fourier de la fonction recherchée
telle que:
(33.367)
Ce qui donne alors en faisant en injectant la transformée
de Fourier avec un changement de variable qui s'impose:
(33.368)
Toujours en gardant en tête que si nos posons t comme
étant nu ci-dessousl, nous retrouvons alors bien:
(33.369)
Puisque dans la dernière égalité le terme est
indépendant de la variable v, nous pouvons le mettre
dans la deuxième intégrale tel que:
(33.370)
Nous y reconnaissons alors une double intégrale dont nous pouvons
changer l'ordre d'intégration par l'application du théorème de
Fubini (cf. chapitre de Calcul Différentiel Et Intégral):
(33.371)
et rappelons que dans la chapitre de Suites Et Séries nous avons
démontré que la transformée de Fourier d'une Gaussienne est une
autre Gaussienne tel que:
(33.372)
Il vient alors dans le cas qui nous intéresse en faisant
une correspondance terme par terme:
(33.373)
Soit:
(33.374)
Donc toute fonction f(v) injectée
dans la relation ci-dessus satisfera alors aux conditions initiales
que nous nous sommes imposés:
(33.375)
Pour information, de nombreux physiciens nomment dans la solution
précédente,
l'expression:
(33.376)
le "noyau de chaleur".
Donc le résultat final n'est en réalité qu'une
convolution de la f(v)
avec ce "noyau".
Dans la pratique cette intégrale n'est pas calculable analytique
puisqu'il s'agit d'une convolution avec une Gaussienne (cf.
chapitre de Statistiques). Raisons pour laquelle on résout presque toujours
l'équation de la chaleur aux conditions initiales susmentionnnées
avec des méthodes numériques (cf.
chapitre de Méthodes Numériques).
Mais résolvons un cas simplistes mais réel:
Exemples:
E1. Lorsque deux extrémités d'un système de taille L sont
maintenues à deux
températures différentes et ,
la solution de l'équation de la chaleur est stationnaire
(indépendante
du temps). Nous avons alors:
(33.377)
La solution à cette équation différentielle
est très simple et ne nécessite pas l'utilisation
du résultat
précédent (c'est du calcul intégral de base
avec conditions initiales connues):
(33.378)
C'est une situation que nous retrouvons dans la vie de tous les
jours...
E2. Considérons le cas où nous mettons en contact
deux barreaux de longeur infinie (puisqu'avec la transormée de
Fourier il faut toujours qu'une des variables ballaie l'ensemble
des réels) et de température
opposée
en signe (sur l'échelle
des Celsius donc) tel que:
(33.379)
Nous avons alors:
(33.380)
et faisons le changement de variable:
(33.381)
Soit:
(33.382)
Nous avons alors:
(33.383)
Comme la fonction intégrée est une fonction paire
(cf. chapitre d'Analyse Fonctionnelle)
nous avons:
(33.384)
Soit:
(33.385)
Ce qu'il est d'usage de noter:
(33.386)
où "erf" est appelée la "fonction
d'erreur de Gauss"
et n'est pas calculable de façon exacte analytiquement (il
faut passer par des développements en série limité).
On la retrouve cependant dans des tableurs comme Microsoft Excel
sous le nom ERF( ).
LOI DE FICK
Nous avons venons de voir la démonstration de l'équation
de propagation de la chaleur proposée par Fourier en 1822
obtenue à partir de l'équation de continuité.
Nous avions obtenu (il est très recommandé au lecteur
de s'y référer à nouveau ne serait-ce que
pour lire les remarques relatives à la démonstration):
(32.387)
En se basant sur les mêmes hypothèses que Fourier, Fick
proposa en 1855 qu'un flux de particules pourrait se diffuser à travers
un matériau selon une loi similaire, la "deuxième
loi de Fick", de la forme:
(32.388)
où la constante de proportionnalité est le "coefficient
de diffusion de la matière" et la
densité de particules par unité de volume (et non
la densité de masse!).
Remarque: En pratique, la diffusion
joue un rôle essentiel dans la fabrication de céramique,
de semi-conducteurs (dopage), de cellules-solaires et dans la solidification
des métaux (traitement au carbone et à la chaleur).
Car lorsque deux matériaux chauffés sont mis en contact,
leurs atomes diffusent l'un dans l'autre.
Il faut comprendre que tout diffuse dans tout! Donc pensez
aux pesticides sur les fruits et légumes, à la
pollution dans les nappes phréatiques, au PET dans les
boissons...
Dès lors, la relation du flux surfacique de chaleur que
nous avions utilisée en thermodynamique (voir chapitre du
même nom) pour obtenir la loi de Fourier et qui était:
(32.389)
peut alors s'écrire certainement aussi (nous allons le
démontrer) dans le cas de la masse sous la forme d'un flux
surfacique de particules appelé "première
loi de Fick":
(32.390)
où D est le coefficient de transport de la matière
(à déterminer...). Nous retrouvons dans la littérature
cette dernière relation fréquemment sous forme unidimensionnelle.
Il vient alors:
(32.391)
Soit sous forme discrète:
(32.392)
Si la variation de distance est mis en correspondant
avec une longueur L parcourue par la diffusion, nous avons
alors la notation encore plus simplifiée:
(32.393)
Pour retrouver la relation connue par les petites
classes de chimie il faut savoir que les chimiste on pour habitude
de noter la densité par la lettre C pour indiquer
qu'il s'agit d'une Concentration. Dès lors, nous avons:
(32.394)
Mais ce n'est pas le seul changement de notation
fait par les chimistes. Effectivement il faut se rappeler que le
flux surfacique de particules (masse) est défini par la
quantité de masse passant par une surface constante par
unité de temps. Nous avons alors:
(32.395)
Comme l'origine du temps est souvent pris comme étant
zéro et que la masse initiale est nulle il vient alors après
réarrangement le relation classique finale connue par les
chimistes et biologistes (au signe près puisque ce n'est
qu'une question de convention):
(32.396)
Exemple:
Les plantes absorbent de l'eau pour la photosynthèse.
Nous savons par mesures expérimentales que la coefficient
de diffusion de l'eau dans l'air est de .
Les pores d'absorption des plantes ont tyiquement une section de
l'odre de .
La distance de diffusion est de l'ordre de .
La densité de vapeur d'eau à l'intérieur de
la plante est de l'ordre de et à l'extérieur .
Dès lors, la masse d'eau absorbée en une heure est
d'environ:
(32.397)
Résultat qui convient d'être multiplié par
les millions de pores qu'a une plante.
Remarque: Au fait, Fick démontra
d'abord la première loi et en procédant en tous points
de manière identique à l'équation de la chaleur
il obtint la deuxième loi qui porte son nom.
Les coefficients sont
appelés globalement "coefficients
de transport" et respectivement "coefficient
de diffusion thermique" dans le domaine de la chaleur
et "coefficient de diffusion" dans
le domaine de la matière.
Nous pouvons estimer les valeurs de ces coefficients à l'aide
d'un modèle microscopique simple.
Considérons pour cela une tranche de fluide (flux de chaleur
et flux de masse sont considérés comme un fluide)
perpendiculaire à l'axe des x et d'épaisseur où correspond
au libre parcours moyen (projeté selon x), dans laquelle
existe un gradient de concentration dirigé selon l'axe x.
Déterminons le courant de ce gradient à travers la
section S d'abscisse x.
Pour faire simple, nous pouvons considérer que, parmi toutes
les particules se trouvant entre l'abscisse et x,
un tiers, ont leur vitesse dirigée selon x (les deux
autres tiers étant sur y et z), et parmi ces
dernières, la moitié a une vitesse positive (finalement
nous devons considérer le 1/6 par direction).
Comme est
le libre parcours moyen, ces dernières particules franchiront
la section S sans avoir subi de collision: elles participeront
donc au courant de diffusion.
Notant la
concentration volumique à l'abscisse (et
considérant que cette concentration est constante entre et x,
ce qui, vu l'ordre de grandeur de ,
est à peu près vérifié), le nombre
de particules se trouvant entre les abscisses et x et
traversant effectivement la section S vaut alors:
(32.398)
Cette traversée prend un temps égal à ,
où est
la vitesse moyenne d'agitation thermique. Par conséquent,
la densité de courant circulant de la gauche vers la droite
vaut:
(32.399)
En procédant de la même manière pour les particules
se trouvant à droite de x, nous obtenons pour la
densité de courant circulant de droite à gauche:
(32.400)
La densité de courant totale circulant à travers S vaut
donc:
(32.401)
Or, nous pouvons aussi écrire cela sous la forme:
(32.402)
Si est
très petit, nous pouvons écrire:
(32.403)
Vu les simplifications apportées au modèle, le facteur
3 a toutes les chances d'être peu réaliste. En revanche,
la relation de proportionnalité entre gradient de concentration
et courant de diffusion est tout à fait crédible,
Nous écrirons finalement en généralisant à l'espace:
(32.404)
où D alors donnée par:
(32.405)
est la constante de diffusion massique. Comme D est positive,
nous constatons que le mouvement de diffusion des particules a
lieu dans le sens opposé au gradient, ce qui tend bien à homogénéiser
les concentrations.
Remarque: Si nous souhaitons obtenir
le flux de charge, il suffit de multiplier la relation obtenue à gauche
et à droite par la charge élémentaire.
Nous pouvons également estimer le flux d'énergie
thermique transportée par ces mêmes particules selon x.
En effet, dans chaque tranche de fluide, n particules transportent
chacune une énergie E correspondant à une
quantité de chaleur Q donnée (selon la loi
de Joule). Nous avons donc un flux surfacique d'énergie dont
la première composante est donnée par le même type
de bilan que les développements précédents:
(32.406)
Nous y trouvons immédiatement la définition de la
capacité calorifique (si nous divisons par la masse nous
aurions la capacité calorifique massique selon ce que nous
avons vu dans le chapitre de Thermodynamique). Ainsi, dans le cas
unidimensionnel:
(32.407)
Il y a donc un simple rapport de proportionnalité entre et C.
Remarque: Selon les auteurs le flux
est noté avec le symbole de la densité de courant,
soit  .
Faisons un petit tableau récapitulatif pour les quelques
lois de diffusion démontrées jusqu'à maintenant
sur ce site (dans leurs chapitres respectifs) en utilisant la notation
la plus courante en physique (et non celle des thermodynamiciens...):
Loi de Fourier |
Loi de Fick |
Loi d'Ohm |
Thermodynamique |
Mécanique Statistique |
Électrocinétique |
  |
 |
 |
Densité de courant thermique
T: température
|
Densité de courant particulaire :
concentration
|
Densité de courant électrique
U: potentiel électrique
|
:
conductivité thermique |
D: coefficient de diffusion |
:
conductivité électrique |
flux thermique:
 |
flux de particules:
 |
flux de courant électrique:
 |
Tableau: 32.4 - Similitudes des différentes lois de diffusion en physique
RAYONNEMENT
THERMIQUE
L'étude du corps noir est à la base de la célèbre
théorie
de la physique quantique ondulatoire, un des piliers de la physique
moderne. En effet, certains résultats expérimentaux
ne pouvaient pas être expliqués sans l'introduction de
la fameuse constante de Planck, de l'utilisation de la quantification
de l'énergie (le quanta), de l'acceptation du modèle
atomique et de la théorie statistique de Boltzmann (implicitement
le deuxième principe de la thermodynamique dont Planck était un
spécialiste).
Avant de commencer nous allons faire exceptionnellement (pour
ce site) faire un crochet historique qui s'avère très utile pour
comprendre pourquoi l'étude du rayonnement thermique est si importante
en physique.
Le fait que tous les objets échauffés émettent
une lumière d'une
même coleur à la même température est
une curiosité qui était connue
depuis de nombreux siècles dans certains métiers,
longtemps avant que Gustav Krichhoff commence ses investigations
scientifiques
et théoriques sur la nature de cette étrange corrélation.
Afin de simplifier son analyse, il élabora le concept d'un
objet parfaitement absorvant et parfaitement émissif. Ainsi,
en tant que parfait émetteur,
il serait tout sauf noir si sa température était
assez élevée pour
qu'il puisse rayonner dans des longueurs d'onde de la partie visible
du spectre. Donc relativement au retoure d'expérience, le
rayonnement de cet objet aurait une intensité et une étendue
spectrale indépendante
du type de matériau dont il est constitué. L'objectif était
alors de mesurer la répartition spectrale de l'énergie
rayonnée pour
chaque longueur d'ondre et pour chaque palier de température
et en dériver une équation dépendante donc
que de deux variables (longueur d'onde et température)
permettant de reproduire cette répartition et donc ce pour
tout matériau mises dans les conditions d'un corps
parfaitement
émessif et réceptif. Définition: Un "corps
noir"
(ou "récepteur intégral") est
défini comme un corps ayant
un "coefficient d'absorption énergétique"
et un "coefficient d'émissivité" égaux
à l'unité (cf. chapitre d'Optique Géométrique)
Le premier principe de la
thermodynamique établit une équivalence entre le travail et chaleur
comme modes de transfert d'énergie entre un système et son environnement
(et en fait le bilan au niveau de l'énergie interne). Nous nous
intéressons ici à la chaleur, que nous pouvons définir comme "l'énergie
qu'un corps communique à un autre à cause de leur différence de
température".
La chaleur se communique
d'un endroit à un autre de trois manières différentes comme
nous en avons déjà fait mention plus haut:
1. Par conduction: c'est
un transfert de chaleur dans un ensemble de points matériels
en contact qui se fait sans mouvements macroscopiques, sous
l'influence
d'un
gradient de température. La conduction est donc le résultat
de collisions moléculaires. Nous l'observons principalement
dans les solides: dans les métaux, elle fait intervenir
les électrons
libres qui les rendent bons conducteurs de chaleur. En revanche,
dans les isolants,
la conduction se fait mal. De là la forte correspondance entre
les propriétés thermiques et électriques
des solides.
2. Par convection:
la convection implique le transport de la chaleur par une partie
d'un fluide qui
se mélange avec une autre particule. Elle prend sa source dans
un transport macroscopique de matière et ne concerne donc pas
les solides.
3. Par rayonnement: la
conduction et la convection supposent la présence de matière.
Le rayonnement, lui, permet un transfert d'énergie qui peut s'effectuer à travers
le vide. Il s'agit ici de rayonnement électromagnétique. Soulignons
que le rayonnement n'est pas un mode de transfert de chaleur
mais
d'énergie, celle-ci pouvant se transformer en chaleur au contact
d'un corps.
Le rayonnement thermique
émis par un corps porté à une certaine température résulte d'une
conversion de l'énergie interne du corps en rayonnement. Inversement,
l'absorption est la transformation de l'énergie incidente en énergie
interne.
Lorsqu'une surface est soumise
à un rayonnement absorbé, nous effectuons le bilan d'énergie
selon la loi de Kirchhoff vue en photométrie:
(33.408)
où rappelons-le quand même,
est
la fraction du rayonnement absorbée, est
la partie réfléchie (diffusée) et la
partie transmise (qui traverse la surface). Ce bilan résulte du
principe de la conservation de l'énergie.
Nous allons maintenant nous
pencher sur les mécanismes d'absorption et d'émission et établir
un lien entre chaleur et énergie rayonnante avant de nous intéresser
directement au corps noir:
LOI
DE STEFAN-BOLTZMANN
Nous avions défini lors
de notre étude de la photométrie (cf.
chapitre d'Optique Géométrique) le concept
d'émittance (énergie
irradiée
par un corps non ponctuel par unité de surface) pour l'ensemble
du spectre.
Ce que nous avions omis de
préciser cependant, c'est que pour qu'un corps rayonne (outre
le fait qu'il puisse être lui-même éclairé par un
autre corps) il faut qu'il soit chauffé (que l'on fournisse
une énergie d'excitation
aux constituants du corps en question - sous-entendu aux électrons).
Donc nous devrions pouvoir
établir une relation entre la température d'un corps et son émittance.
En 1879, le physicien autrichien
Stefan a pu établir expérimentalement que l'émittance
totale du
corps noir (ou "exitance énergétique" du
corps noir) à une température T augmentait
proportionnellement à la quatrième puissance de la température
telle que:
(33.409)
où M(T) est
l'intégration sur toutes les longueurs d'onde (ou les fréquences...
peu importe) de :
(33.410)
avec donné
par la loi de Planck que nous déterminerons plus tard.
Rappelons également que (ceci
sera démontré lors de notre démonstration de la loi de Planck):
(33.411)
est la "constante de Stefan" (à
ne pas confondre avec la constante de Stefan-Boltzmann!!!).
En 1884, Boltzmann a démontré
indirectement la loi de Stefan en se basant sur l'étude
du corps noir à l'équilibre thermique (où nous considérons
que les bords de la paroi du corps noir définissent les
terminaisons des ondes
électromagnétiques) à partir de la théorie
de l'électromagnétisme
et d'un raisonnement thermodynamique.
Dans un premier temps, Boltzmann
a déterminé quelle était la pression de radiation
du rayonnement dans une telle enceinte (ou dans un tel corps).
Voici les développements
qui l'ont mené à déterminer la pression de radiation P(T) à
la température d'équilibre thermodynamique T pour
la densité interne d'énergie correspondante:
Rappelons l'expression de
la "relation d'Einstein" que nous avons démontrée lors
de notre étude de la relativité restreinte:
(33.412)
Considérons maintenant une
enceinte de volume V dont
les parois sont réfléchissantes pour les photons (cas du corps
noir). Nous étudions la variation de la quantité de mouvement
avant et après la collision sur une surface infiniment petite ds (ce
qui permet de considérer les trajectoires avant et après le
choc comme rectilignes et symétriques par rapport à l'axe
orienté OX perpendiculaire
à la surface du corps noir coïncidant avec la surface ds).
Ainsi, nous avons avant collision
pour la quantité de mouvement:
(33.413)
et après collision:
(33.414)
Si la collision est élastique
(ce qui est confortant relativement au photon...):
et
(33.415)
Nous avons alors:
(33.416)
La variation de la quantité
de mouvement est alors:
(33.417)
Comme:
(33.418)
nous avons alors:
(33.419)
En ne considérant que la
norme de l'expression et qu'il s'agit d'un unique photon:
(33.420)
Remarque: Nous supposons qu'après son rebond, le photon conserve
sa fréquence (ce qui nous amène à supposer que le corps noir comporte
des ondes stationnaires à l'équilibre thermodynamique).
Jusqu'à présent, nous avons
raisonné sur un unique photon, mais l'enceinte contient
en réalité un gaz de photons. L'énergie interne
volumique u du
rayonnement contient une densité volumique n de
photons de fréquence identique v. Dès
lors, la quantité n de photons par unité de
volume dans l'enceinte est:
(33.421)
Remarque: Nous précisons les unités, car
nous avons remarqué que
la suite posait parfois quelques problèmes de compréhension.
Nous considérons que pendant
un intervalle de temps dt,
le nombre de photons pouvant potentiellement frapper la surface
ds sous
un angle d'indice est
contenu dans un cylindre de génératrice cdt dont
l'axe est incliné nécessairement d'un angle et
ayant comme surface de base ds.
Le volume de ce cylindre est de par la projection de la surface
de
base:
(33.422)
Le nombre de photons pouvant
potentiellement heurter la paroi ds par
unité de temps est:
(33.423)
Dans cette dernière expression,
nous avons supposé que tous les photons de dV avaient
une quantité de mouvement dans la direction sous-tendue
par .
En réalité, les photons arrivants réellement
sur ds sont
contenus dans un angle solide entre
deux cônes de demi-angle au sommet et
(pour
des raisons de géométrie de l'expérience
du corps noir qui était,
sauf erreur, sphérique et par ailleurs cette symétrie
sphérique
facilite les calculs...).
La relation entre et
est
comme nous l'avons vue dans le chapitre de Trigonométrie:
(33.424)
Sachant que dans le volume
entier (rappel), l'angle solide vaut:
(33.425)
Le nombre dn compris
dans l'angle solide élémentaire qui
parvient sur la surface ds sous
un angle d'incidence compris entre et
est
alors:
(33.426)
Soit
maintenant la définition de la pression P:
(33.427)
en
substituant ce qu'il convient:
(33.428)
Ce
qui donne après simplification:
(33.429)
La
pression totale de radiation dans ce cas particulier étant donnée
par:
(33.430)
Ce
qui est équivalent à écrire (à l'équilibre
thermodynamique pour une température donnée):
(33.431)
relation trrrrès importante que nous utiliserons dans le chapitre
de Cosmologie lors de notre étude du modèle d'Univers de Friedmann
dominé par la matière.
L'énergie totale est la densité
d'énergie multipliée par le volume considéré:
(33.432)
Supposons que ce volume
puisse varier. Le travail de la pression de radiation lors d'une
dilatation
dV du
volume est:
(33.433)
La variation d'énergie interne
du système en vertu du premier principe de la thermodynamique est:
(33.434)
Or d'après ,
nous avons:
(33.435)
d'où:
(33.436)
et selon le deuxième principe
de la thermodynamique (ne pas confondre la notation avec la surface...):
(33.437)
Nous avons:
(33.438)
Autrement écrit, cela correspond à:
(33.439)
Comme dS est
une différentielle totale, nous avons démontré dans le
chapitre de Calcul Différentiel et Intégral que S satisfait
alors le théorème de Schwarz:
(33.440)
nous avons dans ce cas:
(33.441)
Ce qui nous amène à écrire:
(33.442)
En calculant la dérivée du
membre de droite:
(33.443)
En simplifiant:
(33.444)
ce qui s'écrit encore:
(33.445)
Soit:
(33.446)
qui devient l'équation:
(33.447)
Ce qui donne après intégration:
(33.448)
Finalement:
(33.449)
avec:
(33.450)
étant
la constante de Stefan-Boltzmann avec la valeur et les unités
telles qu'elles avaient été donnée
à l'époque dans un premier temps expérimentalement
(très éloigné de la valeur actuelle connue aussi avec des unités
différentes que celles d'usage aujourd'hui). Nous en démontrerons
cependant la valeur théorique avec les unités d'usage plus loin.
Nous voyons ci-dessus la
correspondance qu'il y a entre la relation que nous avions posée au
début et celle que nous venons d'obtenir:
et
(33.451)
Comme nous n'avons pas encore,
à ce point, démontré la loi de Planck, nous pouvons faire un raisonnement
osé mais que nous justifierons par la suite avec démonstration à
l'appui.
Remarque: Les deux dernières relations nous donnent une information
fondamentale comme quoi tous les corps qui ne sont pas à zéro kelvin
(au zéro absolu) rayonnent!
M(T) et
sont
différenciées au niveau des unités par les dimensions d'une vitesse.
Or, intuitivement et grossièrement (...), la vitesse qui peut tout
de suite nous apparaître comme triviale dans ce cas d'étude
est la vitesse de la lumière c.
Ainsi, nous remarquons que:
(33.452)
Ce qui nous
donne:
(33.453)
Curieux n'est-ce pas... mais nous le démontrerons plus loin car notre
philosophie sur ce site est de ne jamais (ou le moins possible) laisser
place à l'intuition.
Remarque: Lorsque nous étudierons la loi de Planck,  sera
notée R( T) afin de ne pas confondre
une densité d'énergie avec la radiance
(car la notation peut malheureusement porter à confusion).
Considérons maintenant
une chambre ou cavité isolée (comme une fournaise)
en équilibre
thermique à une certaine température T.
Cette cavité sera sûrement remplie de rayonnements électromagnétiques
de différentes longueurs d'onde. Supposons qu'il existe
une fonction de distribution M(T) dépendant
uniquement de la température.
Logiquement, la quantité
totale d'énergie électromagnétique, à toutes
les longueurs d'onde, absorbée par les murs de la cavité doit être égale à celle émise
par les murs autrement le corps formant la cavité verrait
sa température
changer. Kirchhoff raisonna que si le corps formant la cavité est
fait de différents matériaux (se comportant donc
de façons différentes
avec la température), l'équilibre entre radiation émise
et radiation absorbée doit s'appliquer alors pour chaque
longueur d'onde (ou domaine de longueur d'onde).
Nous voyons ainsi que M(T) est
une fonction universelle, la même pour toutes les cavités
sans égard
à leur composition, leur géométrie ou la couleur
de leurs parois. Kirchhoff ne donna pas cette fonction, mais il
fit remarquer qu'un
corps parfaitement absorbant, c'est-à-dire un corps pour lequel
apparaîtra (façon de dire...) noir.
Il vient alors que le rayonnement
emmagasiné en équilibre dans une cavité isolée
en équilibre thermodynamique
(comme le sont les étoiles) est à tous égards le
même que celui émis par un corps parfaitement noir à la
même
température.
Évidemment, si la cavité
est fermée, nous ne pouvons pas mesurer le courant d'énergie qui
s'en échappe. Mais pratiquons un tout petit trou dans cette cavité
(suffisamment petit pour ne pas perturber l'équilibre du rayonnement
électromagnétique à l'intérieur), alors l'énergie électromagnétique
s'échappant de ce petit trou est la même que celle émise par un
corps parfaitement noir.
Cependant, aucun objet n'est
réellement un corps noir. Le noir de charbon a un coefficient
d'absorption très près de 1 mais seulement pour
certaines fréquences
(incluant, bien sûr, le visible). Son coefficient d'absorption
est beaucoup plus petit dans l'infrarouge lointain. Tout de
même, la plupart
des objets s'en approchent dans certaines gammes de fréquences.
Le corps humain, par exemple, est presque un corps noir dans l'infrarouge
(d'où les lunettes de nuit militaires...). Pour traiter les différents
corps, appelés "corps gris",
nous introduisons un facteur appelé "émissivité totale", ,
qui relie l'émittance émise par le corps à celle émise
par un corps noir parfait pour lequel (pour
un corps comme l'acier l'émittance vaut 0.06).
Nous avons donc:
(33.454)
Les praticiens de la thermodynamique préférent souvent l'écriture
suivante (ce qui est effectivement plus cohérent dans le cadre
de la thermodynamique pure):
(33.455)
C'est une relation fort sympathique car dans tous
les cas en posant les
curieux peuvent savoir pour une surface donnée qu'elle est l'énergie
(ou chaleur) au pire (ou au mieux suivante le point de vue...)
émise par un corps d'une certaine surface à une certaine température.
Remarque: La relation de Stefan-Boltzmann nous donne la
puissance émise par un corps par unité de surface en l'exprimant de façon proportionnelle
à la quatrième puissance de la température. Cet exposant nous donne
la raison pour laquelle il devient de plus en plus difficile d'augmenter
la température d'un corps en le chauffant, celui-ci perdant de plus
en plus rapidement l'énergie que nous fournissons pour son échauffement.
LOI
DE PLANCK
Pour établir la loi de Planck, nous n'allons pas faire le développement
original de Max Planck bien que passionnant du point de vue intuitif
il n'était qu'une succession de bricolages (admis par Max Planck
lui-même). Nous allons introduire cette loi avec une approche
moderne et la plus simple possible en matière de formalisme mathématique.
Pour cela, nous
considérons maintenant le corps noir comme un système
isolé
à l'équilibre thermique, dans lequel le rayonnement
est à l'état stationnaire et réfléchi
totalement par les parois. Les photons peuvent être dès
lors considérés comme des particules n'interagissant
pas entre elles dans un puits de potentiel à parois
rectilignes. Ainsi, identiquement à
ce que nous avons vu dans le chapitre de Physique Quantique Ondulatoire,
la résolution du problème est celle d'un puits
de potentiel à parois rectilignes pour lequel nous
avions obtenu pour fonction d'onde:
(33.456)
fonction à laquelle
il convient d'appliquer les conditions aux limites.
Les conditions que nous avions
imposées lors de notre étude de ce cas en physique
quantique ondulatoire étaient trop restrictives (c'est
la raison pour laquelle elles sont appelées "conditions
aux limites strictes"). Effectivement, les atomes de la paroi
absorbent et émettent le rayonnement quelle que soit la
manière
dont le rayonnement est incident. Mais l'équilibre impose
au moins que les conditions aux limites soient
périodiques
de par la définition même de l'équilibre. C'est
la raison pour laquelle nous imposons ce que nous appelons les "conditions
aux limites périodiques":
- pour
et ,
nous avons:
- la fonction d'onde doit
présenter un nombre entier de demi-longueurs d'onde sur
la longueur
- dans le corps noir,
donc
- si aux extrémités
(
et )
nous avons
l'argument du sinus a la même valeur
(à un facteur multiplicatif réel près) en
0 et en .
Donc nous devons avoir:
(33.457)
et comme ,
après quelques simplifications élémentaires,
nous avons:
(33.458)
où est
l'énergie totale du niveau quantique n selon x (cf.
chapitre de Physique Quantique Ondulatoire).
L'énergie totale de
la particule présente donc une suite discrète
de valeurs, les seules permises. La valeur de L est
quant à elle déterminée à l'aide du
modèle de Bohr ou de Sommerfeld en fonction des cas.
Puisque les fonctions d'onde
correspondantes dans le puits sont
, nous avons donc:
(33.459)
Ainsi, l'énergie totale
peut s'écrire:
(33.460)
Ainsi, étant donné
que la fonction d'onde est une probabilité conditionnelle,
nous avons sous forme de phaseur:
(33.461)
et les énergies discrètes
associées sont alors:
(33.462)
Le vecteur
étant donc défini par:
(33.463)
Remarque: Nous constatons facilement que les écarts d'énergie
entre niveaux consécutifs sont d'autant plus faibles que
les dimensions du corps noir (assimilé à une boîte)

sont plus grandes; pour des dimensions macroscopiques, ces écarts
sont alors totalement inappréciables. Ce constat nous permettra
un peu plus loin de faire une petite approximation.
Explication: Pour un électron
( )
enfermé dans une boîte cubique de côté
, l'écart entre deux niveaux consécutifs est:
(33.464)
donc environ
...
Les vecteurs
qui nous intéressent (puisqu'ils représentent respectivement
chacun un micro-état possible), plongés dans l'espace
des phases des nombres d'ondes, ont leur extrémité située
en l'un des noeuds d'un réseau tridimensionnel constitué
de mailles élémentaires dont les arêtes sont
parallèles aux axes et qui mesurent respectivement .
Nous voulons évaluer le nombre de vecteurs pour lesquels
cette extrémité tombe dans l'intervalle entre
les deux sphères centrées à l'origine
et de rayons de norme K et K + dK.
Le volume de la coquille sphérique comprise entre les
deux sphères est donc trivialement donné par:
(33.465)
Le nombre de mailles élémentaires
(de micro-états) incluses dans cette région de l'espace
des
est, à peu de chose près, égal au nombre de
fois que son volume contient celui de la maille élémentaire,
qui vaut:
(33.466)
Nous obtenons ainsi le nombre
de micro-états dans le volume (donc
la densité de micro-états):
(33.467)
Or, il ne faut pas oublier
les relations suivantes (cf. chapitres
de Mécanique
Ondulatoire, Physique Quantique Corpusculaire et Relativité Restreinte):
(33.468)
Donc comme:
(33.469)
et (rappel):
(33.470)
il vient alors:
(33.471)
Mais quand les physiciens avaient développé ce modèle
théorique
(il paraît que c'est Bose qui aurait été le
premier à le faire),
ils avaient remarqué que le résultat final ne correspondait
pas
à l'expérience à facteur 2 près. Dès
lors ils multiplièrent à l'époque
empiriquement la densité de micro-états par un facteur
2 tel que:
(33.472)
Ce facteur 2 s'expliquerait aujourd'hui (je n'en ai jamais vu
la démonstration personnellement...) par
le spin 1 du photon. Ce qui autorise
a priori
trois valeurs pour sa projection: -1, 0, 1. La valeur 0 serait
interdite par la théorique quantique des champs (si quelqu'un
possède la démonstration, je suis preneur!).
Dans un corps noir à
l'équilibre thermodynamique, les photons (qui par ailleurs
sont des bosons) forment un gaz dont les constituants n'interagissent
pas entre eux chimiquement.
Ce type
de situation est typiquement décrit par la distribution
de Bose-Einstein que nous avons démontrée dans le
chapitre de Mécanique
Statistique. Ainsi, puisque ,
nous avons dans le cas d'un spectre discret d'états d'énergie
(c'est donc ici qu'apparaît le concept de quantification que
Planck avait introduit à l'origine en bricolant):
(33.473)
et dans un cas que nous considérons
comme continu:
(33.474)
Avant de continuer il est important que le lecteur se rende compte
que l'analyse du rayonnement du corps noir vient
donc suite aux deux relations précédentes à imposer:
- Premièrement une quantification
des
niveaux
d'énergie par paquets hv alors qu'à l'époque
de la découverte du phénomène la nature était considérée comme
continue dans tous ses phénomènes.
- Deuxièmement à considérer que la théorie
de l'entropie de Boltzmann et la distribution statistique de Bose-Einstein
qui s'ensuit est
un pilier de l'étude des systèmes physiques.
Dans le corps noir, nous avons
pour énergie interne:
(33.475)
La radiation d'un corps noir
(sa "brillance monochromatique" comme
disent certains...) est donc donnée
par la "loi
de Planck":
(33.476)
La première égalité est souvent écrite sous la forme
suivante qui permet une interprétation du résultat:
(33.477)
où correspond
à la densité volumique de mode de rayonnement du corps noir, hv
à l'énergie moyenne par quantum d'énergie et représent
la population des modes.
Enfin, voyons une autre manière courante d'écrire
la loi de Planck. Puisque:
et
(33.478)
donc:
(33.479)
Or, comme ,
il convient de prendre la valeur absolue telle que:
(33.480)
Enfin, nous obtenons encore
une autre forme de la loi de Planck qui exprime la densité de
flux d'énergie pour une longueur d'onde précise
donnée par:
(33.481)
Remarque: Planck a donc proposé cette loi par une
successions de bricolages théoriques et d'analogies en 1900 sans
connaître
la distribution statistique de Bose-Einstein ce qui est remarquable
expérimentalement parlant!
Si (donc
dans le domaine des grandes longueurs d'ondes), le développement
de Taylor (cf. chapitre Suites Et Séries) de
pour x petit donne donc:
(33.482)
Ce qui nous donne:
(33.483)
et la loi de Planck devient
donc la "loi de Rayleigh-Jeans" (qui
avait été découverte avant la loi de Planck):
(33.484)
Que nous retrouvons aussi
parfois dans la littérature spécialisée sous la forme:
(33.485)
A l'inverse,
nous avons:
(33.486)
et la loi de Planck devient
donc:
(33.487)
qui n'est rien d'autre que
la "première loi de Wien" (qui
avait été découverte avant la loi de Rayleigh-Jeans).
Cette loi décrit
effectivement la présence
d'un maximum de rayonnement, mais, contrairement à la loi
de Rayleigh-Jeans, elle fournit des valeurs fausses pour les grandes
longueurs d'onde
(donc les petites fréquences). En outre, elle implique que
l'intensité de
rayonnement tende vers zéro avec l'augmentation de la température,
ce que contredit également l'expérience.
Voici un schéma présentant les différences
entre les trois lois:

Figure: 33.5 - Tracé des trois lois dans une échelle log-log pour camparaison (source:
Wikipédia)
Nous voyons ci-dessus que la loi de Jeans était bonne aux
basses fréquences alors que celle de Wien l'était
aux hautes. Historiquement il a fallu de nombreux essais et pas
mal d'années aux physiciens pour trouver la modèle
adéquat
qui amena finalement Max Planck à considérer la quantification
des états d'énergie (ce dont il ne renda compte lui
même que bien après avoir élaboré son modèle).
Nous pouvons également
redémontrer la loi de Stefan (nous l'avons déjà
fait plus haut mais avec une autre démarche)
mais cette fois-ci en explicitant la provenance de la constante
de Stefan-Boltzmann
.
Rappelons d'abord que
le flux énergétique (cf.
chapitre d'Optique Géométrique)
est entre autres donné par:
(33.488)
Comme la luminance dépend
de la fréquence et donc de la température du corps
émetteur, nous pouvons ajouter:
(33.489)
L'énergie rayonnée
à travers une surface élémentaire
donnée est donc dès lors:
(33.490)
Si le volume d'émission est considéré comme
un volume élémentaire assimilé à un
cylindre de hauteur cdt et de sommet ayant pour surface
(cf. chapitre d'Optique Géométrique)
la densité d'énergie par unité de fréquence
et par stéradian est alors donnée
par:
(33.491)
Compte tenu de l'isotropie
du corps noir à l'équilibre, nous avons en intégrant
sur l'ensemble de l'angle solide la densité d'énergie par unité
de fréquence seule:
(33.492)
L'analyse dimensionnelle
nous donne:
(33.493)
Enfin, il est utile de considérer
la puissance totale émise par unité de surface (donc
l'émittance):
(33.494)
Si nous intégrons
sur la demi-surface d'une sphère (par rapport au point de
surface de l'émetteur):
(33.495)
Effectivement pour une sphère
(cf. chapitre de Trigonométrie):
(33.496)
Comme la luminance est indépendante
de
(isotropie du rayonnement du corps noir), l'intégration est
élémentaire, et nous trouvons:
(33.497)
L'émittance totale
est alors donnée par:
(33.498)
En posant ,
nous pouvons simplifier l'intégrande de sorte que:
(33.499)
Démontrons, car ce n'est de loin pas évident, que:
(33.500)
Écrivons l'intégrande sous la forme suivante:
(33.501)
Pour le terme:
(33.502)
Posons ,
nous avons alors:
(33.503)
et nous avons démontré dans le chapitre d'Analyse Fonctionnelle,
en utilisant des résultats du chapitre de Suites Et Série, que
sous la condition ,
la dernière fraction peu s'écrire:
(33.504)
Dès lors:
(33.505)
D'où:
(33.506)
Nous pourrons donc remplacer notre intégrale par une somme
d'intégrales
définies. Nous voyons qu'en faisant
des intégrations par parties successives, nous obtenons:
(33.507)
Donc:
(33.508)
Or, nous avons démontré dans le chapitre de Suite Et Séries lors
de notre étude de la fonction de zêta de Riemann que:
(33.509)
Donc:
(33.510)
Au final, la constante de Stefan-Boltzmann peut donc s'exprimer
analytiquement sous la forme:
(33.511)
Franchement..., il était
difficile de le deviner...
Déterminons pour quelle
fréquence, nous avons le maximum de densité
d'énergie. En d'autres termes, cela revient à chercher
où la dérivée:
(33.512)
s'annule. Donc:
(33.513)
Divisons par :
(33.514)
La dernière relation
admet une seule racine positive que nous pouvons déterminer
avec Maple 4.00b (en utilisant la commande: >evalf(solve(exp(-x)-1+1/3*x=0,x));):
(33.515)
Ce qui nous donne la "deuxième
loi de Wien" ou "loi de déplacement
de Wien" qui dit donc qu'à mesure qu'on augmente la température
d'un corps noir, la longuer d'onde à laquelle l'intensité du
rayonnement est la plus forte devient de plus en plus courte:
(33.516)
où a est appelée "constante
de Wien". La figure ci-dessous représente bien
ce résultat à l'aide des échelles logarithmiques:

Figure: 33.6 - Représentation de la loi (distribution) de Planck avec le déplacement
de Wien
Ainsi, non seulement l'augmentation de la température entraîne
un accroissement de la quantité totale d'énergie
rayonnée mais
la loi de déplacement de Wien nous dit que la longueur
d'onde
à laquelle la quantité maximale de rayonnement est émise
multipliée
par la température du corps noir est toujours une constante
(ou autrement vu: la longueur d'onde maximale est inversement proportionnelle
à la température comme le montre le trait vert dans la figure ci-dessus)!
Ce qui est un résultat
extrêmement
simple qui nous dit deux choses importantes:
- Si la température
double, alors la longueur d'onde maximale sera la moitié de
la longueur d'onde précédente.
- Si nous connaissons la constante (ce qui est notre cas), alors
nous pouvons calculer la longueur d'onde maximale pour toute température
à laquelle se trouve un corps noir.
Il est alors aisé de comprendre maintenant pourquoi tout
matériau
à des températures basses émet principalement
des radiations de grande longueur d'onde dans la partie infrarouge
du spectre et
qu'à mesure que la température s'élève,
il y a plus d'énergie rayonnée
dans chaque région du spectre et la longueur d'onde de pointe
diminue en se déplaçant vers les longueurs d'ondre
plus courtes. Il en résulte que la couleur de la lumière émise
passe du rouge à l'orange,
puis au jaune et enfin au blanc bleuâtre (et plus loin dans
l'ultraviolet).
Remarque: Bien évidemment la deuxième
loi de Wien est aussi parfois donnée dans la
littérature non pas par rapport à la fréquence,
mais à la longueur d'onde...
Insistons sur le fait que
la loi de Planck n'est valable que dans les cas où le rayonnement
est à l'équilibre thermique. Cette restriction est
importante dans la pratique, car les phénomènes
d'émission
ou d'absorption de rayonnement par la matière se produisent
le plus souvent dans des conditions hors de l'équilibre:
dans le cas par exemple de l'éclairage par une lampe électrique
ou du chauffage électrique par rayonnement infrarouge,
il y a transformation irréversible (et donc hors d'équilibre)
d'énergie électrique en énergie de rayonnement;
de même, le rayonnement solaire est produit par les
réactions
nucléaires qui ont lieu à l'intérieur du
soleil et qui consument peu à peu sa substance; au niveau
microscopique
également, l'émission d'un photon par un atome excité
est très souvent un retour irréversible de l'atome
à son état fondamental (émission spontanée
hors d'équilibre). Dans le cas du corps noir, au contraire,
le rayonnement est confiné à l'intérieur
d'une enceinte fermée (nous laissons éventuellement
une fraction négligeable de ce rayonnement s'échapper à
l'extérieur pour y être soumise aux mesures) et nous
pouvons ainsi parvenir à l'équilibre thermique avec
les parois.
La loi de Planck que nous
avons démontrée précédemment est parfaitement
vérifiée par l'expérience dans tout le domaine
des températures accessibles à ce jour:

Figure: 33.7 - Représentation de la loi (distribution) de Planck
Nous remarquons à la lecture du graphique ci-dessus,
qu'un corps chauffé entre 5'000 et 6'000 [K]
a un pic d'émission au milieu du spectre visible. Dans le
domaine de la colorimétrie, nous associons une température à une
couleur en cherchant la température du corps noir pour laquelle
le pic de radiation
a son maximum dans la longueur d'onde de la couleur donnée.
Il est à noter
que beaucoup de sources lumineuses émettent un flux lumineux
qui ne suit pas la loi du corps noir (un filament d'ampoule,
par exemple) et que la loi de Wien ne s'applique pas à eux.
En revanche, il reste avéré qu'ils émettent à une
longueur d'onde d'autant plus courte qu'ils sont chauds.
Il faut également garder à l'esprit que le flux
lumineux provenant d'un objet n'est pas forcément de nature
thermique ; autrement dit sa couleur ne renseigne pas toujours
sur sa température. Par exemple, la couleur du ciel provient
de lumière solaire bleue diffusée par l'air et non
d'une hypothétique température de 15'000 [K].
De même
un arbre est vert, non pas parce qu'il est à 8'000 [K],
mais parce qu'il réfléchit la lumière verte
qui compose la lumière du jour.

- Physique Générale (Mécanique+Thermodynamique), Marcelo
Alonso + Edward J. Finn, Éditions InterÉditions
U, ISBN10 volume I: 2729601376 (538 pages) - Imprimé en
1997
- Thermodynamique et énergétique,
L. Borel, Éditions Presses polytechniques et universitaires
romandes, ISBN10: 2880742145 (814 pages)
- Imprimé en
2005
- Notions de Mécanique des fludies,
Centre de Publication Universitaire, Riadh Ben Hamouda, ISBN13:
9789973374943 (135 pages) - Imprimé en 2008
|