
CALCUL ALGÉBRIQUE | ALGÈBRE
ENSEMBLISTE | CALCUL
DIFFÉRENTIEL ET INTÉGRAL
SUITES
ET SÉRIES | CALCUL VECTORIEL | ALGÈBRE
LINÉAIRE | CALCUL
TENSORIEL
CALCUL
SPINORIEL
Dernière mise à jour de ce chapitre:
2017-12-31 17:53:23 |
{oUUID 1.689}
Version: 3.2 Révision 10 | Avancement: ~95%
vues
depuis le 2012-01-01: 29'198
LISTE DES SUJETS TRAITÉS SUR CETTE PAGE
Le calcul vectoriel ou "analyse
vectorielle" est une branche des mathématiques
qui étudie les champs de scalaires et de vecteurs suffisamment
réguliers des espaces euclidiens (voir définition
plus loin).
L'importance du calcul vectoriel provient de son utilisation intensive
en physique et dans les sciences de l'ingénieur. C'est
de ce point de vue que nous le présenterons, et c'est
pourquoi nous nous limiterons le plus souvent au cas de l'espace
usuel à
trois dimensions. Dans ce cadre, un champ de vecteurs associe à
chaque point de l'espace un vecteur (à trois composantes
réelles), tandis qu'un champ de scalaires y associe un
réel.
Remarque:Imaginons par exemple l'eau d'un lac. La donnée
de sa température en chaque point forme un champ de scalaires,
celle de sa vitesse en chaque point, un champ de vecteurs (voir
définition plus loin).
Des notions physiques telles
que la force ou la vitesse sont caractérisées par une direction,
un sens et une intensité. Ce triple caractère est mis en évidence
par les flèches. Celles-ci sont à l'origine de la notion de vecteur
et en constituent l'exemple le plus suggestif. Bien que leur nature
soit essentiellement géométrique, c'est leur aptitude à se lier
les unes aux autres, donc leur comportement algébrique, qui retiendra
principalement notre attention. Partagé en classes d'équivalence
l'ensemble qu'elles forment représente le modèle classique d'un
"espace vectoriel". Un de nos premiers objectifs est la
description détaillée de ce modèle.
Remarques:
R1. Avant de lire ce qui
va suivre, nous conseillons au lecteur d'avoir au moins parcouru
en diagonale le chapitre traitant de la théorie des ensembles
dans la section d'arithmétique. Nous y définissons ce qu'est
un "espace
vectoriel" en utilisant les outils de la théorie des ensembles.
Ce concept bien que non absolument indispensable vaut la peine
quand
même de s'y attarder pour voir comment deux domaines des mathématiques
s'imbriquent et aussi histoire... d'aborder les choses au moins
un peu rigoureusement.
R2. L'analyse vectorielle contient beaucoup de termes et de définitions
qu'il faut apprendre par coeur. Ce travail est pénible mais malheureusement
nécessaire.
NOTION DE FLÈCHE
Nous désignerons par U
l'espace ordinaire de la géométrie élémentaire et par P, Q, ... ses points. Nous appellerons "flèche"
tout segment de droite orienté (dans l'espace).
La flèche d'origine P
et d'extrémité Q
sera notée ou
abrégée par une lettre unique (latine ou grecque)
choisie arbitrairement telle que par exemple: .
Remarque: Dans la norme ISO 80000-2:2009 il est autorisé de représenter
les vecteurs par une lettre en gras.
Nous considérerons comme
évident que toute flèche est caractérisée par sa direction, son
sens (car pour une direction donnée elle peut pointer dans deux
sens), son intensité ou
grandeur (longueur) et ainsi que son origine.
ENSEMBLE DES VECTEURS
Définitions:
D1. Nous disons que deux
flèches sont "équivalentes" si elles ont la même direction,
le même sens et la même intensité.
D2. Nous disons que deux
flèches sont "colinéaires" si
elles ont seulement la même
direction.
Partageons l'ensemble des
flèches en classes d'équivalence: deux flèches
appartiennent à
une même classe si et seulement si elles sont équivalentes.
D3. Chaque classe d'équivalence de flèches constitue
un "vecteur" ou plus exactement
un "vecteur libre" car son origine
n'est pas prise en compte (dans le cas où son origine est bien
définie, nous avons alors un "vecteur
lié").
Rangeons, en outre, les
flèches dégénérées (c'est-à-dire
de la forme )
en une classe distinguée que nous appellerons "vecteur
nul"
et noterons qui
ont une direction et un sens non définis... et d'intensité nulle.
L'ensemble des vecteurs
sera lui désigné par V.
Il faut souligner que les éléments de V sont des classes
de flèches et non pas des flèches individuelles. Il est cependant
clair qu'une flèche quelconque suffit à déterminer la
classe à laquelle elle appartient et il est donc naturel de l'appeler
"représentant de la classe" du vecteur.
Traçons
le représentant d'un vecteur à
partir de l'extrémité d'un représentant d'un vecteur .
La flèche dont l'origine est celle du représentant de et
l'extrémité celle du représentant de détermine
un vecteur que nous noterons .
L'opération qui associe à tout couple de vecteurs leur somme s'appelle
"addition vectorielle".

Figure: 12.1 - Exemple d'une somme de deux vecteurs
A l'aide d'une figure, il
est facile de montrer que l'opération d'addition vectorielle est
associative et commutative, autrement dit, que:
(12.1)
et:
(12.2)
Il est en outre
évident que le vecteur nul est
l'élément neutre de l'addition vectorielle, autrement dit, que:
et
(12.3)
où désigne
le vecteur opposé de ,
c'est-à-dire le vecteur dont les représentants ont la même direction
et la même intensité que ceux de ,
mais le sens opposé. Deux vecteurs dont la somme est nulle
sont alors appelés "vecteurs
opposés" puisque la seule chose qui les différencie
est leur sens...
Il s'ensuit aussi que si deux ou plusieurs vecteurs ont
la même direction, la même intensité et le même sens alors
ce
sont
des "vecteur
égaux".
L'opération inverse de l'addition vectorielle est la soustraction
vectorielle. Soustraire un vecteur revient à additionner le vecteur
opposé.
Remarques:
R1. L'addition s'étend, par
récurrence, au cas d'une famille finie quelconque de vecteurs.
En vertu de l'associativité, ces additions successives peuvent être
effectuées dans n'importe quel ordre, ce qui justifie l'écriture
sans parenthèses.
R2. La multiplication entre deux vecteurs est un concept qui n'existe
pas. Par contre, comme nous le verrons un peu plus loin, nous pouvons
multiplier les vecteurs par certaines propriétés d'autres vecteurs
que nous appelons la "norme" et encore d'autres petites
choses...
PSEUDO-VECTEURS
En physique, lors de l'énoncé de ce que nous appelons
le "principe de Curie", les physiciens font mention de ce qu'ils
appellent des "pseudo-vecteurs". Il s'agit du vocabulaire
simple pour parler de quelque chose de tout aussi trivial mais
fondamentalement
peu de gens en font vraiment usage. Mais il peut quand même
être utile de présenter de quoi il s'agit.
Au fait, vecteurs et pseudo-vecteurs
se transforment de la même manière dans une rotation
ou une translation (nous verrons plus tard dans ce chapitre
comment
effectuer mathématiquement ces transformations). Il n'en
est pas de même dans la symétrie par rapport à
un plan ou à un point. Dans ces transformations nous avons
par définition les propriétés suivantes:
P1. Un vecteur est transformé
en son symétrique.
P2. Un pseudo-vecteur est
transformé en l'opposé de son symétrique.
Voici une figure avec des
exemples types (le choix des lettres représentant les vecteurs
n'est pas dû au hasard; elles sont un clin d'oeil aux propriétés
des champs électriques et magnétiques étudiés
dans la section d'Électromagnétisme du site):
Figure: 12.2 - Différences de transformations entre un vecteur et un pseudo-vecteur
Ben voilà... c'est tout
sur les pseudo-vecteurs...
Multiplication par un scalaire
Le vecteur appelé
"produit du nombre par
",
est défini de la manière suivante:
Prenons une flèche représentative
de et
construisons un flèche de même direction, de même sens ou de sens
opposé, suivant que est
positif ou négatif, et d'intensité fois
l'intensité de la flèche initiale; la flèche ainsi obtenue est un
représentant du vecteur ;
si ou
,
nous posons .
L'opération qui consiste
à effectuer le produit d'un nombre par un vecteur est appelé "multiplication
par un scalaire".
Nous vérifions aisément que
la multiplication par un scalaire est associative et distributive
par rapport à l'addition numérique vectorielle, autrement dit que:
(12.4)
Voyons de suite
un exemple concret mondialement connu des vecteurs:
RÈGLE
DE TROIS
Revenons un peu sur la "règle
de trois" (appelée parfois "règles
des rapports et proportions" ou encore "méthode
de réduction à l'unité")
souvent définie dans les petites classes de manière
intuitive mais sans démonstration digne de ce nom.
Cette règle
est certainement l'algorithme le plus usité de par le monde qui
sert à identifier un quatrième nombre quand trois sont donnés
et que les quatre nombres sont linéairement dépendants.
La règle de trois est
dérivée sous deux versions:
V1. Simple et directe si
les grandeurs sont directement proportionnelles
V2. Simple et inverse si
les grandeurs sont inversement proportionnelles
et lorsque deux variables
X
et Y
sont proportionnelles nous le notons:
(12.5)
Supposons maintenant que
X
puisse prendre les valeurs . Y
prendra les valeurs linéairement dépendantes
alors le rapport proportionnel
suivant:
(12.6)
est dit "rapport
simple et direct".
Démonstration:
Soient deux vecteurs colinéaires
et donc proportionnels à un facteur près
tels que:
(12.7)
C.Q.F.D.
Remarque: Si ce rapport n'est pas égal,
alors il faut passer à l'utilisation
d'autres outils tels que la régression et in extenso l'extrapolation.
Exemple:
À Lausanne (Suisse) les sacs poubelles sont taxés
et les tarifs suivant sont appliqués : un sac de 17 [L]
et 1.- et celui de 110 [L] est 3.80.-. Rapporté à 17
[L] le prix du litre de déchet du sac de 110 [L]
est alors:
(12.8)
Soit environ 60% du prix du sac de 17 [L] (ensuite
allez chercher une explication… ???).
- Le rapport proportionnel suivant:
(12.9)
est dit "rapport
simple et inverse".
Démonstration:
Soient deux vecteurs colinéaires et donc proportionnels à un facteur près
tel que:
(12.10)
C.Q.F.D.
Remarque: Si ce rapport n'est pas égal, alors il
faut passer
à la régression linéaire (cf.
chapitre de Méthodes Numériques).
En gros, il suffit que nous
connaissions trois variables sur les quatre pour résoudre cette
simple équation du premier degré.
Les conversions de monnaies
ou d'unités de mesure se font à l'aide de la règle de trois simple
directe ou indirecte. Les calculs de parités (calcul prévisionnel
fait par un importateur d'un certain pays ayant ses propres unités
de mesures et de monnaie, qui recherche parmi plusieurs offres étrangères
(dans des systèmes d'unités de mesures et de monnaies qui diffèrent
de l'importateur), laquelle est la plus avantageuse ou inversement)
se font également avec la règle de trois.
Remarque: Nous appelons également "règle
conjointe simple ou inverse", une série de
règles de
trois directes ou indirectes.
Dans de tels calculs, les
agents du marché d'échange ont remarqué que la plupart du temps,
les rapports étaient des valeurs proches de l'unité. Ils ont été
ainsi naturellement amenés à définir "le pourcentage" comme
étant la proportion d'une quantité ou d'une grandeur par rapport
à une autre, évaluée à la centaine (en général du moins
... ):
Soit un nombre alors
sa notation en pourcentage sera:
(12.11)
Soit un nombre alors
sa notation en pour-mille sera:
(12.12)
ESPACES VECTORIELS
Définition: Nous appelons "espace
vectoriel" un ensemble E
d'éléments désignés par et
appelés "vecteurs",
muni d'une "structure
algébrique
vectorielle" définie par la donnée
de l'addition (soustraction) vectorielle et la multiplication
par un scalaire.
Ces deux opérations
satisfaisant les lois d'associativité, de commutativité,
de distributivité,
d'élément neutre et d'opposé comme nous
l'avons déjà vu dans
le chapitre de Théorie
Des Ensembles.
Pour plus d'informations
sur ce qu'est un espace vectoriel dans le sens "ensembliste"
le lecteur devra se reporter au chapitre de Théorie Des Ensembles
où ce concept est défini avec plus de rigueur.
Remarque: Muni de ces deux opérations, un espace vectoriel
est dit "vectorialisé".
Pour tout entier positif
n,
désignera
l'ensemble des n-uplets de nombres disposés en colonne:
(12.13)
et est
à l'évidence munie d'une structure d'espace vectoriel. Les
vecteurs de cet espace seront appelés "vecteurs-colonne".
Ils seront souvent désignés plus brièvement
par:
(12.14)
ou encore plus simplement
par:
(12.15)
Le nombre
est parfois appelé "terme" ou "composante
d'indice
i"
de .
combinaisons linéaires
Dorénavant, sauf mention
explicite du contraire, les vecteurs seront les éléments d'un espace
vectoriel E.
Définition: Nous appelons "combinaison
linéaire" des vecteurs tout
vecteur de la forme:
(12.16)
où sont
des nombres appelés "coefficients
de la combinaison linéaire".
Le vecteur nul est combinaison
linéaire de avec
tous les coefficients égaux à zéro. Nous parlons dès lors de "combinaison
linéaire triviale".
Définition: Nous appelons "combinaison
convexe", toute combinaison linéaire dont
les coefficients sont non négatifs et de somme égale à 1.
L'ensemble des combinaisons convexes de deux points P
et Q
d'un espace ponctuel (ayant
une origine) est le segment de droite P
et Q.
Pour s'en rendre compte, il suffit d'écrire:
(12.17)
de faire varier de
0 à 1 et de constater que tous les points du segment sont ainsi
obtenus.
Si le vecteur est
combinaison linéaire des vecteurs et
chacun de ces vecteurs est combinaison linéaire des vecteurs ,
alors est
combinaison linéaire de .
SOUS-ESPACES VECTORIELS
Définition: Nous appelons "sous-espace
vectoriel de E"
tout sous-ensemble de E
qui est lui-même un espace vectoriel pour les opérations d'addition
et de multiplication par un scalaire définies dans E.
Un sous-espace vectoriel,
en tant qu'espace vectoriel, ne peut être vide puisqu'il comprend
au moins un vecteur, à savoir son vecteur nul, celui-ci étant d'ailleurs
forcément le vecteur nul de E.
En outre, en même temps que les vecteurs et
(s'il
en contient d'autres que le vecteur nul), il comprend également
toutes leurs combinaisons linéaires .
Inversement, nous voyons
aussitôt que tout sous-ensemble jouissant de ces propriétés est
un sous-espace vectoriel. Nous avons ainsi établi la proposition
suivante:
Un sous ensemble S de E est un sous-espace vectoriel
de E si et seulement si S est non vide et appartient
à S pour tout couple de
vecteurs de S et tout couple .
FAMILLES GÉNÉRATRICES
Il en découle que si nous avons une famille de vecteurs l'ensemble
des combinaisons linéaires de peut
être un sous-espace vectoriel S de E, plus précisément
le plus petit sous-espace vectoriel de E comprenant .
Les vecteurs qui
satisfont à la condition ci-dessus sont appelés "générateurs"
de S
et la famille ,
famille génératrice de S.
Nous disons aussi que ces vecteurs ou cette famille engendrent S.
Remarque: Le sous-espace vectoriel engendré par un vecteur non
nul est formé de tous les multiples de ce vecteur. Nous appelons
un tel sous-espace "droite vectorielle".
Un sous-espace vectoriel engendré par deux vecteurs non multiples
l'un de l'autre est appelé "plan vectoriel".
DÉPENDANCES ET INDÉPENDANCES LINÉAIRES
Ce qui va suivre est très
important en physique: nous conseillons donc au futur physicien
de prendre vraiment le temps de bien lire les développements.
Si sont
trois vecteurs de dont
les représentants ne sont pas parallèles à un même
plan (par convention une flèche d'intensité nulle
est parallèle à tout plan), alors tout
vecteur de
peut
s'écrire de manière unique sous la forme:
(12.18)
où sont
des nombres.

Figure: 12.3 - Exemple d'un construction d'un vecteur dans un espace à trois dimensions
En particulier, la seule
possibilité d'obtenir le vecteur nul comme combinaison linéaire
de est
d'attribuer la valeur triviale 0 à .
Réciproquement, si pour trois
vecteurs de
la
relation:
(12.19)
implique ,
aucun des vecteurs ne peut être combinaison linéaire des deux autres,
autrement dit, leurs représentants ne sont pas parallèles à un même
plan.
Sur la base de ces observations,
nous allons étendre la notion d'absence de parallélisme à un même
plan au cas d'un nombre quelconque de vecteurs d'un espace vectoriel
E.
Nous disons que les vecteurs
sont
"linéairement indépendants" si la relation:
(12.20)
implique nécessairement ,
autrement dit, si la combinaison linéaire triviale est la seule
combinaison linéaire de qui
soit nulle. Dans le cas contraire, nous disons que les vecteurs
sont
"linéairement dépendants".
Si l'attention est fixée sur la famille plutôt
que sur les termes dont elle est constituée, nous disons que celle-ci
est une "famille libre" ou
"famille liée" suivant que
les vecteurs sont
linéairement indépendants ou dépendants.
BASES D'UN ESPACE VECTORIEL
Définition: Nous disons
qu'une famille finie de vecteurs est une base de E
si et seulement si:
1. Elle est libre.
2. Elle engendre E.
D'après cette définition,
toute famille libre est
une base du sous-espace vectoriel qu'elle engendre.
Exemple:
Si nous considérons comme -espace
vectoriel (cf. chapitre de Théorie des Ensembles),
alors puisque tous les éléments
de s'écrivent ,
les éléments qui engendrent sont
1 et i (les deux sont libres).
Une base de (qui
est de dimension 2) comme -espace
vectoriel est donc la famille finie libre {1,i}.
Pour qu'une famille de vecteurs
soit
une base de E,
il faut et il suffit donc que tout vecteur de
E
s'exprime de manière unique sous la forme d'une combinaison linéaire
des vecteurs :
(12.21)
La relation ci-dessus est une décomposition de
suivant la base où
les coefficients sont
les composantes de dans
cette base. En présence d'une base, tout vecteur est donc entièrement
déterminé par ses composantes.
Proposition:
Si sont
les composantes de et
celles
de ,
alors:
(12.22)
sont les composantes de .
En d'autres termes, additionner deux vecteurs revient à additionner
leurs composantes et multiplier un vecteur par un scalaire revient
évidemment à multiplier ses composantes par ce même scalaire. La
base est donc un outil important car elle permet d'effectuer les
opérations sur les vecteurs au moyen d'opérations sur les nombres.
Exemple:
Les vecteurs-colonnes de :
(12.23)
forment
un base que nous appelons "base canonique" de (nous
travaillerons dans les espaces complexes dans un autre chapitre).
Remarque: Dans le cadre de l'espace à trois dimensions,
les bases sont très souvent assimilées à un trièdre (effectivement
si vous reliez les extrémités des trois vecteurs par des traits
vous obtiendrez un trièdre imaginaire).
ANGLES
DIRECTEURS
Il est clair qu'un seul angle ne peut décrire la direction d'un
vecteur dans l'espace. Nous utilisons alors la notion "d'angles
directeurs". Il s'agit de mesurer l'angle du vecteur
par
rapport à chacun des axes positifs de la base:

Figure: 12.4 - Représentation des agnles directeurs
Si:
(12.24)
alors:
(12.25)
Les valeurs:
(12.26)
sont appelées les "cosinus
directeurs" de .
Les 3 angles mentionnés
ne sont pas complètement indépendants. En effet, 2 suffisent
pour déterminer complètement la direction d'un vecteur dans l'espace,
le troisième pouvant se déduire de la relation suivante (obtenue à
partir du calcul de la norme du vecteur, concept que nous verrons
un peu plus loin):
(12.27)
De plus, les cosinus directeurs
sont les composantes scalaires d'un vecteur de norme unitaire ayant
la même direction que :
(12.28)
DIMENSIONS
D'UN ESPACE VECTORIEL
Nous disons que E
est de "dimension finie" s'il
est engendré par une famille
finie de vecteurs. Dans le cas contraire, nous disons que E
est de "dimension infinie" (nous
aborderons ce type d'espaces dans un autre chapitre). Tout espace
vectoriel de dimension
finie et non réduit au vecteur nul admet une base. En fait, de
toute famille génératrice d'un tel espace nous pouvons extraire
une base.
La dimension d'un espace
vectoriel est notée:
dim(E)
(12.29)
Tout espace vectoriel E
de dimension finie non nulle n
peut être mis en correspondance biunivoque (c'est-à-dire en bijection)
avec .
Il suffit de choisir une base de E
et de faire correspondre à tout vecteur de
E
le vecteur-colonne dont les termes sont les composantes de dans
la base choisie (c'est du blabla de mathématicien mais
ce sera utile quand nous aborderons des espaces plus complexes):
(12.30)
Cette correspondance conserve les opérations d'addition et de multiplication
par un scalaire que nous avons déjà vues; en d'autres termes, elle
permet d'effectuer les opérations sur les vecteurs par des opérations
sur les nombres.
Remarque: Nous disons alors que E et  sont
" isomorphes" ou que la correspondance
est un isomorphisme ( cf. chapitre de Théorie
Des Ensembles).
PROLONGEMENT
D'UNE FAMILLE LIBRE
Soit une
famille libre et une
famille génératrice de E.
Si n'est
pas une base de E,
nous pouvons extraire une sous-famille de
de
telle manière que la famille
soit une base de E.
Remarque: Une telle étude a son utilité lors de passage d'espace
mathématique ayant des propriétés données à un autre espace ayant
des propriétés mathématiques différentes.
Démonstration:
H1. Nous supposons qu'au moins un des vecteurs n'est
pas combinaison linéaire des vecteurs ,
sinon engendrerait
E et serait donc une base possible de E. Notons ce
vecteur .
La famille
est alors une famille libre. En effet, la relation:
(12.31)
implique alors tout d'abord
que ,
autrement serait
combinaison linéaire des vecteurs ,
et ensuite ,
puisque les vecteurs sont
linéairement indépendants.
Si la famille engendre
E, elle est une base possible de E et le théorème
est démontré. Dans le cas contraire, le même raisonnement
nous assure l'existence d'un autre vecteur ....
Si la nouvelle famille en découlant n'est pas une base
de E,
alors le procédé d'extraction de vecteurs de
se
poursuit. Lorsqu'il s'arrête, nous aurons obtenu un "prolongement"
de en
une famille libre engendrant E, c'est-à-dire une base de
E.
C.Q.F.D.
Il en retourne un corollaire: Tout espace vectoriel de
dimension finie et non réduit au vecteur nul admet une base. En
fait, de toute famille génératrice d'un tel espace, nous pouvons
donc extraire une base.
RANG
D'UNE FAMILLE FINIE
Définition: Nous appelons
"rang d'une famille" de
vecteurs la dimension du sous-espace vectoriel de E
qu'elle engendre.
Montrons que le rang d'une
famille de vecteurs est
inférieur ou égal à k et qu'il est égal à k
si et seulement si cette famille est libre.
Démonstration:
Ecartons d'abord le cas trivial
où le
rang de la famille est
nul. D'après le corollaire vu précédemment, nous pouvons alors
extraire de cette famille une base du sous-espace vectoriel qu'elle
engendre.
Le rang est donc inférieur ou égal à k suivant que est
une famille liée ou non.
C.Q.F.D.
SOMMES
DIRECTES
Définition: Nous disons que la somme S+T de
deux sous-espaces vectoriels S et T de E (cas
particulier appliqué à un espace de dimensions 2
!) est une
"somme directe" si:
(12.32)
Dans
ce cas, nous la notons:
(12.33)
En d'autres termes, la somme de deux sous-espaces vectoriels S et T de E est
directe si la décomposition de tout élément de S+T en
somme d'un élément de S et d'un élément de T est
unique.
Ce concept de décomposition trivial va nous être
très utile dans
certains théorèmes dont le plus important sur ce
site est certainement le théorème spectral (cf.
chapitre d'Algèbre Linéaire).
De la somme directe nous pouvons introduire la notion de "sous-espace
complémentaire" appelé encore "sous-espace
supplémentaire" (selon les pays...):
Supposons que E
soit de dimension finie. Pour tout sous-espace vectoriel S
de E,
il existe un sous-espace vectoriel T
(non unique) de E
tel que E
soit somme directe de S
et T.
Nous disons alors que T
est un "sous-espace complémentaire" de S
dans E.
Démonstration:
Ecartons d'abord les cas triviaux où
et S=E. Le sous-espace vectoriel S admet une
base ,
où est
inférieur à la dimension n de E. Par le théorème
du prolongement d'une famille libre, cette base peut se prolonger
en une base de
E. Soit T le sous-espace vectoriel engendré par la
famille .
Si est
un vecteur quelconque de E, alors ,
où est
un vecteur de S et un
vecteur de T. En outre, car
aucun vecteur, excepté le vecteur nul, ne peut être combinaison
linéaire des vecteurs et
des vecteurs .
Nous en concluons donc que:
(12.34)
C.Q.F.D.
ESPACE
AFFINE
L'espace G de
la géométrie élémentaire est à la fois usuel et la source de
la notion "d'espace affine" que
nous allons introduire.
Cet espace G
est associé à "l'espace vectoriel"
géométrique V par la correspondance entre flèches et vecteurs
étudiés jusqu'ici! La définition suivante ne fait que mettre en
évidence les traits dominants de cette correspondance:
Définition: Soit U
un ensemble non vide d'éléments que nous appellerons "points"
et désignerons par les lettres P,
Q, ... ; soit en outre E
un espace vectoriel. Supposons qu'à tout couple de points (P,Q)
corresponde un vecteur noté .
Nous
disons alors que U
est un "espace affine" d'espace
directeur (ou dit simplement abusivement de "direction") E
si les conditions suivantes sont satisfaites:
C1. Pour tout point P
fixé, la correspondance entre couples (P,Q) et vecteurs est
biunivoque, autrement dit, pour tout vecteur il
existe un point Q
et un seul tel que .
C2. Pour tout triplet de points (P,Q,R):
(12.35)
C'est la fameuse "relation de Chasles" (dont
on retrouvera un pseudo-équivalant dans le chapitre de Calcul Différentiel
Et Intégral).
C3. Si P
est un point et un
vecteur, pour exprimer que Q
est l'unique point tel que ,
nous écrivons:
(12.36)
Bien qu'un peu abusive, cette
écriture est conforme à l'usage et suggère bien le sens de l'opération
qu'elle désigne.
Les propriétés suivantes découlent directement de la définition
d'espace affine:
P1. 
P2. Pour tout point P, .
Cela résulte de la condition dans
le cas où nous avons .
P3. .
Il suffit de poser R=P dans la relation de Chasles
.
P4.
Règle du parallélogramme:
Soit le polygone de sommets (dans le sens des aiguilles
d'une montre) et
arêtes :

Figure: 12.5 - Polygone vectoriel
Nous avons:
(12.37)
si
et seulement si:
(12.38)
ce qui donnerait alors un parallélogramme!
En effet, en remplaçant R par Q' dans la relation
de Chasles il vient:
(12.39)
et en faisant de même mais en remplaçant R par Q'
et Q par P' nous avons:
(12.40)
Nous avons alors en égalisant ces deux dernières relations:
(12.41)
ce qui force l'égalité susmentionnée que nous voulions démontrer.
Précédemment,
nous avons vu ce qui faisait qu'un espace G
pouvait être muni d'une structure d'espace vectoriel (nous avons
vu que nous disons que ce dernier était dès lors "vectorialisé").
Dans le cas général d'un espace affine U,
le procédé est le même:
Nous
choisissons un point quelconque O
de U.
La correspondance entre couples
et vecteurs de l'espace directeur étant alors biunivoque nous définissons
l'addition de points et la multiplication d'un point par un scalaire
par les opérations correspondantes sur les vecteurs de E.
Muni de ces deux opérations, U
devient un espace vectoriel, appelé "vectorialisé de U relativement à O".
Nous désignerons cet espace par et
appellerons O
"l'origine".
Vu
la manière dont les opérations ont été définies, il résulte que
est
isomorphe à l'espace directeur E:
(12.42)
Toutefois,
cet isomorphisme dépend du choix de l'origine O
et en pratique cette origine est choisie sur base de données
inhérentes aux problèmes posés. Par exemple,
si une transformation affine admet un point invariant (qui ne
bouge pas), il y a avantage
à choisir ce point comme origine.
Remarques:
R1. Lorsque nous parlons
de dimension d'un espace affine, nous parlons de la dimension de
son espace directeur.
R2. L'espace G
de la géométrie élémentaire est un espace affine. En effet, sa direction
est l'espace géométrique V
et les conditions de définition d'un espace affine sont satisfaites.
Il faut bien noter qu'au couple de points
est associé le vecteur et
non pas la flèche PQ.
En fait, la flèche pouvant être identifiée au couple de points,
nous voyons que ce que postule la définition d'un espace affine
n'est rien d'autre qu'une forme abstraite de correspondance entre
flèches et vecteurs.
R3. Tout espace vectoriel E peut être considéré comme un
espace affine de direction E lui-même si au couple de vecteurs
est
associé le vecteur .
En effet, les conditions de définition d'un espace affine sont dès
lors satisfaites.
ESPACES VECTORIELS EUCLIDIENS
Avant de définir ce qu'est
un espace vectoriel euclidien, nous allons au préalable définir
quelques outils mathématiques et quelques concepts.
Nous pouvons, en choisissant
une unité de longueur, mesurer l'intensité de chaque flèche, autrement
dit, déterminer sa longueur. Nous pouvons aussi mesurer l'écart
angulaire de deux flèches (ou vecteurs) quelconques d'origine commune
(non nécessairement distinctes) en prenant comme unité de mesure
d'angle par exemple le radian. La mesure de cet écart est alors
un nombre compris entre 0 et ,
appelé "angle" des deux flèches. Si les deux flèches ont
même direction et même sens, leur angle est nul et si elles ont
même direction et sens opposé, ce même angle est .
Les flèches représentatives
d'un même vecteur ont
toutes la même longueur. Nous désignerons cette longueur par la
notation:
(12.43)
et l'appellerons "norme"
de (anciennement
appelée "module"). Il est clair que la longueur d'un vecteur est
nulle si et seulement
si sa norme est nulle. Nous dirons qu'un vecteur est unitaire si
sa norme est 1.

Figure: 12.6 - Détails du calcul de la norme dans un repère orthogonal
Si est
un vecteur non nul:
(12.44)
est un vecteur unitaire colinéaire
(nécessairement...) à dont
la norme est égale à l'unité et que nous notons .
Nous appellerons "angle
des vecteurs non nuls" et
l'angle de deux flèches d'origine commune représentant l'une et
l'autre .
Plus rigoureusement cependant une "norme" sur
un espace vectoriel réel
(ou complexe) E, ce qui fait que nous parlons alors "d'espace
vectoriel normé", est une application vérifiant
les propriétés:
P1. Positivité:
(12.45)
P2. Linéarité:
(12.46)
où nous prenons le module de la constante si celle-ci n'est plus
dans l'ensemble des réels mais dans les complexes.
P3. Nullité (souvent associée à la propriété P1):
(12.47)
P4. Inégalité de Minkowski (inégalité triangulaire):
(12.48)
Remarques:
R1.Ces propriétés sont principalement imposées
par notre approche intuitive de l'espace euclidien (espace vectoriel
de dimension finie sur le corps des réels et muni d'un produit
scalaire que nous verrons plus loin) et de son interprétation
géométrique.
R2. Nous démontrerons un peu plus loin la propriété P4 sous la
dénomination "d'inégalité triangulaire" et nous ferons
une étude un peu plus générale de cette inégalité sous la dénomination
"d'inégalité de Minkowski" dans le chapitre de Topologie.
PRODUIT
SCALAIRE VECTORIEL
Définition: Un "espace
vectoriel euclidien",
est un espace vectoriel (réel
et de dimension finie pour les puristes) possédant une opération
particulière, le "produit scalaire" que
nous noterons (notation spécifique à ce site Internet) en
ce qui concerne le cas particulier des vecteurs:
(12.49)
Remarques:
R1.
Nous trouvons dans certains ouvrages (pour information) la notation
ou
encore
lors de la généralisation de cette définition
comme nous le verrons un peu plus loin. Selon la norme ISO 80000-2:2009
il faudrait écrire le produit scalaire .
R2. Le produit scalaire a une importance énorme dans l'ensemble
du domaine des mathématiques et de la physique; ainsi nous
le retrouvons dans le calcul différentiel et intégral
(de par le produit scalaire fonctionnel), en topologie, en physique
quantique, en analyse du
signal etc. Il convient donc de bien comprendre ce qui va suivre.
R3. Le produit scalaire peut être vu comme une projection de la
longueur d'un vecteur sur la longueur d'un autre.
Ce
produit scalaire possède les propriétés suivantes (dont la plupart
découlent de la définition même du produit scalaire) dans un espace
euclidien:
P1.
Commutativité: 
P2.
Associativité: 
P3.
Distributivité: 
P4.
Si 
P5. Carré scalaire:
et
si 
P6.

Seule
cette dernière propriété nécessite peut-être une démonstration
(de plus un des résultats de la démonstration nous servira à démontrer
une autre propriété très importante du produit scalaire):
Démonstration:
Soit:
(12.50)
qui
constitue la "projection orthogonale
vectorielle" (le v en indice du proj signifiant "vectoriel")
du vecteur
sur la normalisation à l'unité du vecteur .
A
l'aide du produit scalaire, le vecteur peut
être exprimé autrement il suffit de prendre la relation
que nous avons vue plus haut:
(12.51)
et
de l'introduire dans avec
les vecteurs adéquats pour obtenir:
(12.52)
Cette expression vaut également
dans le cas où est
nul, à condition d'admettre que la projection orthogonale du vecteur
nul est nulle.
La norme de s'écrit:
(12.53)
Si est
unitaire, les relations de projections précédentes se simplifient
et deviennent:
et
(12.54)
Par des considérations géométriques
élémentaires (distributivité du produit scalaire), il est facile
de se rendre compte que:
et
(12.55)
Si
nous revenons maintenant à la démonstration de:
(12.56)
Nous avons donc dans un premier temps:
(12.57)
et, d'après la définition la
propriété de la projection orthogonale, il vient
alors immédiatement
en faisant la correspondance terme à terme:
(12.58)
d'où la propriété P6 qui s'ensuit par multiplication
des deux membres de l'égalité par et
après simplification par .
C.Q.F.D.
Définitions:
D1.
L'espace vectoriel E
est dit "espace vectoriel proprement
euclidien" si .
D2. Nous disons que les vecteurs et
sont
des "vecteurs orthogonaux"
s'ils sont non nuls et que leur produit scalaire est nul (leur angle
est égal à ).
Une base
de V
est dite "base orthonormale" si
les vecteurs sont
orthogonaux deux à deux et unitaires (donc constituant une famille
libre).
Remarque: Nous verrons en calcul tensoriel (nous aurions
pu le faire ici aussi mais bon...) comment à partir d'un
ensemble de vecteurs indépendants construire une base
orthogonale. C'est ce que le lecteur pourra trouver sous le nom
de "méthode
d'orthogonalisation de (Gram-)Schmidt".
Par le raisonnement géométrique,
nous voyons que tout vecteur est la somme de ses projections orthogonales
sur les vecteurs d'une base orthonormale, autrement dit, si est
une base orthonormale:
(12.59)
Cette décomposition s'obtient
également par la propriété de P6 du produit scalaire. En effet,
étant
les composantes de :
(12.60)
puisque et
de
même:
et
(12.61)
d'où
la décomposition.
Soit et
les
composantes respectives des vecteurs et
dans
une base orthonormale canonique nous
pouvons écrire le produit scalaire sous la forme:
(12.62)
de la propriété P6 du produit
scalaire:

(12.63)
en utilisant la propriété
P1 et à nouveau P6:

(12.64)
Ce qui nous donne finalement
la décomposition:
(12.65)
qui
constitue l'une des relations les plus importantes dans le domaine
du calcul vectoriel et que nous appelons "produit
scalaire canonique".
INÉGALITÉ
DE CAUCHY-SCHWARZ
La relation:
(12.66)
s'écrit également trivialement
sous la forme suivante si nous utilisons la notion de norme et la
définition du produit scalaire:
(12.67)
Il est intéressant de remarquer que si les deux vecteurs et
sont
orthogonaux, nous retrouvons le résultat d'un théorème
fameux: le théorème de Pythagore!
Effectivement, dès lors nous
avons si les deux vecteurs sont orthogonaux:
(12.68)
Ce
qui nous donne:
(12.69)
Cette relation est très importante
en physique-mathématique. Il faut s'en souvenir !
Nous appelons également "inégalité
de Cauchy-Schwarz" l'inégalité, valable pour tout choix
des vecteurs et
, la
relation:
(12.70)
Ce qui s'écrit aussi:
(12.71)
D'abord nous considérerons comme évident que l'égalité n'a lieu
qu'en cas de colinéarité des deux vecteurs.
Démonstration:
Nous nous plaçons dans le cas où .
Alors, pour nous
avons trivialement selon les propriétés du produit scalaire:
(12.72)
Il s'agit donc d'une simple équation du deuxième degré où la
variable est .
En se rappelant de ce que nous avons vu lors de notre étude des
polynômes du deuxième degré (cf. chapitre
de Calcul Algébrique)
la relation précédente (le fait qu'elle soit toujours supérieure
ou égale à
zéro) est satisfaite que si le discriminant est
négatif ou nul. En d'autres termes, si:
(12.73)
Soit après simplification:
(12.74)
C.Q.F.D.
Lorsque E
est ,
l'inégalité de Cauchy-Schwarz s'écrit avec les composantes des vecteurs:
(12.75)
Dans le cas particulier où
elle
devient:
(12.76)
ou encore:
(12.77)
ce qui montre que le carré
de la moyenne arithmétique est inférieur ou égal à la moyenne arithmétique
des carrés. Ce résultat est important pour l'étude des statistiques.
Par ailleurs, en vertu de la propriété du cosinus et de l'inégalité de
Cauchy-Schwarz
nous pouvons écrire:
(12.78)
relation que nous retrouvons également dans le cadre de l'étude
des statistiques (cf. chapitre de Statistiques).
INÉGALITÉ
TRIANGULAIRE
En majorant par
(de
par l'inégalité de Cauchy-Schwarz!) et en mettant ceci dans
la relation établie déjà précédemment:
(12.79)
Nous
obtenons:
(12.80)
ce
qui entraîne la fameuse "inégalité triangulaire" (très
utile dans l'étude des suites et séries pour l'étude des convergences
ainsi qu'en topologie):
(12.81)
Remarque: La généralisation de cette inégalité relativement aux
propriétés des normes telles que nous le verrons en topologie, donne
ce que nous appelons "l'inégalité de
Minkowski".
En appliquant une fois l'inégalité
triangulaire aux vecteurs
et
et une autre fois aux vecteurs
et
nous obtenons la variante:
(12.82)
PRODUIT SCALAIRE (GÉNÉRAL) Voyons
maintenant une autre manière un peu plus générale (s'appliquant à des
vecteurs ou fonctions), formelle et abstraite pour définir le produit
scalaire tout en tentant de rester le plus simple possible (attention
dans le cas général la notation du produit scalaire change!):
Définition: Soit E un espace vectoriel
réel (!). Une "forme
bilinéaire symétrique positive" sur E, est une
application:
(12.83)
qui vérifie (par définition!):
P1. La positivité:
(12.84)
P2. La nullité (définie):
(12.85)
P3. La symétrie:
(12.86)
P4. La bilinéarité (forme bilinéaire) avec, dans l'ordre, la "linéarité à gauche" et
la "linéarité à droite":
(12.87)
Remarque: A nouveau, ces propriétés sont principalement
imposées par
notre approche intuitive de l'espace euclidien et de son interprétation
géométrique.
Définition: Un espace E muni d'un
produit scalaire est appelé un "espace
préhilbertien".
Si E est de
dimension finie, nous parlons alors "d'espace
euclidien".
Nous avons vu en topologie (cf. chapitre
de Topologie) que les
propriétés du produit scalaire sont les briques de
bases pour définir une
norme et donc une distance dans un espace métrique. Cette
distance sera alors donnée selon ce que nous avons obtenu
dans le chapitre de Topologie:
(12.88)
Définition: Nous disons qu'un espace E muni
d'un produit scalaire est
un "espace Hilbertien" ou "espace
de Hilbert" si
cet espace est complet pour la métrique définie ci-dessus.
En d'autres termes, avoir un espace métrique muni donc
d'une distance générée par un produit scalaire
est une chose. Ensuite, avoir une distance mesurable en est une
autre. Un espace
de Hilbert a donc des distances mesurables au sens topologique
du terme car l'ensemble sur lequel on travaille est continu et
n'importe quel point peut-être approché indéfiniment
(imaginez avoir une règle et que vous ne puissiez pas avec
cette règle approcher
les points qui définissent les dimensions de votre objet...
ce serait gênant...). Donc sans espace complet une grande partie
des théorèmes
de l'analyse fonctionnelle ne pourraient pas être utilisés
dans l'étude des espaces vectoriels et cela serait très
gênant en physique
quantique ondulatoire par exemple...
Formellement, rappelons qu'un espace métrique est complet
si toutes les suites de Cauchy (cf. chapitre
des Suites Et Séries)
de cet espace sont convergentes (cf. chapitre
sur les Fractals)
dans un espace métrique (cf. chapitre de
Topologie).
PRODUIT
VECTORIEL
Le produit vectoriel de
deux vecteurs est une opération propre à la dimension 3. Pour
l'introduire, il faut préalablement orienter l'espace destiné à le
recevoir. L'orientation
étant définie au moyen de la notion de "déterminant",
nous commencerons par une brève introduction à l'étude de cette
notion. Cette étude sera reprise plus tard dans le détail lors
de l'analyse des systèmes linéaires dans le chapitre d'algèbre
linéaire.
Définition: Nous appelons "déterminant"
des vecteurs-colonnes de (pour
la forme générale du déterminant se reporter
au chapitre d'Algèbre
Linéaire):
(12.89)
et nous notons:
(12.90)
le nombre (produit soustrait
en croix):
(12.91)
Nous appelons déterminant
des vecteurs-colonnes de (cf.
chapitre d'Algèbre Linéaire):
(12.92)
et nous notons:
(12.93)
le nombre:
(12.94)
Ainsi, la fonction qui associe à
tout couple de vecteurs-colonnes de (à
tout triplet de vecteurs-colonnes de )
son déterminant est appelée "déterminant
d'ordre 2" (respectivement
d'ordre 3).
Le déterminant a comme propriété
d'être multiplié par -1 si l'un de ses vecteurs-colonnes
est remplacé
par son opposé ou si deux de ses vecteurs-colonnes sont échangés
(la vérification étant simple nous nous abstiendrons
de la démonstration,
sauf sur demande). En plus, le déterminant est non nul
si et seulement si ses vecteurs-colonnes sont linéairement
indépendants
(la démonstration
se trouve quelques lignes plus bas et est d'une grande importance
en mathématique).
Définition: Soit et
les
composantes respectives des vecteurs et
dans
la base orthonormale .
Nous appelons "produit vectoriel" de et
,
et nous notons indistinctement:
(12.95)
le vecteur:
(12.96)
ou
sous forme de composantes:
(12.97)
Remarques:
R1. La première notation est la notation internationale
due à Gibbs
(que nous utiliserons tout au long de ce site), la deuxième
est la notation française due à Burali-Forti (assez embêtante
car se confond avec l'opérateur ET en logique).
R2. Il est assez embêtant de retenir par coeur les relations qui
forment le produit vectoriel habituellement. Mais heureusement il
existe au moins trois bons moyens mnémotechniques:
1.
Le plus rapide consiste à retrouver l'une des expressions des
composantes du produit vectoriel et ensuite par décrémentation
des indices (en recommençant à 3 lorsque qu'on arrive à 0)
de connaître toutes les
autres composantes. Encore faut-il trouver un moyen simple de se
souvenir d'une des composantes. Un bon moyen est la propriété mathématique
suivante de deux vecteurs colinéaires permettant facilement
de retrouver la troisième composante (celle selon
l'axe
Z):
Soit deux vecteurs
colinéaires dans un même plan, alors:
(12.98)
Nous retrouvons donc bien
l'expression de la troisième composante du produit vectoriel
de deux vecteurs (non nécessairement colinéaires...
eux!).
2.
La seconde mais que nous verrons lors de notre étude du calcul tensoriel
consiste à utiliser le symbole d'antisymétrie (également appelé
"tenseur de Levi-Civita"). Cette méthode est certainement
la plus esthétique d'entre toutes mais pas nécessairement la plus
rapide à développer. Nous donnons ici juste l'expression sans plus
d'explications pour l'instant (elle est également utile pour l'expression
du déterminant par extension):
(12.99)
3. Cette dernière méthode
est assez simple et triviale aussi mais elle utilise implicitement
la première méthode: la i-ème composante est
le déterminant des deux colonnes privées de leur i-ème terme,
le deuxième déterminant étant cependant pris avec le signe "-" tel
que:
(12.100)
Il est important, même si c'est relativement
simple, de se rappeler que les différents produits vectoriels
pour les vecteurs d'une base orthogonale sont:
(12.101)
Le produit vectoriel jouit aussi propriétés suivantes que nous
allons démontrer:
P1. Antisymétrie:
(12.102)
P2. Linéarité:
(12.103)
P3. Si et seulement si et
sont
linéairement indépendants (très important !):
(12.104)
P4. Non associativité:
(12.105)
Les deux premières propriétés découlent directement de la définition
et la propriété P4 se vérifié aisément en développant les composantes
et en comparant les résultats obtenus.
Démontrons alors la troisième propriété qui est très importante
en algèbre linéaire.
Démonstration:
Soient deux vecteurs et .
Si les deux vecteurs sont linéairement dépendants alors il existe tel
que nous puissions écrire:
(12.106)
Si nous développons le produit
vectoriel des deux vecteurs dépendants à un facteur près,
nous obtenons:
(12.107)
Il va sans dire que le résultat ci-dessus est égal au vecteur nul
si
effectivement les deux vecteurs sont linéairement dépendants.
C.Q.F.D.
Si nous supposons maintenant
que les deux vecteurs et
sont
linéairement indépendants et non nuls, nous devons démontrer que
le produit vectoriel est:
P3.1. Orthogonal (perpendiculaire)
à et

P3.2. De norme ,
où est
l'angle entre et

Démonstration:
Commençons par la première propriété P3.1
(première importance en physique!):
(12.108)
ce qui montre bien que le vecteur est
perpendiculaire au vecteur résultant du produit vectoriel entre
et
!
C.Q.F.D.
Terminons avec la deuxième propriété P3.2
(aussi de première importance en physique!):
Démonstration:
Soit le carré de la norme du produit vectoriel .
D'après la définition du produit vectoriel nous avons:
(12.109)
Donc finalement:
(12.110)
C.Q.F.D.
Nous remarquerons que dans
le cas où E
est l'espace vectoriel euclidien, la norme du produit vectoriel
représente l'aire (surface) du parallélogramme construit
sur des représentants
et
d'origine
commune.

Figure: 12.7 - Représentation géométrique du produit vectoriel
Si et
sont
linéairement indépendants, le triplet et
donc aussi le triplet sont
directs.
En effet, étant
les composantes de (dans
la base ),
le déterminant de passage de à
(par
exemple) s'écrit:
(12.111)
Ce déterminant est donc positif,
puisqu'au moins un des n'est
pas nul, d'après la troisième propriété d'indépendance linéaire
du produit vectoriel.
Voici encore quelques propriétés
très importantes d'utilité pratique du produit vectoriel (en
physique particulièrement) qui sont triviales à vérifier si
les développements sont effectués (nous pouvons les faire sur
demande si jamais!):
P1. 
Remarque: Cette dernière relation est parfois appelée
la "règle
de Grassmann", ou plus couramment "double
produit vectoriel" et il est important de noter que sans les parenthèses
le résultat
n'est pas unique.
P2. 
P3.
P4. 
P5. 
PRODUIT
MIXTE
Nous pouvons étendre la définition
du produit vectoriel à un autre type d'outil mathématique que nous
appelons le "produit mixte":
Définition: Nous appelons "produit
mixte" des
vecteurs le
double produit:
(12.112)
souvent condensé sous la notation suivante:
(12.113)
D'après ce que nous avons
vu lors de la définition du produit scalaire et vectoriel , le produit
mixte peut également s'écrire:
(12.114)
Nous remarquerons que dans
le cas où E est
l'espace vectoriel euclidien ,
la valeur absolue du produit mixte symbolyse le volume (orienté)
du parallélépipède,
construit sur des représentants d'origine
commune.
Remarque: Il
est assez trivial que le produit mixte est une extension
à 3 dimensions du produit vectoriel. Effectivement, dans l'expression
du produire mixte, le produit vectoriel représente la surface
de base du parallélépipède et le produit
scalaire projette un des vecteurs sur le vecteur résultant
du produit vectoriel ce qui donne la hauteur h du parallélépipède.
De par les propriétés de
commutativité du produit scalaire, nous avons:
(12.115)
et le lecteur vérifiera sans
aucune peine (nous le ferons s'il y a demande) en développant les
composantes que:
(12.116)
Le produit mixte jouit également
des propriétés que le lecteur ne devrait avoir aucun mal à vérifier
en développant les composantes mis à part peut-être P3 qui
découle
des propriétés
du produit scalaire et vectoriel (nous pouvons développer sur demande
si jamais!):
P1. 
P2. 
P3. si
et seulement si sont
linéairement indépendants
P4. 
Remarque: Nous reviendrons sur le produit mixte lors de notre étude
du calcul tensoriel car il permet d'arriver à un résultat
très intéressant en particulier en ce qui concerne
la relativité générale!
ESPACES
VECTORIELS FONCTIONNELS
Soit l'ensemble
des fonctions réelles k-fois dérivables dans l'intervalle
fermé .
Nous désignerons les éléments de cet ensemble par les lettres
La valeur de au
point t sera bien évidemment notée .
Dire que
équivaudra donc à dire que:
(12.117)
De manière abrégée, nous
écrirons ,
le signe indiquant
ainsi que les deux membres sont égaux pour tout
t de
l'intervalle .
Considérons les deux opérations
suivantes:
- définie
par la formule 
- définie
par la formule 
Ces deux opérations satisfont
à toutes les conditions des vecteurs d'un espace vectoriel que nous
avons déjà définies au début de ce chapitre (associativité, commutativité,
vecteur nul, vecteur opposé, distributivité, élément neutre) et
munissent donc d'une
structure d'espace vectoriel. Le vecteur nul de cet espace étant
bien évidemment la fonction nulle et l'opposé de étant
la fonction .
Il est intéressant de constater
que en
tant qu'espace vectoriel est une généralisation
de au
cas continu. Nous pouvons en effet concevoir tout vecteur de
sous
la forme d'une fonction réelle définie dans l'ensemble :
la valeur de cette fonction au point i est
tout simplement .
Remarque: Les polynômes de degré n et à une inconnue
forment aussi un exemple d'espace vectoriel fonctionnel de dimension
n+1 (à chaque coefficient du polynôme correspond une composante
du vecteur).
Le champ d'application privilégié
de la théorie abstraite du produit scalaire est constitué par les
espaces vectoriels fonctionnels. Nous appelons ainsi aussi produit
scalaire canonique dans l'opération
définie par la relation:
(12.118)
Cette opération définit bien un produit scalaire, les propriétés
de ce dernier sont vérifiées et, en outre, l'intégrale:
(12.119)
est positive si la fonction continue
n'est pas identiquement nulle.
ESPACES VECTORIELS HERMITIENS
L'objectif de ce qui va suivre n'est pas de faire une étude détaillée
du sujet des espaces vectoriels complexes mais juste de donner
le bagage et le vocabulaire minimum nécessaire à l'étude de certaines
théories physiques comme la physique quantique par exemple.
Lorsque les scalaires qui apparaissent dans la définition de
la notion d'espace vectoriel sont des nombres complexes (cf.
chapitre sur les Nombres), et non plus des nombres réels,
nous parlons alors "d'espaces
vectoriels complexes".
Remarque: Rigoureusement dans la communication courante, il devrait
systématiquement être fait mention si nous parlons d'espace vectoriel
réel ou d'espace vectoriel complexe...
Citons quelques exemples d'espaces vectoriels complexes:
E1. L'espace vectoriel des
vecteurs-colonnes à n termes complexes ( étant
identifié à ).
Nous rencontrerons, entre autres, de tels vecteurs dans le chapitre
de Physique Quantique Relativiste.
E2. L'espace vectoriel des polynômes à coefficients complexes
en une indéterminée. Nous rencontrerons ce genre d'espaces dans
les chapitres de Physique Quantique Ondulatoire ou encore de Chimie
Quantique.
E3. L'espace vectoriel des fonctions complexes d'une variable
réelle ou complexe dérivables ou non. Nous rencontrerons
ce genre d'espace très fréquemment dans la section
de Mécanique globalement
et surtout dans les chapitres d'Électrodynamique ou encore
de Mécanique Ondulatoire.
Il s'agit ici d'adapter ce que nous avons fait précédemment
aux espaces vectoriels complexes. L'exemple suivant nous montre
que nous ne pouvons pas transposer telles quelles les définitions
précédentes.
En effet, considérons l'espace vectoriel .
Comme pour ,
nous pourrions être tenté de définir un produit scalaire
sur par:
(12.120)
avec .
Malheureusement, nous nous apercevons que cette définition n'est
pas satisfaisante car nous aurions alors:
(12.121)
et cette quantité n'est pas en général un nombre réel dans l'espace
des complexes ce qui viole la propriété de positivité du produit
scalaire et donc empêche d'introduire tout concept de distance.
Nous ne pourrions donc plus définir une norme en posant:
(12.122)
Pour
que soit
un nombre réel positif nous voyons qu'il faudrait plutôt
définir
le produit scalaire comme ceci:
(12.123)
Dans ce cas nous avons:
(12.124)
qui est bien un nombre réel positif. A partir de là, nous
pouvons à nouveau
définir une norme sur l'espace vectoriel complexe en
posant:
(12.125)
Nous allons à présent montrer comment définir un
produit scalaire sur un espace vectoriel complexe dans le cas général.
PRODUIT HERMITIEN
Définition: Soit H un espace vectoriel
complexe (!). Nous appelons "produit scalaire" ou plus
exactement "produit
hermitien" sur H, une application:
(12.126)
qui vérifie:
P1. La positivité:
(12.127)
P2. Nullité (définie):
(12.128)
P3. Symétrie hermitienne:
(12.129)
P4. La bilinéarité (forme bilinéaire) change un peu aussi... ce
qui fait que nous parlons alors de "sesquilinéarité".
Nous parlons alors, dans l'ordre, d'anti-linéarité à gauche et
de linéarité à droite tel que:
(12.130)
Remarques:
R1. Certains mathématiciens mettent l'anti-linéarité à droite.
C'est simplement une question de convention qui n'a aucune importance.
R2. Le lecteur remarquera peut-être sans peine que si les éléments
des définitions précédentes sont tous dans alors
la sesquilinéarité se réduit à la bilinéarité et le caractère hermitien
à la symétrie. Donc le produit hermitien se réduit au produit scalaire.
R3. Nous souhaitons donner pour l'instant uniquement le minimum
sur le vaste sujet que sont les espaces vectoriels complexes afin
que le lecteur puisse lire sans trop de peine le début du chapitre
de Physique Quantique Ondulatoire.
Lorsque nous munissons un espace vectoriel complexe d'un produit
scalaire alors au même titre qu'un espace vectoriel réel devient
un espace vectoriel euclidien ou préhilbertien, l'espace
vectoriel complexe devient donc ce que nous appelons un "espace
vectoriel hermitien" (terme assez souvent utilisé dans
le chapitre de Physique Quantique Ondulatoire).
Définition: Encore une
fois, nous disons qu'un espace H muni
d'un produit hermitien est
un "espace de Hilbert" si
cet espace est complet pour la métrique définie ci-dessus.
Ainsi, les espaces de Hilbert sont une généralisation comprenant
les produits scalaires et produits hermitiens des espaces euclidiens,
préhilbertiens et hermitiens.
TYPES D'ESPACES VECTORIELS
Pour résumer tout cela:
- Nous appelons espace préhilbertien (réel ou complexe) tout
espace vectoriel, de dimension finie ou non, muni d'un produit
scalaire.
- Nous appelons espace de Hilbert (réel ou complexe) tout espace
préhilbertien complet (en tant qu'espace normé).
- Nous appelons espace euclidien tout espace vectoriel réel de
dimension finie muni d'un produit scalaire.
- Nous appelons espace hermitien tout espace vectoriel complexe
de dimension finie muni d'un produit scalaire.
Nous savons que tout espace vectoriel (réel ou complexe) normé de
dimension finie est complet. Ainsi, les espaces euclidiens et les
espaces hermitiens sont des espaces de Hilbert (respectivement
réels ou complexes).
SYSTÈMES
DE COORDONNÉES
Nous allons aborder ici, l'aspect des changements de coordonnées
des composantes de vecteurs non pas d'une base à une autre
(pour cela il faut aller voir le chapitre d'Algèbre Linéaire)
mais d'un système de coordonnées à un autre.
Ce type de transformation a un fort potentiel en physique (ainsi
qu'en mathématique) lorsque nous souhaitons simplifier
l'étude
de systèmes physiques dont les équations deviennent
plus facilement manipulables dans d'autres systèmes
de coordonnées.
Définition: En mathématiques, un "système
de coordonnées" permet de faire correspondre
à chaque point d'un espace à n dimensions,
un n-uplet de scalaires.
Remarque: Dans beaucoup de cas, les scalaires considérés
sont des nombres réels, mais il est possible d'utiliser
des nombres complexes ou des éléments d'un quelconque
corps (cf. chapitre de Théorie Des
Ensembles). Plus généralement, les coordonnées
peuvent provenir d'un anneau ou d'une autre structure algébrique
apparentée.
Bien que nous soyons dans un chapitre et une section de mathématiques
du site, nous nous permettrons dans ce qui va suivre de faire
une
liaison directe avec la physique pour ce qui concerne les expressions
de la vitesse et de l'accélération dans différents
systèmes de
coordonnées (désolé pour les matheux...)
SYSTÈME
DE COORDONNÉES CARTÉSIENNES
Nous ne souhaitons pas trop
nous attarder sur ce système car il est bien connu de tout le monde
habituellement. Rappelons cependant que la plupart du temps, en
physique, les systèmes cartésiens dans lesquels nous travaillons
sont (deux
dimensions spatiales), (trois
dimensions spatiales) voir ou
(trois
dimensions spatiales et une temporelle) lorsque nous travaillons
en relativité.
Les systèmes cartésiens
sont représentés par des vecteurs de base orthonormés
(dans le sens qu'ils sont linéairement indépendants
et de norme unité)
qui forment une "base euclidienne"
d'un espace vectoriel euclidien...
Dans (cas
le plus fréquent), il y a trois vecteurs de base notés traditionnellement:
(12.131)
Dans ce système, la position d'un point P (repérable
par un vecteur )
est définie par le triplet de nombres noté (en calcul
tensoriel):
(12.132)
et en physique plus conventionnellement:
(12.133)
où habituellement la coordonnée (z) représente la hauteur
(la verticale), la coordonnée (x) la largeur et la coordonnée
(y) la longueur (évidemment ces choix sont complètement
arbitraires).
Ce point P
peut être repéré par un vecteur noté arbitrairement dans
la base par
la relation (utilisant la notation tensorielle):
(12.134)
En physique, si nous travaillons
avec des coordonnées, c'est toujours pour pouvoir déterminer l'emplacement
d'un élément. Or, comme nous le verrons plus rigoureusement en mécanique
analytique, le physicien travaille avec les notions suivantes (chaque
élément dépendant souvent du temps):
- Position: 
- Vitesse: 
- Accélération: 
Maintenant voyons comment
s'expriment ces différentes notions dans des systèmes
tels que les coordonnées sphériques, cylindriques
et polaires.
SYSTÈME
DE COORDONNÉES SPHÉRIQUES
Le choix de commencer avec
ce système de coordonnées n'est pas un hasard. Il a pour avantage
d'être une généralisation des systèmes cylindrique
et polaire dont nous retrouverons par la suite plus facilement
les expressions
de la position, de la vitesse et de l'accélération.
Nous représentons traditionnellement (en Suisse... et ce
conformément à la norme ISO 31-11) un système à coordonnées
sphériques
de la façon suivante:

Figure: 12.8 - Représentation du système de coordonnées sphériques
Nous voyons très clairement si nous connaissons bien
les relations trigonométriques
élémentaires (voir le chapitre du même nom dans la
section de géométrie)
que nous avons les transformations:
(12.135)
où les deux angles sont respectivement la latitude et la
colatitude. Nous avons inversement:
(12.136)
Maintenant il nous faut trouver
les expressions qui relient les vecteurs de la base sphérique que
nous choisissons de noter
avec les vecteurs de la base cartésienne .
Nous avons, comme nous pouvons le voir sur le schéma ci-dessus:
(12.137)
Indiquons qu'en divisant par pour
le deuxième vecteur de base, nous nous assurons ainsi de
par les propriétés
de la norme du produit vectoriel que:
(12.138)
sera
bien normalisé à l'unité!
Remarque: Il est important de remarquer que le produit vectoriel
de deux vecteurs de base donne toujours le troisième vecteur
de base perpendiculaire (comme pour les coordonnées cartésiennes
donc!).
Pour des besoins ultérieurs,
déterminons les différentielles partielles de chacune
de ces coordonnées:
(12.139)
Nous allons également utiliser
plus tard (pour l'étude des opérateurs vectoriels) la variation
exprimée
en coordonnées sphériques:
(12.140)
Pour exprimer la vitesse
et l'accélération en coordonnées sphériques, nous aurons également
besoin des dérivées par rapport au temps:
(12.141)
Donc si nous faisons maintenant
un peu de physique, nous avons:
(12.142)
ce qui nous amène donc à (nous
aurons besoin de cette relation en astrophysique):
(12.143)
Il est intéressant de remarquer que nous arrivons au même
résultat
en passant par la méthode suivante qui est peut-être moins
intuitive:
(12.144)
et en y substituant la dérivée obtenue plus haut:
(12.145)
En ce qui concerne l'accélération nous
obtenons:

(12.146)
Or, nous avons:
(12.147)
Donc il vient:
(12.148)
Soit au final:
(12.149)
SYSTÈME
DE COORDONNÉES CYLINDRIQUES
Le système de coordonnées
cylindriques (très utile dans l'étude des systèmes à mouvements
hélicoïdaux)
est assez semblable à celui des coordonnées sphériques puisqu'il
peut être vu comme une tranche de la sphère. Soit le schéma:

Figure: 12.9 - Représentation du système de coordonnées cylindriques
Attention!!! Le vecteur est
contrairement au cas sphérique précédent uniquement défini dans
le plan XY ou un plan qui lui est parallèle!
il vient sans peine qu'en
coordonnées cylindriques:
et
(12.150)
et inversement:
(12.151)
Maintenant il nous faut trouver les expressions qui relient les
vecteurs de la base cylindrique que nous choisissons de noter (au
lieu de comme
cela se fait traditionnellement) avec les vecteurs de la base
cartésienne
.
Nous avons, identiquement à ce que nous avons fait pour les coordonnées
sphériques:
(12.152)
Indiquons qu'en divisant par ,
nous nous assurons de par les propriétés de la norme
du produit vectoriel que:
(12.153)
sera
bien normalisé à l'unité! Dans le cas
des coordonnées cylindriques l'angle étant de toute façon droit,
nous ne serions pas obligé d'indiquer cette division, mais nous
avons fait ce choix par souci d'homogénéité avec les développements
précédents...
Remarque: Il est important de remarquer que le produit
vectoriel de deux vecteurs de base donne toujours le troisième
vecteur de base perpendiculaire (comme pour les coordonnées
cartésiennes
et sphériques donc!).
Pour des besoins ultérieurs,
déterminons les différentielles partielles de chacune
de ces coordonnées:
(12.154)
Nous allons également utiliser
plus tard (pour l'étude des opérateurs vectoriels) la variation
exprimée
en coordonnées cylindriques:
(12.155)
Pour exprimer la vitesse
et l'accélération en coordonnées cylindriques, nous aurons également
besoin des dérivées par rapport au temps:
(12.156)
Donc si nous faisons maintenant
un peu de physique, nous avons (rappelons que la composante z
est indépendante des autres composantes cylindriques):
(12.157)
ce qui nous amène à:
(12.158)
Pour l'accélération nous
obtenons (exactement la même démarche que pour déterminer l'expression
de la vitesse):
(12.159)
SYSTÈME
DE COORDONNÉES POLAIRES
Le système de coordonnées
polaires est très semblable à celui des coordonnées
cylindriques puisqu'il peut être vu comme un retranchement d'une
dimension (la hauteur) du système cylindrique (nous retrouverons
souvent ce système dans les chapitres de Mécanique Classique, Physique
Quantique Corpusculaire et d'Astronomie).

Figure: 12.10 - Représentation du système de coordonnées polaires
Ainsi, il vient sans peine
qu'en coordonnées polaires:
et
(12.160)
et inversement:
(12.161)
Maintenant il nous faut trouver
les expressions qui relient les vecteurs de la base polaire que
je choisis de noter (au
lieu de comme
cela ce fait traditionnellement) avec les vecteurs de la base cartésienne
.
Nous avons identiquement à ce que nous avions fait pour les coordonnées
sphériques:
(12.162)
Explications
pour la seconde ligne: en divisant par ,
nous nous assurons de par les propriétés de la norme
du produit vectoriel que
sera bien normalisé à l'unité. Dans le cas
des coordonnées polaires l'angle étant de toute façon droit, nous
ne serions pas obligé d'indiquer cette division, mais nous avons
fait ce choix par souci d'homogénéité avec les développements précédents.
Pour des besoins ultérieurs,
déterminons les différentielles partielles de chacune
de ces coordonnées:
(12.163)
Nous allons également utiliser
plus tard (pour l'étude des opérateurs vectoriels)
la variation
exprimée
en coordonnées polaires:
(12.164)
Pour exprimer la vitesse
et l'accélération en coordonnées polaires,
nous aurons également
besoin des dérivées par rapport au temps:
(12.165)
Donc si nous faisons maintenant
un peu de physique, nous avons:
(12.166)
ce qui nous amène à:
(12.167)
où
le premier terme est la composante radiale de la vitesse et le
second la composante tangentielle de la vitesse (angulaire).
L'expression de la vitesse en coordonnées polaires est très importante
en astronomie puisqu'elle permet de calculer assez facilement
l'énergie cinétique:
(12.168)
Pour l'accélération nous
obtenons:
(12.169)
où le premier terme est l'accélération radiale, le second l'accélération
centripète, le troisième l'accélération de Coriolis et le quatrième
l'accélération tangentielle.
OPÉRATEURS DIFFÉRENTIELS
Définition: Définir un champ
scalaire, vectoriel ou tensoriel, dans un volume V,
c'est définir une application qui, à tout point de
ce volume V,
associe respectivement une grandeur scalaire, vectorielle
ou tensorielle.
Ainsi, l'application f qui, à tout point de
V, de coordonnées spatiales x, y, z associe la valeur
scalaire
est un champ scalaire dans V.
En chaque point d'un volume
traversé par un fluide en mouvement, le vecteur qui coïncide à chaque
instant avec la vitesse de la particule changeante qui passe en
ce point à ce même instant définit un champ vectoriel 3D, éventuellement
variable dans le temps. Les champs ainsi définis constituent un
outil mathématique de base dans l'ensemble de la physique.
Remarque: Lorsque nous représentons graphiquement
un champ scalaire, l'ensemble des points continus de valeur égale
constitue ce que l'on appelle des "isolignes"
ou plus couramment "courbes de niveau".
Le gradient, la divergence et le rotationnel sont les trois principaux
opérateurs différentiels linéaires du premier
ordre que nous allons présenter ici. Cela signifie qu'ils
ne font intervenir que des dérivées partielles (ou
différentielles) premières des champs, à la
différence, par exemple, du laplacien qui fait intervenir
des dérivées partielles d'ordre 2.
Nous les rencontrerons en
particulier dans les chapitres traitant de la mécanique
des fluides, de l'électromagnétisme
ainsi qu'en physique quantique ondulatoire où ils permettent
d'exprimer facilement certaines propriétés.
GRADIENTS D'UN CHAMP SCALAIRE
Le gradient est un opérateur qui s'applique
à un champ de scalaires et le transforme en un champ de
vecteurs. Intuitivement, le gradient indique la direction de la
plus grande
variation du champ scalaire, et l'intensité de cette variation.
Par exemple, le gradient de l'altitude est dirigé selon
la ligne de plus grande pente et sa norme augmente avec la pente.
Soit un champ scalaire tridimensionnel
,
où x
et y
et z
sont les coordonnées cartésiennes d'un point M
de l'espace. Lorsque M
se déplace dans l'espace selon le vecteur de
composantes dx,
dy et dz,
le champ scalaire f varie
de df selon la différentielle totale:
(12.170)
A partir de cette relation,
nous pouvons définir "l'opérateur gradient" d'un champ
scalaire tel que:
(12.171)
où:
(12.172)
est
un terme vectoriel appelé le "gradient
du champ scalaire f".
Pour condenser l'écriture, nous utilisons parfois le symbole nommé le "nabla du champ scalaire f".
Le vecteur obtenu par le
calcul du gradient a les quatre propriétés suivantes:
P1. Ses composantes représentent
la variation (pente) de la fonction f selon les différentes
directions de l'espace.
P2. Sa norme est la variation maximale de f en fonction
de la distance.
P3. Sa direction est selon la variation maximale de f en
fonction de la distance.
P4. Le sens indique les valeurs où f augmente.
A
partir de la définition et de la différentielle totale, nous obtenons
(12.173)
Ce qui nous amène à poser
que:
(12.174)
et donc que finalement l'opérateur "gradient
en coordonnées cartésiennes" est donné par:
(12.175)
Finalement nous voyons que
le gradient d'un champ scalaire est
le champ vectoriel dont les composantes en chaque point sont
les
trois dérivées du champ scalaire f par
rapport aux trois coordonnées spatiales, notées ici x,
y, z.
La variation de f pour un déplacement est
donc le produit scalaire de par
le gradient du champ f. Or, un déplacement infinitésimal
effectué
le long d'une isoligne (décrivant une isosurface), du champ
scalaire tridimensionnel f(x, y, z)
n'engendre aucune variation df de f. Le produit
scalaire évoqué est donc nul dans ce cas, ce qui implique que
et sont
perpendiculaires.
En considérant cette fois
un déplacement perpendiculaire aux isolignes, nous montrons
facilement que le vecteur gradient de f est
dirigé depuis les faibles valeurs de f vers
les fortes valeurs de f.
Sa norme étant d'autant plus grand que f varie
rapidement au voisinage du point considéré.
Par sa direction, son sens
et sa norme, le vecteur gradient d'un champ en un point comporte
donc des indications sur la manière dont varie le champ
autour de ce point.
Remarque: Une des conditions nécessaire et suffisante
pour qu'un champ de vecteurs soit le gradient d'un champ scalaire f est
que ce champ vectoriel soit irrotationnel (voir plus loin l'opérateur
rotationnel d'un champ vectoriel).
Après avoir défini le gradient
en coordonnées cartésiennes x,
y, z nous devons nous intéresser à l'expression de cet
opérateur dans d'autres systèmes de coordonnées. Il est fréquent
en physique d'avoir à utiliser les coordonnées cylindriques, polaires
et sphériques pour simplifier l'étude formelle de systèmes physiques.
Ainsi, si nous faisons référence à notre étude des systèmes de coordonnées,
nous avons (rappel) d'abord en coordonnées polaires:
(12.176)
Or, avec la définition du
gradient en coordonnées cartésiennes, nous avons en coordonnées
polaires la définition suivante:
(12.177)
Si nous exprimons la différentielle totale exacte (cf.
chapitre de Calcul Différentiel Et Intégral)
de df nous
obtenons les relations suivantes:
(12.178)
Ce qui nous permet d'obtenir
la relation:
(12.179)
donc:
(12.180)
ce qui nous amène à:
(12.181)
Ainsi le "gradient
en coordonnées
polaires" s'exprime comme:
(12.182)
Occupons-nous maintenant
de l'expression du gradient en coordonnées cylindriques.
Rappelons que lors de l'étude des différents systèmes
de coordonnées nous
avons obtenu pour les coordonnées cylindriques:
(12.183)
Donc nous savons déjà que l'expression du gradient en coordonnées
cylindriques sera identique à celle en coordonnées polaires à l'exception
de l'ajout de la composante verticale z indépendante des
autres coordonnées. Ainsi, nous obtenons l'opérateur "gradient
en coordonnées cylindriques":
(12.184)
Occupons-nous maintenant
de l'expression du gradient en coordonnées sphériques.
Rappelons que lors de l'étude des différents systèmes
de coordonnées nous
avons obtenu pour les coordonnées sphériques:
(12.185)
Or, avec la définition du
gradient en coordonnées cartésiennes, nous avons en coordonnées
sphériques la définition suivante:
(12.186)
Si nous exprimons la différentielle
totale de df nous
obtenons les relations suivantes:
(12.187)
Ce qui nous permet d'obtenir la relation (nous utilisons maintenant
la notation qui use de l'opérateur "nabla"):
(12.188)
La relation:
(12.189)
Nous impose:
(12.190)
Ainsi l'opérateur "gradient en
coordonnées sphériques" s'exprime comme:
(12.191)
Nous
avons donc finalement vu toutes les expressions de l'opérateur
gradient dans les systèmes cartésiens, polaires,
cylindriques et sphériques.
Voyons un exemple avec une fonction fictive dans Maple 4.00b (à
défaut d'avoir trouvé la manière de faire
pour les autres opérateurs
vectoriels
que nous
verrons par la suite) en montrant d'abord la fonction seule et
ensuite avec le gradient:
> with(linalg):
>
with(plots): > plot3d(sin(x)*sin(y),x=-3..3,y=-3..3,axes=framed);

Figure: 12.11 - Première étape: Aperçu de la fonction scalaire d'exemple
>contourplot3d(sin(x)*sin(y),x=-3..3,y=-3..3,filled=true,axes=framed,
coloring=[red,blue],style=patch);

Figure: 12.12 - Deuxième étape: Pour compliquer nous affichons en même
temps les isoclines
>Pa:=contourplot(sin(x)*sin(y),x=-3..3,y=-3..3,contours=10,coloring=[red,blue],filled=true):
>Pb:=fieldplot(grad(sin(x)*sin(y),vector([x,y])),x=-3..3,y=-3..3,arrows=THICK):
>display(Pa,Pb);

Figure: 12.13 - Troisième étape: Projection de la fonction dans le plan
avec le gradient
et
les
isoclines
>campo:=fieldplot3d([diff(sin(x)*sin(y),x),diff(sin(x)*sin(y),y),0],x=-3..3,y=-3..3,
z=-3..3,axes=framed,arrows=THICK):superf:=plot3d(sin(x)*sin(y),x=-3..3,y=-3..3):
> display({campo,superf});

Figure: 12.14 - Dernière étape: La même chose mais en 3D
soit vu du dessus:

Figure: 12.15 - La même chose mais vu du dessus
GRADIENTS D'UN CHAMP DE VECTEURS
Le gradient d'un champ vectoriel
est
le champ dit "champ tensoriel" défini par les 9 relations
suivantes en coordonnées cartésiennes:
(12.192)
Nous utiliserons un tel gradient lors de notre étude dans
le chapitre de Génie Météo de l'effet Papillon
dont l'origine vient de la détermination
des équations de Navier-Stokes en Mécanique des Milieux
Continus ainsi que dans le chapitre de Méthodes Numériques lors
de notre étude de la méthode d'optimisation de Gauss-Newton.
Par
les 4 relations suivantes en coordonnées polaires:
(12.193)
Par
les 9 relations suivantes en coordonnées cylindriques:
(12.194)
Par
les 9 relations suivantes en coordonnées sphériques:
(12.195)
Nous avons donc finalement vu toutes les expressions du gradient
d'un champ vectoriel dans les systèmes cartésiens, polaires, cylindriques
et sphériques.
DIVERGENCES D'UN CHAMP DE VECTEURS
La divergence s'applique à un
champ de vecteurs et le transforme en un champ de scalaires.
Intuitivement, et dans les cas le plus courant, la divergence
d'un champ vectoriel exprime sa tendance à provenir ou
converger vers certains points.
Remarque: Souvent les étudiants confondent l'opérateur
gradient et divergence. Pour marquer la différence il faut se rappeler
que la divergence d'un vecteur est un nombre alors que le gradient
est un vecteur! Le gradient indique la direction dans
laquelle la variation est la plus importante et son amplitude. La
divergence dit simplement ce qui sort d'un point donné.
Cependant, il faut distinguer
deux contributions à la divergence que
nous définirons
rigoureusement un peu plus loin: l'une due aux variations de
direction appelée la "divergence
directionnelle" et l'autre due aux variations de
modules (norme) appelée la "divergence
modulaire". Ainsi, pour des champs simples, nous
pouvons imaginer des cas où la divergence ne serait que
modulaire et d'autres, où elle ne serait que directionnelle.
Nous pourrions aussi construire un champ où les deux types
de divergence coexistent, mais d'effets contraires (convergence
modulaire et divergence
directionnelle par exemple).
Prenons par exemple un vecteur de
l'espace et faisons lui traverser une surface S quelconque.
Les physiciens assimilent alors la quantité qui
se dirige suivant la normale à la surface au flux de à travers S .
Pour se
convaincre de cette analogie nous pouvons imaginer un fluide
coulant sur une surface plane,
le flux à travers
la surface est évidemment nul, par contre si le fluide coule verticalement à travers
une surface horizontale le flux sera maximal. Il est alors immédiat
de vouloir représenter le flux par le produit scalaire de avec
la normale de
la surface S.
Remarque:Il faut toujours prendre garde à la direction
de  car
en un point quelconque d'une surface on a en général deux normales.
Si la
surface est plane la normale est la même
partout mais si elle change suivant les endroits, nous nous intéresserons
alors à un petit élément de surface dS.
Si un
petit élément de flux est défini
par:
(12.196)
alors
le flux total sera donné par:
(12.197)
ce qui
est parfois noté (c'est un peu abusif
mais pourquoi pas...):
(12.198)
Supposons maintenant que notre vecteur déplace
un point de
l'espace en à travers
un parallélépipède rectangle de côtés dx, dy et dz:

Figure: 12.16 - Déplacement du vecteur à travers un parallélépipède
Nous pouvons
décomposer le mouvement (flux) à travers
chaque face du parallélépipède (décompositions dans la base orthonormée).
Par exemple, si nous nous intéressons à l'élément décomposé du
flux à travers la face (dy, dz) décrite par
les sommets BCFG nous avons bien évidemment .
Il nous
faut encore déterminer comment représenter
le flux pour
cette direction. Comme le flux est une fonction, c'est-à-dire que
chacune de ces composantes peut être dépendante des trois composantes
de l'espace (si nous prenons le cas particulier d'une fonction
dans )
nous avons:
(12.199)
Remarque: Ceux qui ne sont pas convaincus peuvent aller
lire le début du chapitre d'Électrodynamique où nous
prenons le champ électrique
comme (excellent) exemple.
Alors la variation du flux selon x sera
donnée par:
(12.200)
ce qui nous donne:
(12.201)
De même
pour les deux autres faces:
(12.202)
d'où en
sommant:
(12.203)
Par rapport à la première
expression de ,
le terme dxdydz est donc un élément de volume et non plus
de surface. Nous avons aussi un résultat intéressant:
(12.204)
dont l'écriture plus explicite et plus rigoureuse
devrait être (pour bien mettre en évidence que la surface fermée
considérée est la frontière du volume fermé étudié):
(12.205)
Remarque: Voir les exemples pratiques dans le chapitre
d'Électrodynamique
où par exemple pour le champ électrique la divergence
est nulle pour une charge sphérique libre car les vecteurs
pointent dans des directions différentes (divergence directionnelle)
et les normes décroissent comme l'inverse du carré
du rayon (convergence modulaire). Les deux contributions sont
en oppositions
et donc la divergence totale est nulle.
Le développement ci-dessus est appelé "théorème
d'Ostrogradsky" ou "théorème
de Gauss-Ostrogradsky" ou encore "théorème
de la divergence" et définit en fait la
divergence totale de dans
un volume comme le flux de à
travers les parois du volume fermé (surface fermée Gauss), ce qu'exprime
bien le nom divergence.
Nous définissons l'opérateur "divergence" par
la relation suivante (la notation tensorielle a été utilisée
afin d'abréger l'écriture) dans un
espace à n dimensions:
(12.206)
Ainsi, nous avons pour l'opérateur "divergence
en coordonnées cartésiennes":
(12.207)
Si la divergence d'un champ
de vecteurs est identiquement nulle en tous les points d'un repère
Eulérien, l'intégrale triple du flux de ce champ à travers
un volume
V sera:
(12.208)
Il en résulte que le flux
de ce champ de vecteurs à travers les bords du volume est nul,
c'est-à-dire
que le flux entrant compense le flux sortant. Nous disons qu'un
tel champ de vecteurs de divergence nulle présente un flux
conservatif.
Pour déterminer l'expression de la divergence en coordonnées
polaires rappelons les relations démontrées plus haut:
(12.209)
Soit à présent une
fonction vectorielle. Nous avons:
(12.210)
Connaissant l'expression de en
fonction de , à partir
de l'expression ci-dessus nous en déduisons:
(12.211)
La divergence de est
définie par .
Nous avons:
(12.212)
Le premier terme vaut (application du gradient en coordonnées
polaires!):
(12.213)
de la même façon nous obtenons (nous pouvons
détailler sur demande):
(12.214)
En additionnant les deux termes
et en exprimant les dérivées partielles des fonctions en
fonction des dérivées partielles des fonctions à l'aide
des relations:
(12.215)
Nous obtenons:
(12.216)
Après simplification:
(12.217)
L'expression de l'opérateur "divergence
en coordonnées polaires" est alors:
(12.218)
Pour déterminer
l'expression de l'opérateur
divergence en coordonnées cylindriques rappelons les relations:
(12.219)
Soit à présent une
fonction vectorielle. Nous avons:
(12.220)
Connaissant l'expression de en
fonction de , à partir
de l'expression ci-dessus nous en déduisons:
(12.221)
La divergence de est
définie par .
Nous avons:
(12.222)
Le premier terme vaut (application
du gradient en coordonnées cylindriques):
(12.223)
de la même façon nous obtenons (nous pouvons
détailler sur demande):
(12.224)
et:
(12.225)
En additionnant les trois termes
et en exprimant les dérivées partielles des fonctions en
fonction des dérivées partielles des fonctions à l'aide
des relations:
(12.226)
Nous obtenons:
(12.227)
Après simplification:
(12.228)
L'expression de l'opérateur "divergence
en coordonnées cylindriques" est alors:
(12.229)
Pour obtenir l'expression de
la divergence en coordonnées sphériques, rappelons
les relations:
(12.230)
Soit à présent une
fonction vectorielle. Nous avons:
(12.231)
Connaissant l'expression de en
fonction de , à partir
de l'expression ci-dessus nous en déduisons:
(12.232)
La divergence de est
définie par .
Nous avons:
(12.233)
Le premier terme vaut (application
du gradient en coordonnées sphériques):
(12.234)
de la même façon nous obtenons (nous pouvons
détailler sur demande):
(12.235)
et:
(12.236)
En additionnant les trois termes
et en exprimant les dérivées partielles des fonctions en
fonction des dérivées partielles des fonctions à l'aide
des relations:
(12.237)
nous obtenons (nous pouvons développer les détails
intermédiaires sur demande):
(12.238)
Ainsi, l'expression de la divergence en coordonnées sphériques
devient:
(12.239)
et donc l'opérateur de "divergence
en coordonnées sphériques" est alors:
(12.240)
Nous
avons donc finalement vu toutes les expressions de la
divergence d'un
champ vectoriel dans les systèmes cartésiens, polaires, cylindriques
et sphériques.
ROTATIONNELS D'UN CHAMP DE VECTEURS
Le rotationnel d'un champ de vecteurs peut être vu (c'est
une simplification!) comme le champ de vecteurs dont les lignes
de champs sont perpendiculaires à celles dont nous avons calculé
le rotationnel comme le montre l'exemple particulier ci-dessous:

Figure: 12.17 - Exemple de rotationnel d'un champ de vecteurs
Le rotationnel transforme ainsi un champ de vecteurs en un autre
champ de vecteurs. Plus difficile à se représenter
précisément que le gradient et la divergence, il exprime
intuitivement la tendance qu'a un champ à tourner autour
d'un point (la manière dont il est tordu).
Exemples:
E1. Dans une tornade,
le vent tourne autour de l'oeil du cyclone et le champ vectoriel
vitesse du vent a un rotationnel non nul autour de l'oeil.
E2. Le rotationnel du champ
des vitesses d'un disque qui tourne à vitesse constante est
constant, dirigé selon l'axe de rotation et orienté
de telle sorte que la rotation ait lieu, par rapport à lui,
dans le sens direct.
Un
champ de vecteurs est dit "irrotationnel"
lorsque le rotationnel de ce champ est identiquement nul en tous
les points de l'espace. Dans le cas contraire, nous disons qu'il
est "tourbillonnaire".
Dans le cas usuel où dx représente un élément
de longueur, l'unité du rotationnel est alors l'unité du
champ considéré divisée par une unité de
longueur. Par exemple, en mécanique des fluides:
l'unité du
rotationnel d'un champ de vitesse est le radian par unité de
temps, comme une vitesse angulaire!
La divergence donne certaines indications sur le comportement
d'un vecteur ou d'un champ de vecteurs: comment il se dirige
par rapport à la normale et comment il traverse les surfaces,
mais c'est insuffisant. Prenons un champ qui aurait la forme
d'un cylindre
et un autre champ qui aurait la forme d'une hélice de même
diamètre
que le cylindre. S'ils se dirigent dans la même direction leur
divergence sera identique alors que les mouvements sont bien
différents. Il
faut donc que nous déterminions la manière dont le
champ est courbé
quand il traverse une surface: ceci va être déterminé par
la circulation (comme le travail d'une force par exemple) du vecteur
le long
d'une
courbe fermée, obtenue avec la somme des produits scalaires sur
le contour fermé (cf. chapitre de Calcul Différentiel Et
Intégral):
(12.241)
en fait ça revient au même de regarder comment est tordu le vecteur
par rapport à la normale à la surface ce qui nous amène à définir
le "rotationnel" ou "vecteur
tourbillon" en écrivant:
(12.242)
qui établit donc une relation entre l'intégrale curviligne et l'intégrale
de surface (on transforme donc une intégrale curviligne sur un parcours
fermé en une intégrale de surface délimitée par ledit parcours).
En d'autres termes, le rotationnel se calcule en utilisant le fait
que la circulation autour d'un circuit élémentaire fermé d'un champ
de vecteurs est égal au flux de son rotationnel à travers la surface
élémentaire immédiate engendrée par ce circuit.
Ceci est le "théorème de Stokes"
(qui est plus rigoureusement démontrable avec un formalisme mathématique
assez lourd) qui est donc en fait une définition de l'opérateur
rotationnel dont nous allons chercher l'expression mathématique
explicite:
Soit un
champ vectoriel défini dans un espace donné. Nous voulons donc calculer
la circulation du autour
d'un contour fermé C:
(12.243)
Nous choisissons comme contour C le contour d'un rectangle
infinitésimal de côté plongé
dans et
parallèle au plan xOy (remarquez que nous parcourons
le contour de façon a toujours avoir la surface à notre gauche):

Figure: 12.18 - Contour d'intégration
Pour les deux côtés horizontaux, la contribution à la circulation
est:
(12.244)
Ce qui nous autorise à écrire:
(12.245)
De même, pour les faces verticales:
(12.246)
Ainsi, nous avons la circulation selon z:
(12.247)
Ce qui s'écrit aussi sous la forme générale traditionnelle suivante:
(12.248)
et constitue le non moins fameux "théorème
de Green" ou appelé encore "théorème
de Green-Riemann" que nous retrouverons dans le
chapitre d'Analyse Complexe.
Et que nous écrirons dans le cas qui nous intéresse:
(12.249)
Par permutation circulaire nous obtenons alors:
(12.250)
Soit sous forme vectorielle condensée:
(12.251)
Ce qui permet de mieux comprendre la notation, ou la définition
non intuitive du rotationnel dans beaucoup d'ouvrages et qui est:
(12.252)
soit le produit vectoriel de l'opérateur gradient avec le champ
vectoriel.
Donc nous avons finalement démontré le théorème de Stokes qui donne
bien:
(12.253)
et en même temps le rotationnel en coordonnées cartésiennes.
Cherchons maintenant à déterminer l'expression du
rotationnel en coordonnées cylindriques (le rotationnel
en coordonnées polaires
n'étant pas définissable).
En réutilisant la même technique que pour le rotationnel
en coordonnées
cartésiennes, nous écrivons la circulation de le
long d'un contour correspondant à un petit morceau de cylindre
orthogonal
à (Oz): .

Figure: 12.19 - Représentation du morceau de cylindre
Nous avons alors en fixant z (attention le n'a
rien à voir avec le r du rayon du cylindre... la notation
peut
être confuse j'en suis désolé!):
(12.254)
la circulation totale donne donc après regroupement des
termes:

(12.255)
Nous ne pouvons pas à cette étape directement comparer
avec le rotationnel car il nous est difficile de faire apparaître
la différentielle
de la surface si nous regardons les différentielles qui
apparaissent actuellement dans la circulation. Le mieux est alors
de tout diviser
par :
(12.256)
Donc:
(12.257)
Maintenant nous déterminons le rotationnel en fixant .
Le problème revient à avoir donc un rectangle dans l'espace que
nous parcourons pour déterminer la circulation. Or, nous savons
déjà ce qu'est le résultat du rotationnel pour un rectangle
en coordonnées
cartésiennes:
(12.258)
à la différence que dans les coordonnées cylindriques
il faut substituer
z par ,
x par z, y par r, par
et
finalement par
(ce
choix s'impose toujours simplement parce que la circulation se
fait
de telle manière que la surface soit toujours à notre gauche)
. Ce qui nous donne:
(12.259)
Il ne nous reste plus qu'à trouver la composante du rotationnel
en r (soit quand r est fixé). Le calcul est alors
plus délicat puisqu'il s'agit de parcourir (positivement toujours!)
une surface courbée par la variation de l'angle .
Nous avons alors en fixant r:
(12.260)
la circulation totale donne donc après regroupement des
termes:
(12.261)
Nous ne pouvons pas à cette étape directement comparer avec le
rotationnel car il nous est difficile de faire apparaître la différentielle
de la surface si nous regardons les différentielles qui apparaissent
actuellement dans la circulation. Le mieux est alors tout diviser
par :
(12.262)
Donc finalement:
(12.263)
Et finalement le rotationnel en coordonnées cylindriques dans sa
globalité est donné par:
(12.264)
Le lecteur pourrait aisément vérifier que ce résultat est simplement
le gradient en coordonnées cylindriques appliqué au champ vectoriel
.
Pour s'en persuader, montrons maintenant directement l'expression
du rotationnel en coordonnées sphériques en montrant
ceci via le produit vectoriel du gradient en coordonnées sphériques
avec le champ vectoriel .
D'abord rappelons que nous avons obtenu pour le gradient en coordonnées
sphériques:
(12.265)
Donc il vient:
(12.266)
ce que nous pouvons aussi écrire en décomposant à l'aide des vecteurs
de base:
(12.267)
A l'aide des dérivées partielles que nous avions démontrées lors
de notre introduction plus haut du système de coordonnées sphériques
il vient:
(12.268)
Les produits vectoriels avec les vecteurs colinéaires s'annulent.
Il reste donc:
(12.269)
Comme le produit vectoriel de deux vecteurs de base donne le vecteur
orthogonal correspondant (positivement ou négativement) nous avons
alors:
(12.270)
En regroupant les termes il vient:
(12.271)
Soit en simplifiant:
(12.272)
Soit finalement:
(12.273)
LAPLACIENS D'UN CHAMP SCALAIRE
Le laplacien d'un champ scalaire est
le champ scalaire qui mesure la différence entre la valeur
de la fonction en un point et sa moyenne autour de ce point. En
d'autres termes, la dérivée partielle deuxième
mesure les variations de la pente au point étudié
dans un entourage immédiat et selon une dimension à la
fois. Si la dérivée partielle deuxième est
nulle selon x, alors la pente est constante dans un
entourage immédiat et selon cette dimension, cela implique
que la valeur de la fonction au point étudié est
la moyenne de son entourage (selon une dimension).
Le lecteur pourra par ailleurs retrouver des applications pratiques
de cet opérateur dans les chapitres d'Analyse Complexe,
de Chimie Quantique, d'Astronomie, d'Électrodynamique, de Génie
Marin & Météo, de Mécanique Ondulatoire, de Physique Quantique
Des Champs et de Physique Quantique Ondulatoire.
Cet opérateur e définit à
partir de la divergence du gradient et nous le notons (écriture
tensorielle):
(12.274)
Le laplacien est nul, ou assez petit, lorsque la fonction varie.
Les fonctions vérifiant l'équation
de Laplace:
(12.275)
sont
appelées "fonctions harmoniques".
Donc l'opérateur "laplacien
en coordonnées cartésiennes" est de
par cette définition, donné par:
(12.276)
Le laplacien d'un champ scalaire et dans d'autres systèmes de coordonnées
est un peu plus long à développer. Il existe plusieurs méthodes
et parmi celles existantes j'ai choisi celles dont le type de raisonnement
et les outils utilisés semblaient pertinents. Il est intéressant
d'aborder différentes stratégies mais bien sûr il existe des méthodes
plus simples que celle présentée ci-dessous.
Soit le laplacien en coordonnées cartésiennes dans
d'un champ scalaire f :
(12.277)
Pour déterminer cette expression
en coordonnées polaires, nous
allons utiliser la différentielle totale et la règle de chaîne en
coordonnées polaires:
(12.278)
donc pour une dérivée seconde:
(12.279)
or, nous avons pour les coordonnées
polaires:
et
(12.280)
d'où:
et
et

(12.281)
d'où:
(12.282)
et compte tenu que les dérivées partielles secondes sont continues,
alors les dérivées croisées sont égales selon le théorème
de Schwarz (cf. chapitre de Calcul Différentiel
Et Intégral):
(12.283)
Donc:
(12.284)
De façon similaire, nous
aurons:
(12.285)
d'où l'expression du laplacien en coordonnées polaires en sommant
les deux dernières expressions:
(12.286)
Donc l'opérateur "laplacien
en coordonnées polaires" est finalement donné
par:
(12.287)
Pour trouver l'expression du laplacien en coordonnées sphériques,
nous allons utiliser l'intuition du physicien et les notions de
similitude.
Nous allons tout d'abord
nous aider de la figure ci-dessus pour savoir de quoi l'on parle:

Figure: 12.20 - Représentation du système de coordonnées sphériques
Rappelons que les relations
entre coordonnées
cartésiennes et sphériques sont données par les relations:
(12.288)
Nous allons considérer maintenant
les similitudes suivantes:
Coordonnées cylindriques:
et

Coordonnées sphériques: et

Construisons un tableau de
correspondance:
(12.289)
L'objectif est de jouer avec cette correspondance avec d'abord
le laplacien en coordonnées cylindriques où l'on a soustrait des
deux côtés de l'égalité le terme .
Ainsi:
(12.290)
utilisons le tableau de correspondance
et nous obtenons:
(12.291)
Le deuxième terme de l'égalité de cette dernière relation est l'équivalent
sphérique du terme #1 du laplacien en coordonnées cylindriques:
(12.292)
Maintenant examinons le
terme: 
Identiquement lorsque nous
avons déterminé la relation:
(12.293)
nous obtenons:
(12.294)
avec:
et
(12.295)
ce qui nous permet d'écrire:
(12.296)
si nous jouons encore avec
le tableau de correspondance, nous avons:
(12.297)
nous divisons cette relation
des deux côtés par et
ainsi nous obtenons:
(12.298)
Nous avons donc ci-dessus l'équivalent sphérique du terme #2 du
laplacien en coordonnées cylindriques:
(12.299)
Le troisième et dernier terme est très simple à déterminer.
Nous remplaçons par
afin
d'obtenir:
(12.300)
En rassemblant tous les termes obtenus précédemment, nous obtenons
enfin la forme étendue du laplacien en coordonnées sphériques si
utilisé en physique:
(12.301)
Nous pouvons raccourcir cette
expression en factorisant les termes:
(12.302)
Si nous condensons encore un peu, nous obtenons l'expression
finale de l'opérateur "laplacien
en coordonnées sphériques" appelé
aussi "laplacien sphérique":
(12.303)
LAPLACIENS D'UN CHAMP VECTORIEL
Comme pour le laplacien d'un champ scalaire, le laplacien d'un
champ vectoriel n'est qu'un système de notation très
commode pour condenser l'écriture des composantes d'un champ.
Le lecteur pourra par ailleurs retrouver des applications pratiques
de cet opérateur
dans les chapitres d'Électrocinétique, d'Électrodynamique
et de Mécanique Des Milieux Continus.
Ainsi, le laplacien vectoriel est souvent défini par:
(12.304)
Nous allons par ailleurs démontrer que dans le cas particulier
des coordonnées cartésiennes, le laplacien d'un champ
vectoriel a pour composantes le laplacien scalaire de chacune des
composantes.
Nous avons donc en coordonnées cartésiennes:
(12.305) et donc le laplacien d'un champ vectoriel en coordonnées
cartésiennes, est bien
le laplacien laplacien
scalaire de chacune des composantes:
(12.306)
Ou explicitement:
(12.307)
Le laplacien d'un champ de vecteurs, appelé fréquemment "laplacien
vectoriel", en d'autres systèmes
de coordonnées
est assez simple à obtenir à partir de la connaissance du laplacien
d'un champ scalaire dans ces mêmes coordonnées.
Nous avons en coordonnées cylindriques:
(12.308)
Pour la simplification (faute de place) concentrons-nous d'abord
sur la première
ligne:
(12.309)
et ensuite sur la deuxième ligne:
(12.310)
Et enfin la troisième et dernière ligne:
(12.311)
Ce qui donne donc pour le laplacien vectoriel en
coordonnées cylindriques tel que nous pouvons le trouver
dans les tables ou formulaires:
(12.312)
Pour finir en beauté et dans la joie et la bonne humeur faisons
les calculs joyeux et détaillés du laplacien vectoriel en coordonnées
sphériques (c'est long mais c'est juste pour s'assurer que l'on
retrouve ce
qu'il y a dans les tables et formulaires).
(12.313)
Concentrons-nous sur la première ligne (attention!
ça va être long...):


  
(12.314)
voilà pour la première ligne... Attaquons-nous
maintenant
à la deuxième ligne toujours dans la joie et la bonne
humeur...:




(12.315)
et enfin un dernier effort pour la troisième et
dernière ligne:



(12.316)
Ce qui donne donc pour le laplacien
vectoriel en coordonnées sphérique tel que nous pouvons
le trouver dans les tables ou formulaires:
(12.317)
voilà voilà... pour les sceptiques.
IDENTITÉS
Les opérateurs différentiels scalaires et vectoriels ont des identités
remarquables très simples que nous retrouverons très souvent en
physique.
Voyons d'abord les relations
qui n'ont aucun sens (au cas où vous tomberiez dessus sans faire
exprès...):
ou
(12.318)
Le rotationnel d'une divergence
n'existe pas puisque l'opérateur rotationnel s'applique à un
champ vectoriel alors que la divergence est un scalaire.
ou
(12.319)
Le rotationnel d'un laplacien
scalaire n'existe pas puisque l'opérateur rotationnel s'applique
à un champ vectoriel alors que par construction, le laplacien est
un scalaire.
Voyons maintenant quelques
propriétés
remarquables sans démonstrations (cependant
si vous en avez besoin car vous n'y arrivez pas seul, n'hésitez
pas
à nous contacter, nous compléterons):
I1. Par construction le laplacien scalaire est la divergence du
gradient du champ:
(12.320)
I2. Le rotationnel du gradient est nul:
(12.321)
Donc si le rotationnel d'une variable vectorielle est
nul, la variable peut être exprimée comme le gradient
d'un potentiel scalaire! C'est une propriété très
importante en électromagnétisme
et en mécanique des fluides!
Démonstration:
(12.322)
C.Q.F.D.
I3. La divergence du rotationnel d'un champ vectoriel est toujours
nulle:
ou
(12.323)
Démonstration:
(12.324)
C.Q.F.D.
I4. Le rotationnel du rotationnel d'un champ vectoriel est égal
au gradient de la divergence de ce champ moins son laplacien vectoriel:
ou
(12.325)
Démonstration:
(12.326)
Il est ensuite facile de
vérifier que cette dernière égalité
est égale à:
(12.327)
C.Q.F.D.
I5. La multiplication de l'opérateur nabla par le produit scalaire
de deux vecteurs est égale à... (voir ci-dessous), qui donne une
relation très utile en mécanique des fluides:
(12.328)
I6. Le produit scalaire du rotationnel d'un vecteur est la différence
des opérateurs commutés tel que:
(12.329)
Nous réutiliserons cette dernière relation lors de notre étude en
électromagnétisme de la pression de radiation (entre
autres).
RÉSUMÉ
Dans le cadre de ce site
Internet, nous faisons usage des différentes notations présentées
et résumées dans le tableau ci-dessous. Leur usage permet dans le
cadre de différentes théories d'éviter des confusions avec d'autres
être mathématiques. C'est embêtant certes mais il faudra faire
avec.
ÊTRE
MATHEMATIQUE |
NOTATIONS |
Gradient
d'un champ scalaire |

|
Gradient
d'un champ vectoriel |

|
Divergence
d'un champ de vecteurs |
div( )
|
Rotationnel
d'un champ de vecteurs |
rot( )
|
Laplacien
d'un champ scalaire |

|
Laplacien
d'un champ vectoriel |

|
Tableau: 12.1
- Résumé des opérateurs différentiels vectoriels
Et pour les pragmatiques voici un résumé des explications
des opérateurs les plus importants en physique:
- Le gradient signifie "la pente" (exemple: le champ
électrique est la pente du potentiel électrostatique).
Les différentes expressions de l'opérateur gradient (mises
sous la forme de l'opérateur nabla) en coordonnées
cartésiennes,
polaires, cylindriques et sphériques sont les suivantes:
(12.330)
(12.331)
(12.332)
(12.333)
- La divergence caractérise un flux de quelque chose qui
vient de quelque part, d'une source, ou qui y va. Si la divergence
n'est
pas nulle, c'est qu'il y a concentration autour d'un point, donc
la densité augmente (ou diminue, c'est selon le signe).
Ça peut
être la densité de charges électriques ou bien la
masse volumique. D'où le fameux théorème qui dit
que le flux (ce qui passe dans une surface) est égal à l'intégrale
de la divergence (ce qui reste).
Les différentes expressions de l'opérateur divergence
(mises sous la forme de l'opérateur nabla) en coordonnées
cartésiennes,
polaires, cylindriques et sphériques sont les suivantes:
(12.334)
(12.335)
(12.336)
(12.337)
- Le rotationnel caractérise l'existence d'un tourbillon (très
utilisé en mécanique des fluides). S'il y a un tourbillon, on peut
suivre une ligne de courant sur une courbe fermée sans qu'elle change
de sens: la circulation ne sera pas nulle (elle vaut l'intégrale
du rotationnel).
Les différentes expressions du rotationnel en coordonnées
cartésiennes, cylindriques et sphériques sont les
suivantes:
(12.338)
(12.339)
(12.340)
- Le laplacien d'un champ scalaire est le champ scalaire
qui mesure la différence entre la valeur de la fonction
en un point et sa moyenne autour de ce point. En d'autres
termes, la dérivée
partielle deuxième mesure les variations de la pente au
point
étudiée dans un entourage immédiat et selon
une dimension à la fois. Si la dérivée partielle
deuxième est nulle selon une direction, alors la pente
est constante dans un entourage immédiat et selon cette
dimension, cela implique que la valeur de la fonction au point étudié
est la moyenne de son entourage (selon une dimension).
Les différentes expressions du laplacien (mises
sous la forme de l'opérateur nabla) en coordonnées
cartésiennes, polaires et sphériques sont les suivantes:
(12.341)
(12.342)
(12.343)
|