
CALCUL ALGÉBRIQUE | ALGÈBRE
ENSEMBLISTE | CALCUL
DIFFÉRENTIEL ET INTÉGRAL
SUITES
ET SÉRIES | CALCUL VECTORIEL | ALGÈBRE
LINÉAIRE | CALCUL
TENSORIEL
CALCUL
SPINORIEL
Dernière mise à jour de ce chapitre:
2017-12-31 17:53:24 | {oUUID 1.691}
Version: 3.3 Révision 10 | Avancement: ~95%
vues
depuis le 2012-01-01: 17'188
LISTE DES SUJETS TRAITÉS SUR CETTE PAGE
Il
y a plusieurs manières d'aborder
l'algèbre linéaire. D'abord une manière pragmatique
(nous commencerons par celle-ci car notre expérience nous
a montré que c'est celle qui semblait le mieux marcher
chez les étudiants) et une manière plus formelle
que nous présenterons aussi après la première.
Il convient d'abord de prévenir le lecteur que l'algèbre linéaire
est un outil puissant de calcul que l'on retrouve énormément
dans la pratique économique et industrielle dans les domaines
suivants (voir les chapitres respectifs du site pour des exemples
concrets): Statistique, Électrotechnique, Finance des marchés,
Méthodes numériques d'optimisation, Optique, Physique Quantique,
Électrodynamique, Relativité, Mécanique des fluides, etc. Il
est alors nécessaire d'y attacher une attention particulière.
D'abord répondons à deux questions d'un lecteur: Pourquoi l'Algèbre
Linéaire s'appelle ainsi? Et existe-t-il une algèbre non linéaire?
Voici mes réponses:
- Cela s'appelle "Algèbre Linéaire" car il fallait d'abord bien
choisir un nom... et aussi parce que c'est une généralisation
de l'algèbre
scalaire mais avec des vecteurs où les applications ne
sont plus des fonctions de scalaires mais des matrices dont l'effet
est
d'agir
en tant que
somme linéaire de vecteurs d'une base (du moins cela peut
être interprété tel quel).
- Officiellement et à ma connaissance il n'existe pas d'algèbre
non linéaire dans la même philosphie que ce que nous allons voir
dans ce chapitre. Il existe des mathématiciens qui auraient créés
des "algèbres non linéaires" mais celles-ci n'ont rien à voir
avec
les matrices.
Maintenant, rappelons que nous
avions étudié dans le chapitre de Calcul Algébrique
comment déterminer
l'intersection (si elle existe) de l'équation de deux droites
(nous pouvons étendre le problème bien évidemment à plus
de deux droites) dans données
par:
et
(13.1)
où .
En cherchant donc la valeur de pour
laquelle:
(13.2)
Ainsi nous pouvions écrire:
(13.3)
Cependant, il existe une
autre manière de présenter le problème comme nous l'avons vu en
méthodes numériques (section d'informatique théorique).
Effectivement, nous pouvons écrire le problème sous la forme d'un
bloc d'équations:
(13.4)
et comme nous cherchons ,
nous avons:
(13.5)
Cette écriture s'appelle comme nous
l'avons présenté dans le chapitre de Méthodes Numériques (section
d'Informatique Théorique) un "système
linéaire" que
nous pouvons résoudre
en soustrayant ou en additionnant les lignes entre elles (l'ensemble
des solutions étant toujours égal), ce qui nous donne:
(13.6)
et nous voyons que nous retombons sur
la solution:
(13.7)
Il y donc deux manières de présenter
un problème d'intersection de droites:
1. Sous forme d'équation
2. Sous forme de système
Nous allons nous intéresser dans une
partie ce chapitre à la deuxième méthode qui
va nous permettre à l'aide
des outils vus dans le chapitre de Calcul Vectoriel de résoudre
les intersections non plus d'une ou plusieurs droites mais d'une
ou plusieurs droites et de plans, hyperplans dans respectivement .
Avant d'attaquer la partie purement théorique, présentons
un exemple
très
intéressant
mais qui nécessite un concept – le déterminant – que nous démontrerons
rigoureusement que bien plus loin en détails dans le présent chapitre
(il nous a semblé pédagogiquement plus judicieux d'aborder ce sujet
maintenant plutôt que le lecteur doive attendre de parcourir des
dizaines de pages de développements mathématiques avant d'arriver à la
définition rigoureuse du déterminant).
Considérons le système de 2 équations linéaires à 2 inconnues
suivant (système d'intersection de plans):
(13.8)
Si nous résolvons cela, nous obtenons rapidement (technique appelée "méthode
de substitution"):
(13.9)
Il vient alors:
(13.10)
et donc au final:
(13.11)
et si nous définissons un peu à la vite un truc qui se nomme le "déterminant" et
dont nous verrons la provenance rigourusement plus loin ainsi:
(13.12)
ou avec une autre notation plus courante:
(13.13)
nous avons alors:
(13.14)
Et en procédant de même, il vient:
(13.15)
Il vient alors:
(13.16)
et donc au final nous avons
et
(13.17)
Il apparaît alors clair que si:
(13.18)
le système a une infinité de solutions. À l'opposé, le système
n'admet aucune solution si:
et
(13.19)
Et si le lecteur réitère (joyeusement...) la procédure pour un
système de 3 équations à trois inconnues du type (intersection
d'hyperplans):
(13.20)
Nous obtenons alors (après quelques opérations algébriques élémentaires):
et et
(13.21)
avec:
(13.22)
Il apparaît alors clair que si:
(13.23)
le système a une infinité de solutions. À l'opposé, le système
n'admet aucune solution si:
et
(13.24)
et ainsi de suite pour des équations à n inconnues.
Il
y a cependant une condition à remplir: comme nous l'avons
vu dans l'exemple précédent, nous ne pourrions
pas résoudre
un système d'équations
à deux inconnues si nous n'avons qu'une seule équation.
C'est la raison pour laquelle il faut et il suffit pour un système
d'équations
à n inconnues
d'avoir au moins n équations.
Ainsi, nous parlons de: "systèmes
de n équations à n inconnues".
Nous démontrerons aussi qu'il faut et il suffit que le
déterminant
soit non nul pour qu'un système linéaire, dont
la matrice est carrée, ait une solution unique (le concept
de "déterminant"
sera défini plus loin) et donc que la matrice soit donc
inversible (non singulière).
SYSTÈMES
LINÉAIRES
Définition: Nous appelons donc "système
linéaire",
ou simplement "système", toute famille d'équations
de la forme:
(13.25)
où chaque ligne représente l'équation
d'une droite, plan ou hyperplan (cf. chapitre
de Géométrie Analytique)
et les
"coefficients du système", les
"coefficients du second membre" et
les les
"inconnues du système".
Si le système à n équation à n iconnues
et que ce système admet une solution unique, nous parlons alors
de "système de Cramer" (1750).
Si les coefficients du second
membre sont tous nuls, nous disons alors que le système
est un "système homogène" et
alors celui-ci admet au moins la solution triviale où
les sont tous nuls.
Nous appelons "système homogène
associé au système",
le système d'équations que nous obtenons en substituant
des zéros
aux coefficients du second membre.
Rappelons les élément suivants:
- L'équation d'une droite (cf. chapitre
d'Analyse Fonctionnelle) est donnée par:
(13.26)
en posant .
- L'équation d'un plan
(cf. chapitre de Géométrie Analytique)
est donnée par:
(13.27)
en posant .
- L'équation d'un hyperplan est très
facilement (si vous ne voyez pas comment faites le nous savoir
nous le préciserons) généralisable à partir
de la démonstration de celle
du plan et nous obtenons ainsi:
(13.28)
en posant 
Nous écrivons souvent un système linéaire
sous la forme condensée suivante:
(13.29)
Nous appelons "solution
du système" tout n-uplet
tel
que:
(13.30)
Résoudre un système signifie
trouver l'ensemble des solutions de ce système (on retrouve
beaucoup ce type de systèmes dans des problèmes économiques,
de recherche opérationnelle ou des plans d'expérience). Deux
systèmes à n inconnues
sont dits "systèmes équivalents" si
toute solution de l'un est solution de l'autre, autrement dit,
s'ils admettent
le
même ensemble
de solutions. Nous disons parfois que les équations d'un
système
sont des "équations compatibles" ou "équations
incompatibles",
suivant que ce système admet au moins une solution ou n'en
admet aucune.
Nous pouvons également donner bien
sûr une interprétation géométrique à ces
systèmes. Supposons que
les premiers membres des équations du système soient
non nuls. Alors, nous savons que chacune de ces équations
représente un hyperplan
d'un espace affine (cf. chapitre de Calcul
Vectoriel) de dimension
n.
Par conséquent, l'ensemble des solutions du système,
regardé comme
ensemble de n-uplets
de coordonnées, représente une intersection finie
d'hyperplans.
Exemple:
Le
système d'équations suivant:
(13.31)
noté plus conventionellement dans les petites classes sous la
forme:
(13.32)
Aurait comme solutions les points représentant l'intersection
des trois plans définis par les trois équations.
Mais comme nous pouvons le voir visuellement avec Maple 4.00b à l'aide
des commandes suivantes:
>with(plots):
>implicitplot3d({x-3*z=-3,2*x-5*y-z=-2,x+2*y-5*z=1},x=-3..3,y=-3..3,z=-3..3);
Figure: 13.1 - Représentation d'un système de
3 équations à 3 inconnues avec Maple 4.00b
Ce système n'a aucune solution. Ce qui peut soit se vérifier à
la main, soit avec Maple 4.00b en écrivant:
>solve({x-3*z=-3,2*x-5*y-z=-2,x+2*y-5*z=1},{x,y,z});
Remarque: Pour la méthode de résolution "classique" de
ces systèmes, nous renvoyons le lecteur au chapitre traitant
des Méthodes Numériques dans la section
d'informatique.
Enfin, signalons un cas important dans la pratique: les "systèmes
surdéterminés" ou nous avons plus d'équation
que d'inconnues. Le première situation de ce type daterait
du 18ème siècle dans le
cadre de
l'étudie de l'osciallation lunaire mais on retrouve également
cette situation fréquemment dans les laboratoire de R&D
dans le cadre des techniques des plans d'expérience (cf.
chapitre de Génie Industriel) ou encore dans les
modèles par équations structurelles (cf.
chapitre de Méthodes Numériques).
Considérons le cas particulier mais parlant ci-dessous
de trois
équations à deux inconnues:
(13.33)
système qui sous forme de matrice et de vecteur s'écrira:
(13.34)
ou dite sous "forme augmentée" de la manière suivante:
(13.35)
et avec Maple 4.00b:
>with(plots):
>implicitplot({2*x+3*y=-1,-3*x+y=-2,-x+y=1},x=-3..3,y=-3..3);
Figure: 13.2 - Représentation d'un système de
3 équations à 2 inconnues avec Maple 4.00b
Nous voyons bien sur le graphique ci-dessus que ce système
particulier n'a pas de solution complète mais a une solution
si nous prenons seulement le problème par paire d'équations...
ce qui ne fait forcément
pas avancer les choses... Remarquons cependant que si nous récrivons
le système:
(13.36)
Cela ressemble étrangement à un système de
régression linéaire
multiple (cf. chapitre de Méthodes
Numériques)
dont le vecteur colonne des inconnues peut être vu comme
les coefficients
de
la droite recherchée. Nous avons alors démontré en
détails dans
la chapitre de Méthodes Numériques que:
(57.37)
à condition que la matrice carrée soit
inversible (non singulière). Dans le cas précédent,
nous trouvons la "pseudo-solution"
(c'est la terminologie officielle...) en faisant les calculs rapidement
à la main (ou avec un tableur comme Microsoft Excel):
(13.38)
et en réinjectant ces valeurs dans le système initial,
le lecteur comprendra très vite pourquoi on parle de "pseudo"-solution...
C'était donc la manière
pragmatique de voir les choses... passons maintenant à la
seconde façon un peu plus ... mathématique (mais
qui reste relativement simple):
TRANSFORMATIONS
LINÉAIRES
Définition: Une "transformation
linéaire"
ou "application linéaire" A
est une application d'un espace vectoriel E vers un espace
vectoriel F telle que avec K étant ou
:
(13.39)
plus fréquemment donné sous la forme (car l'application linéaire
est souvent assimilée à une matrice):
(13.40)
ceci constitue, pour rappel,
un endomorphisme (cf. chapitre de Théorie
Des Ensembles).
La première propriété spécifie que
la transformée d'une somme de vecteurs doit être égale
à la somme des transformées, pour qu'elle soit linéaire.
La deuxième propriété précise que la
transformée d'un vecteur auquel nous avons appliqué
un facteur d'échelle (homothétie) doit aussi être
égale à ce facteur appliqué sur la transformée
du vecteur original. Si l'une ou l'autre de ces deux propriétés
n'est pas respectée, la transformation n'est alors pas linéaire.
Nous allons maintenant montrer que toute transformation linéaire
peut être représentée par une matrice:
Soient les
vecteurs de base pour E et ceux
de F. Avec ces bases, nous pouvons représenter
n'importe quels vecteurs avec
les combinaisons linéaires suivantes (cf.
chapitre de Calcul Vectoriel):
(13.41)
Soit la transformation linéaire
A qui applique E sur F ( ).
Donc
que nous pouvons réécrire de la façon suivante:
(13.42)
mais puisque A est
un opérateur linéaire par définition, nous
pouvons aussi écrire:
(13.43)
En considérant maintenant
que les vecteurs
sont des éléments de F, nous pouvons les réécrire
en tant qu'une combinaison linéaire de ses vecteurs de base:
(13.44)
Ainsi, nous obtenons:
(13.45)
En inversant l'ordre des
sommations, nous pouvons écrire:
(13.46)
et en réarrangeant
cette dernière relation, nous produisons le résultat:
(13.47)
Finalement, en se rappelant
que les vecteurs de base
doivent être indépendants, nous pouvons conclure que
leurs coefficients doivent forcément être nuls, donc:
(13.48)
Ce qui correspond au produit de "matrice":
(13.49)
que nous pouvons noter:
(13.50)
Autrement dit, toute transformation linéaire peut être
décrite par une matrice A qu'il s'agit de multiplier
avec le vecteur que nous voulons transformer, pour obtenir le vecteur
résultant de la transformation.
MATRICES
Nous appelons donc "matrice"
à m
lignes et n
colonnes, ou "matrice de type mn"
(le premier terme correspond toujours aux lignes et le second aux
colonnes, pour s'en souvenir il existe un bon moyen mnémotechnique: le président LinColn - abréviation de Ligne et
Colonne...), tout tableau de nombres:
(13.51)
Nous désignons souvent une
matrice de type plus
brièvement par:
(13.52)
ou simplement par .
Le nombre est
appelé "terme ou coefficient
d'indices i,
j".
L'indice i étant
appelé "indice de ligne" et
l'indice j "indice
de colonne".
Nous notons
l'ensemble des matrices dont
les coefficients prennent leurs valeurs dans K (pouvant être
ou
par exemple).
Lorsque ,
nous disons que est
une "matrice carrée" d'ordre n.
Dans ce cas, les termes sont
appelées "termes diagonaux".
Nous appelons également une matrice
à une seule ligne "matrice-ligne" et
une matrice à une
seule colonne "matrice-colonne".
Il est clair qu'une matrice colonne n'est rien d'autre qu'un "vecteur-colonne".
Par la suite, les lignes d'une matrice seront assimilées à des
matrices-lignes et les colonnes à des matrices-colonnes.
L'intérêt de la notion de matrice va apparaître
tout au long des textes qui vont suivre mais la raison d'être immédiate
de cette notion est simplement de permettre à certaines familles
finies de nombres d'être conçues sous la forme d'un tableau rectangulaire.
Nous assignerons aux matrices
des symboles propres, à savoir les lettres latines majuscules: A,B,... et
aux matrices-colonnes des symboles à savoir les lettres minuscules
vectorielles ;
nous les appellerons d'ailleurs indifféremment matrices-colonnes
ou vecteurs-colonnes.
Nous appelons "matrice
nulle",
et nous la notons O,
toute matrice dont chaque terme est nul. Les matrices-colonnes
nulles sont
également désignées par le symbole vectoriel: .
Nous appelons "matrice
unité d'ordre n" ou "matrice identité
d'ordre n",
et nous notons ,
ou simplement I,
la matrice carrée d'ordre n:
(13.53)
Nous verrons plus loin que la matrice
nulle joue le rôle d'élément neutre de l'addition matricielle et
la matrice unité d'élément neutre de la multiplication matricielle.
Attention! Lorsque nous travaillons avec les matrices à coefficients
complexes il faut toujours utiliser le terme "matrice identité"
plutôt que "matrice unitaire" car dans le domaine des nombres
complexes la matrice unitaire est un autre objet mathématique qu'il
convient de ne pas confondre!
Nous allons maintenant revenir brièvement
sur la définition de "rang d'une
famille finie" que nous
avons vue dans le chapitre de Calcul Vectoriel.
Rappel: Nous appelons "rang"
d'une famille de vecteurs la dimension du sous-espace vectoriel
de E qu'elle
engendre.
Ainsi, soit les
colonnes d'une matrice A,
nous appelons "rang de A",
et nous notons ,
le rang de la famille .
Dans un langage un peu plus familier
(...) le rang d'une matrice est donné par le nombre de matrices-colonnes
qui ne peuvent s'exprimer par la combinaison et la multiplication
par un scalaire d'autres matrices-colonnes de la même matrice.
Remarque: S'il y a des difficultés à déterminer
le rang d'une matrice il existe une technique "d'échelonnage" des
matrices que nous allons voir plus tard qui permet d'effectuer
ce travail très
rapidement.
Définition: Nous appelons "matrice
associée
au système":
(13.54)
l'objet mathématique défini par:
(13.55)
c'est-à-dire la matrice A dont
les termes sont les coefficients du système. Nous appelons "matrice
du second membre du système linéaire",
ou simplement "second
membre du système", la matrice-colonne dont
les termes sont les coefficients du second membre de ce système.
Nous appelons également "matrice
augmentée associée au système"
la matrice obtenue de A en
ajoutant comme
(n + 1)-ème
colonne.
Si nous considérons maintenant un système
de matrice associée A et
de second membre .
Désignons toujours par les
colonnes de A.
Le système s'écrit alors de manière équivalente sous la forme d'une
équation vectorielle linéaire:
(13.56)
Maintenant rappelons un théorème que
nous avons vu en calcul vectoriel: pour que le rang d'une famille
de vecteurs soit
égal au rang de la famille augmentée ,
il faut et il suffit que le vecteur soit
combinaison linéaire des vecteurs .
Il s'ensuit que notre système linéaire
sous forme vectorielle admet au moins une solution si
le rang de la famille est égal au rang de la famille augmentée et
cette solution est unique si et seulement si le rang de la famille
est n.
Ainsi,
pour qu'un système linéaire de matrice associée A et
de second membre admette
au moins une solution, il faut et il suffit que le rang de A soit
égal au rang de la matrice augmentée .
Si cette condition est remplie, le système admet une seule
solution si et seulement si le rang de A est
égal au nombre d'inconnues autrement dit, les colonnes de A sont
linéairement indépendantes.
Nous
disons qu'une matrice est "échelonnée" si ses lignes satisfont
aux deux conditions suivantes:
C1. Toute ligne nulle n'est suivie que
de lignes nulles
C2. L'indice de colonne du premier
terme non nul de toute ligne non nulle est supérieur à l'indice
de colonne du premier terme non nul de la ligne qui la précède.
Une matrice échelonnée non nulle est
donc de la forme:
(13.57)
où et
sont
des termes non nuls. Bien entendu, les lignes nulles terminales
peuvent manquer.
Remarque: Nous supposerons relativement évident que les
matrices nulles et les matrices unités sont échelonnées.
Les colonnes d'indice d'une
matrice échelonnée sont clairement linéairement indépendantes. Envisagées
comme des vecteurs-colonnes de ,
elles forment donc une base de cet espace vectoriel. En considérant
les autres colonnes également comme des vecteurs-colonnes de ,
nous en déduisons qu'elles sont nécessairement combinaison linéaire
de celles d'indice et
donc que le rang de la matrice échelonnée est r.
Nous noterons que r est aussi le nombre de lignes
non nulles de la matrice échelonnée
et également le rang de la famille des lignes de cette matrice,
puisque les lignes non nulles sont dès lors manifestement
indépendantes.
Nous pouvons dès lors nous autoriser
un certain nombre d'opérations élémentaires (supplémentaires) sur
les lignes des matrices qui nous seront fort utiles et ce, sans
changer son rang:
P1. Nous pouvons permuter les lignes.
Remarque: La matrice est juste une représentation graphique esthétique
d'un système linéaire. Ainsi, permuter deux lignes ne change aucunement
le système.
P2. Multiplier une ligne par un scalaire
non nul
Remarque: Cela ne changeant en rien l'indépendance linéaire des
vecteurs-lignes.
P3. Additionner à une ligne originelle, un multiple
d'une autre
Remarque: La ligne originelle disparaîtra au profit de
la nouvelle qui est indépendante de toutes les (anciennes)
autres. Le système
reste ainsi linéairement indépendant.
Toute matrice peut être transformée
en matrice échelonnée par une suite finie d'opérations de type P1,
P2, P3. C'est cette technique que nous utilisons dans le chapitre
traitant des algorithmes pour résoudre les systèmes linéaires.
Il est donc évident que
les opérations
élémentaires sur les lignes d'une matrice ne modifient pas le rang
de la famille des lignes de cette matrice. Or, nous avons observé
que le rang de la famille des lignes d'une matrice échelonnée est
égal au rang de la famille des colonnes, c'est-à-dire au rang de
cette matrice. Nous en concluons que le rang de n'importe quelle
matrice de type est
également le rang de la famille des lignes de cette matrice.
Comme corollaire de cette conclusion,
il apparaît que:
(13.58)
Lors de la résolution de systèmes linéaires
de m équations
à n inconnues
il apparaît, comme nous l'avons déjà fait remarquer tout
au début
de ce chapitre, qu'il doit y avoir au moins un nombre égal
d'équations
que d'inconnues ou plus rigoureusement: le nombre d'inconnues
doit
être inférieur ou égal au nombre d'équations
tel que:
(13.59)
OPÉRATIONS
SUR LES MATRICES
Rappelons que nous avons vu lors
de notre étude du calcul vectoriel que les opérations
de multiplication d'un vecteur par un scalaire, d'addition ou soustraction
de vecteurs entre eux et l'opération de produit scalaire
formait dans le sens ensembliste du terme un "espace vectoriel"
(voir le chapitre de théorie des ensembles) possédant
ainsi aussi une "structure algébrique vectorielle". Ceci
sous la condition que les vecteurs aient bien sûr les mêmes
dimensions (ce constat n'étant pas valable si au lieu du
produit scalaire nous prenions le produit vectoriel).
Au même titre que les vecteurs,
nous pouvons multiplier une matrice par un scalaire et additionner
celles-ci entre elles (tant qu'elles ont les mêmes dimensions...)
mais en plus, nous pouvons aussi multiplier deux matrices entre
elles sous certaines conditions que nous définirons ci-après.
Cela fera également de l'ensemble des matrices dans le sens
ensembliste du terme, un espace vectoriel sur le corps K et possédant ainsi aussi une "structure algébrique
vectorielle".
Ainsi, un vecteur pourra aussi être
vu comme une matrice particulière de dimension
et opérer dans l'espace vectoriel des matrices. En gros...,
le calcul vectoriel n'est qu'un cas particulier de l'algèbre
linéaire.
Définitions:
D1. Soient .
Nous appelons "somme de A et B" la
matrice
dont les coefficients sont:
(13.60)
Les matrices pouvant être sommées sont dites "conformes
pour l'addition".
D2. Soient
une matrice et
un scalaire. Nous appelons "produit de A par "
la matrice dont
les coefficients sont:
(13.61)
De ses deux définitions nous
pouvons donc effectivement conclure que l'espace/ensemble des matrices
est bien un espace vectoriel et possède ainsi une structure
algébrique vectorielle.
D3. Soient E, F, G trois
espaces vectoriels de bases respectives
et deux
applications linéaires (voir aussi le chapitre de Théorie
Des Dnsembles pour un rappel).
Notons A la matrice de f relativement aux bases et B la
matrice de g relativement
aux bases .
Alors la matrice C de (voir
la définition d'une fonction composée dans
le chapitre d'Analyse Fonctionnelle) relativement aux bases est égale
au produit de B par A noté BA.
et
(13.62)
et
(13.63)
Donc soient
et ,
nous appelons "produit matriciel" ou "multiplication matricielle"
de B par A
et nous notons BA,
la matrice
dont les coefficients sont:
(13.64)
Il est important de remarquer que contrairement à l'addition, A et B peuvent
avoir des dimensions différentes. Toutefois! le nombre de
lignes de A doit être égal au nombre de
colonnes de B, comme l'indique l'indice n des
deux matrices. Donc dans le produit BA, si B est
une matrice , A doit
être une matrice ,
quel que soit p.
En notant par des lettres latines majuscules
les matrices et par les lettres grecques minuscules les scalaires,
le lecteur vérifiera aisément (nous pouvons rajouter
les démonstrations sur demande) les relations suivantes
(les matrices sont supposées avoir des dimensions adéquates):
(13.65)
Il est surtout important de se rappeler de la dernière
ligne comme quoi la multiplication matricielle n'est pas commutative
(pour les dimensions supérieures à 1 bien évidemment)
et de l'avant dernière ligne comme qoui la mutliplication matricielle
est assocative.
Concernant la démonstration générale que l'assertion de commutativité est
fausse il faut passer par un exemple numérique (car même le cas
général sans le remplacement des termes algébriques par des valeurs
numériques ne vous montrera pas grand chose...).
Remarque: L'ensemble  des
matrices carrées d'ordre n à coefficients
dans  muni
de la somme et la multiplication usuelles des matrices forme un
anneau ( cf. chapitre de Théorie Des Ensembles). C'est
vrai plus généralement si les coefficients des
matrices sont pris dans un anneau quelconque: par exemple l'ensemble  des
matrices à coefficients entiers est un anneau.
Voyons quelques démonstrations et commençant pas l'associativité:
Soient ,
alors pour ,
nous avons bien (nous utilisons l'expression explicite de la multiplication
matricielles des composantes vue plus haut plusieurs fois comme
vous pourrez le constater):
(13.66)
TYPE DE MATRICES
Afin de simplifier les notations
et la longueur des calculs nous allons introduire ici les matrices
types que le lecteur pourra rencontrer tout au long de sa lecture
du site (et pas que dans la partie de mathématiques pures!).
Définitions:
D1. Soit A
une matrice carrée (c'est-à-dire ).
La matrice A est dite "matrice
inversible" ou "matrice
régulière" ou encore "matrice
non singulière"
si et seulement si est
telle que:
(13.67)
où:
(13.68)
est une matrice unité. Si tel n'est pas le cas,
nous disons que A est une "matrice
singulière". Nous démontrerons plus tard
que pour qu'une matrice carrée soit inversible (non singulière)
il faut que son déterminant soit nul.
Cette définition est fondamentale, elle a des conséquences
extrêmement importantes
dans toute l'algèbre linéaire et aussi dans la physique
(résolution
de système linéaires, déterminant, vecteurs
et valeurs propres, etc.) il convient donc de s'en souvenir.
D2. Soit:
(13.69)
une matrice de .
Nous appelons "matrice transposée" de A,
la matrice notée (le
T en exposant est selon les ouvrages en majuscule
ou en minuscule et soit à gauche, soit à droite mais la norme
ISO 80000-2:2009 recommande la majuscule et l'exposant en haut
à droite), de
définie par (nous transposons les lignes en colonnes et
les colonnes en lignes):
(13.70)
Voici quelques propriétés intéressantes (qui
nous seront par ailleurs utiles plus tard lors d'un théorème
fameux et aussi lors de l'étude de la régression linéaire multiple
dans le chapitre de Méthodes Numériques!) de
la transposée:
(13.71)
et aussi une
propriété importante de la matrice transposée
(la vérification se fait aussi par l'exemple):
(13.72)
La matrice transposée est très importante
en physique et en mathématique dans le cadre de la théorie
des groupes et symétries!
Il convient donc aussi de se souvenir de sa définition.
Comme la troisième propriété est
la plus utilisée dans les différents
chapitres du site démontrons-là en considérant et
en se rappelant de la relation explicite de la mutliplication matricielle
vue tout au début:
(13.73) Or dans cette dernière égalité, nous remarquons
que nous parcourons B en ligne et A en colonne pour un i et
un j fixes et cela
correspond alors nous le savons à la multiplication matricelle AB,
dès lors:
(13.74)
Finalement nous avons bien:
(13.75)
Et pour les mêmes raisons démontrons quand même
la quatrième
et dernière propriété. D'abord, il est trivial si A est
inversible que:
(13.76)
et en prenant la transposée des deux côtés
de léégalité nous trouvons (nous utilisons la propriété
démontrée juste avant):
(13.77)
Cette dernière égalité démontre bien
que
est l'inverse de ,
c'est-à-dire:
(13.78)
D3. Soit:
(13.79)
une matrice de .
Nous appelons "matrice adjointe" de A,
la matrice, de
définie par:
(13.80)
qui est donc la complexe conjuguée
de la matrice transposée ou si vous préférez...
la transposée de la matrice conjuguée A (dans
le cas de coefficient réels... on se passera de la
conjuguer!). Pour simplifier les écritures nous la
notons simplement
(écriture fréquente en physique quantique et algèbre
ensembliste).
Remarque: Relation triviale (qui sera souvent
utilisée en physique quantique des champs):
(13.81)
D4. Par définition, une matrice est dite "matrice
hermitique" ou "matrice
hermitienne" ou "matrice
self-adjointe"
ou encore "matrice autoadjointe"...
si elle est égale à son
adjointe (matrice transposée conjuguée) tel que:
(13.82)
D5. Soit A une matrice carrée de ,
la "trace" de A,
notée
est définie par:
(13.83)
Quelques relations utiles y relatives
(dont nous pouvons rajouter les démonstrations détaillées
sur demande):
(13.84)
D6. Une matrice
A est
dite "matrice nilpotente" si en
la multipliant successivement par elle-même elle peut
donner zéro. En clair, s'il existe un entier k tel que:
(13.85)
Si la matrice A multipliée par elle-même
donne A..., alors nous parlons de "matrice
idempotente".
Remarque: Pour se souvenir de ce mot, nous le décomposons
en "nil" pour nulle et "potent" pour potentiel. Ainsi, quelque
chose de nilpotent est donc quelque chose qui est potentiellement
nul.
D7. Une matrice A est dite "matrice
orthogonale"
si ses éléments sont réels et si elle
obéit
à:
(13.86)
ce qui se traduit par (où
est le symbole de Kronecker):
(13.87)
Les vecteurs colonnes de la matrice
sont donc normés à l'unité et orthogonaux
entre eux (ou de même avec ses lignes!). Ainsi une matrice orthogonale
représente
une base orthonormée!
Un exemple courant en mathématique est la matrice de la base canonique
orthonormée (cf. chapitre de Calcul
Vectoriel):
(13.88)
ou encore une matrice courant en physique quantique:
(13.89)
Remarques:
R1. C'est typiquement le cas de la matrice de la
base canonique, ou de toute matrice diagonalisable.
R2. Si au lieu de prendre simplement une matrice avec des coefficients
réels, nous prenons une matrice à coefficients complexes avec sa
transposée complexe (matrice adjointe). Alors, nous disons que A
est une "matrice unitaire"
si elle satisfait à la relation ci-dessus!
Nous reviendrons plus tard,
après avoir présenté les concepts de vecteurs
et valeurs propres, sur un cas particulier et très important
de matrices orthogonales (appelées "matrices de translations").
Signalons encore une autre propriété importante en géométrie,
physique et statistiques des matrices orthogonales.
Soit ,
où A est une matrice orthogonale et .
Alors f (respectivement A) est une isométrie. C'est-à-dire
que:
(13.90)
Démonstration:
(13.91)
et donc nous avons bien:
(13.92)
Donc en d'autres termes: Les matrices orthogonales
sont des applications linéaires qui conservent la norme
(les distances).
C.Q.F.D.
D8. Soit une
matrice carrée. La matrice A est
dite "matrice
symétrique" si et seulement si:
(13.93)
Nous retrouverons cette définition
en calcul tensoriel.
D9. Soit une
matrice carrée. La matrice A est dite "matrice
anti-symétrique" si et seulement si:
(13.94)
ce qui impose que:
(13.95)
Nous retrouverons cette définition
dans le chapitre de Calcul Tensoriel.
D10. Soit une
matrice carrée. La matrice A est dite "matrice
triangulaire supérieure" si et seulement
si:
(13.96)
D11. Soit Soit une
matrice carrée. La matrice A est
dite "matrice
triangulaire inférieure" si et seulement
si (nous retrouverons de nombreuses fois ce type de matrice dans
les méthodes numériques et statistiques):
(13.97)
D12. Soit ,
une matrice carrée. La matrice D est dite "matrice
diagonale" si et seulement si:
(13.98)
La notation habituelle d'une matrice
diagonale D étant:
(13.99)
D13. Soient E un
espace vectoriel, de dimension n et deux bases de E:
(13.100)
Nous appelons "matrice
de passage" de la base
à la base ,
et nous noterons P la matrice de
dont les colonnes sont formées des composantes des vecteurs
de
sur la base (voir
plus loin le traitement détaillé des changements
de base pour plus d'infos).
Nous considérons le vecteur
de E qui s'écrit dans les bases
et
suivant les relations:
(13.101)
Soit:
(13.102)
le vecteur de
formé des composantes de
dans la base
et respectivement le vecteur formé des composantes de
dans la base .
Alors:
(13.103)
relation pour laquelle la démonstration détaillée
sera donnée
plus loin lors de notre étude des
changements de base. Nous avons également:
(13.104)
Remarques:
R1. Si lorsqu'un vecteur
est donné
et que sa base n'est pas spécifiée, c'est qu'il s'agit
dès lors implicitement de la base canonique:
(13.105)
qui laisse invariant la multiplication
par un vecteur quelconque et lorsque la base utilisée est
notée
et n'est pas spécifiée, c'est qu'il s'agit également
de la base canonique.
R2. Si un vecteur est donné par rapport à la base
canonique, ces composantes sont dites "covariantes",
dans le cas contraire, où si elles sont exprimées
après suite dans une autre base non canonique, alors
nous disons que les composantes sont "contravariantes"
(pour plus de précisions sur le sujet voir le chapitre de
Calcul Tensoriel).
D14. Une matrice est dite "matrice
définie-positive" (ce qui
nous sera utile dans le chapitre de Méthodes Numériques
pour certaines techniques d'ingénierie importantes ainsi
que dans la finance quantitative pour l'estimation qualitative
de la matrice de corrélation) si:
(13.106)
et "matrice positive" ou "matrice
semi-positive"
si:
(13.107)
Nous verrons lors de notre étude de la matrice
des variances-covariances dans le chapitre de Statistiques qu'une
matrice
semi-positive a ses valeurs propres qui sont toutes positives
ou
nulles, alors que si elle est définie positive ses valeurs
propres sont toutes positives non nulles.
D15. Une matrice symétrique ayant tous ses
composantes positives et des zéros sur la diagonale est
appelée "matrice de distance" (nous
retrouverons plusieurs fois ce type de matrice dans les techniques
de Data Mining du chapitre
de Méthodes Numériques).
D16. Une matrice est dite "matrice
creuse" si elle
contient un certain nombre significatifs de valeures nulles. En
méthodes numériques, il existe des algorithmes qui utilisent
cette spécificité pour
optimiser le stockage de ce type de matrices (utilisé dans les
cubes OLAP et dans l'ingénierie financière).
DÉTERMINANTS
Nous allons nous intéresser
aux déterminants dans le point de vue du physicien (celui
de mathématicien étant assez rébarbatif...).
En physique (que ce soit en mécanique classique
ou physique quantique des champs), en chimie ou en ingénierie,
nous aurons fréquemment
des systèmes linéaires à résoudre.
Or, nous avons vu maintenant qu'un système linéaire:
(13.108)
peut être écrit sous la
forme:
(13.109)
et nous savons que les seuls systèmes
linéaires résolubles (dans le sens qu'ils ont une
unique solution!!!) sont ceux qui ont autant d'équations
que d'inconnues et leur déterminant qui est non nul! Ainsi, la
matrice A doit être
une matrice carrée .
Si une solution existe, il existe alors
une matrice-colonne (ou "vecteur") X tel que
ce qui implique:
(13.110)
Qu'impose cette relation? Eh bien
c'est relativement simple mais à la fois très très
important: pour qu'un système linéaire ait une solution
unique, il faut que la matrice A soit inversible
(non singulière)! Quel rapport avec le déterminant
alors? C'est simple: les mathématiciens ont cherché comment
s'écrivaient les inverses des matrices de systèmes
linéaires dont ils savaient qu'il y avait une solution
unique et ils sont arrivés après tâtonnements
successifs à
déterminer une sorte de formule qui permette de vérifier
si la matrice est inversible (non singulière) ou non. Une
fois cette formule trouvée,
ils ont formalisé (comme ils savent si bien le faire...),
avec une très bonne rigueur, le concept entourant cette
formule qu'ils ont appelé "déterminant".
Ils y sont tellement bien arrivés d'ailleurs qu'on oublie
parfois qu'ils ont procédé ainsi....
Remarque: Si une matrice d'un système linéaire
n'est pas inversible (non singulière), cela a pour conséquence
qu'il existe soit aucune solution, soit une infinité de
solutions (comme à
l'habitude quoi...)
Nous allons ci-dessous d'abord nous
intéresser à la manière de construire le déterminant
en définissant un type d'application particulière.
Ensuite, après avoir vu un exemple simple et interprétable
du calcul d'un déterminant, nous nous attacherons à
déterminer la formule de celui-ci dans le cas général.
Enfin, une fois ceci fait, nous verrons quelle est la relation
qui lie l'inverse d'une matrice et le déterminant.
Dans ce qui suit tous les espaces vectoriels
considérés sont de dimension finie et sur le corps
des nombres complexes (ceux qui le préfèrent pourront
prendre
comme corps de base, de fait nous pourrions prendre un corps quelconque).
D'abord nous allons faire
un petit peu de mathématique (un peu rébarbative)
avant de passer à du concret.
Soit V un espace vectoriel, nous écrirons
au lieu de .
désignera la base canonique de .
est l'ensemble des matrices carrées
à coefficients dans .
Définitions:
D1. Une "application
multilinéaire"
sur un espace V est par définition une application
qui est linéaire en chacune de ces composantes. C'est-à-dire:
(13.111)
pour tout
et
où les
sont des vecteurs.
Remarque: Une application multilinéaire
non nulle n'est pas une application linéaire de l'espace 
dans  .
Sauf si  .
Effectivement, cela se vérifie de par la définition
de l'application linéaire versus celle de l'application
multilinéaire:
(13.112)
D2. Une "application
multilinéaire
alternée" sur V est par définition une application multilinéaire qui
vérifie la condition suivante:
(13.113)
pour tout .
Ainsi la permutation de deux vecteurs qui se suivent change le signe
de .
Ainsi, si
est une application multilinéaire, alors
est alternée si et seulement si .
nous avons:
(13.114)
Démonstration:
étant définie comme alternée, nous avons donc:
(13.115)
C.Q.F.D.
et voilà ce qui nous intéresse:
D3. Un "déterminant"
est par définition (par imposition) une application multilinéaire
alternée
vérifiant de plus:
(13.116)
Remarque: Les colonnes d'une matrice carrée forment
n vecteurs et nous voyons donc qu'un déterminant D
sur 
induit une application 
de 
(où 
est l'espace des matrices carrées 
à coefficients dans  )
définie par 
où 
est la i-ème colonne de M. Par la suite,
nous ferons l'abus d'écriture qui consiste à confondre D
et  .
Etudions le
cas .
Si D est un déterminant, pour tout
vecteur:
(13.117)
nous
avons:
(13.118)
Comme D est multilinéaire, nous avons:
(13.119)
et comme elle est surtout
multilinéaire alternée, nous avons donc:
(13.120)
En fait, nous venons de
montrer que si un déterminant existe, il est unique et de
la forme indiquée ci-dessus, il faudrait encore vérifier
que l'application ainsi définie satisfait les propriétés
d'un déterminant, mais ce dernier point est immédiat.
Ainsi, si
est une matrice nous avons donc:
(13.121)
Nous retrouvons donc la forme du déterminant
tel que nous en avons fait mention en calcul vectoriel.
Donnons une interprétation
géométrique du déterminant. Soit
deux vecteurs de .

Figure: 13.3 - Interprétation géométrique du déterminant
Le vecteur est
obtenu en projetant
sur
et nous avons donc:
et
(13.122)
L'aire du parallélogramme
ci-dessus est donc:
(13.123)
Si :
(13.124)
alors:
(13.125)
et donc:
(13.126)
Ainsi le déterminant représente
au signe près l'aire du parallélogramme défini
par les vecteurs
lorsque ceux-ci sont linéairement indépendants. Nous
pouvons généraliser ce résultat à une
dimension n quelconque, en particulier, pour ,
le déterminant de trois vecteurs linéairement indépendants
représente le volume du parallélépipède
défini par ces derniers.
Le cas plus général
de l'expression du déterminant est un peu plus délicat à établir.
Il faut pour cela que nous définissions
une application bijective particulière mais simple que nous
avions déjà rencontrée dans le chapitre
Statistique.
Définition: Soit nous
appelons "permutation" de
toute application bijective de
dans :
(13.127)
Soit
l'ensemble des permutations (applications bijectives) possibles
de .
contient bien évidemment... (voir la combinatoire dans le
chapitre de Probabilités) n!
éléments. La donnée d'un élément
de
est définie par les données successives de:
(13.128)
Etant donnée une suite d'éléments
ordonnée (croissants) d'éléments ,
nous appelons "inversion", toute
permutation d'éléments
dans la suite ordonnée (donc la suite ne sera plus ordonnée
du tout...). Nous notons
le nombre d'inversions.
Nous disons que la permutation
est paire (impaire) si
est pair (impair). Nous appelons "signature" de ,
le nombre noté
défini par ,
c'est-à-dire:
(13.129)
Nous avons maintenant les outils en
place nécessaires à définir de manière
générale la formule du déterminant:
Définition: Soit:
(13.130)
Nous appelons "déterminant de A" d'une
matrice carrée de dimension n, et nous notons det(A),
le scalaire K défini par (nous verrons
un exemple plus loin):
(13.131)
appelé parfois "formule
de Leibniz" ou encore "formule
de Laplace". Cette relation a été obtenue
par tâtonnements successifs et par récurrence pour
de plus grandes dimensions.
Exemples:
E1. Soit ,
considérons les
permutations des seconds indices (des entiers 1,2)
pris dans leur ensemble:
(13.132)
Nous calculons les signatures de .
Voici le schéma de cette règle (rappel: nous disons
donc... qu'il y a "inversion", si dans une permutation, un entier
supérieur précède un entier inférieur):

|

|

|
Nombre
d'inversions |
0 |
1 |
Permutation |
Paire |
Impaire |

|
+1 |
-1 |
Tableau: 13.1
- Inversions et permutations d'un déterminant d'ordre 2
Donc nous avons:
(13.133)
Ce qui correspond bien à ce
que nous avions vu initialement. Rappelez-vous au passage que nous
allons bientôt démontrer que déterminant d'une
matrice carrée
doit être
nul pour que la matrice soit inversible (non singulière)!
E2. Soit ,
considérons les
permutations des seconds indices (des entiers 1,2,3)
pris dans leur ensemble:
(13.134)
Nous calculons les signatures de .
Voici le schéma de cette règle (rappel: nous disons
donc... qu'il y a "inversion", si dans une permutation, un entier
supérieur précède un entier inférieur):

|
123 |
132 |
213 |
231 |
312 |
321 |
Nombre
d'inversions |
0 |
1 |
1 |
2 |
2 |
3 |
Permutation |
Paire |
Impaire |
Impaire |
Paire |
Paire |
Impaire |

|
+1 |
-1 |
-1 |
+1 |
+1 |
-1 |
Tableau: 13.2
- Inversions et permutations d'un déterminant d'ordre 3
Donc nous avons:
(13.135)
Le lecteur aura peut-être constaté (indication pas
innocente car mentionnée dans le chapitre de Méthodes Numériques
lors de l'étude de la complexité des algorithmes) que cette dernière
égalité peut s'écrire:
(13.136)
Remarque: Certaines personnes apprennent par coeur une
méthode
nommée "règle de Sarrus"
pour calculer les déterminants d'ordre trois comme le précédent.
Nous lui préférerons sur ce site la formulation
générale
du déterminant applicable à tous les ordres.
Voyons quelques propriétés
et corollaires de cette formulation du déterminant:
P1. Soit
une matrice carrée d'ordre n,
nous ne changeons pas la valeur du déterminant de
en:
1. Effectuant une opération
élémentaire sur les colonnes de
2. Effectuant une opération
élémentaire sur les lignes de
Démonstration: Si
alors
est composée de n vecteurs colonnes:
(13.137)
Effectuer une opération élémentaire
sur les colonnes de
revient à additionner
à une des colonnes
de .
Soit
la matrice obtenue en additionnant
à la j-ème colonne de ,
nous avons:
(13.138)
Par multilinéarité (finalement
la démonstration n'est vraiment pas bien dure):
(13.139)
et comme le déterminant est
alterné:
(13.140)
Pour ce qui est des opérations élémentaires
sur les lignes il suffit de considérer la transposée
(c'est à pleurer tellement c'est simple mais il fallait
y penser).
C.Q.F.D.
P2. Soit
une matrice carrée d'ordre n et soit :
(13.141)
Démonstration: Comme précédemment,
il suffit de remarquer que si
sont les vecteurs colonnes constituant la matrice
alors
sont ceux qui constituent
et:
(13.142)
L'application étant n-linéaire,
nous aboutissons à l'égalité:
(13.143)
C.Q.F.D.
P3. Soit
une matrice carrée d'ordre n.
Nous changeons le signe du déterminant de
si:
1. Nous permutons deux de ses colonnes
2. Nous permutons deux de ses lignes
Démonstration:
est constituée des n vecteurs .
Le déterminant de
est égal au déterminant de ces n.
Permuter deux colonnes de
revient à permuter les deux vecteurs correspondant. Supposons
que les vecteurs permutés soit le i-ème
et le j-ème,
l'application déterminant étant alternée,
nous avons:
(13.144)
Pour ce qui est des lignes, il suffit de considérer la
transposée de .
C.Q.F.D.
P4. Soit
alors:
(13.145)
La démonstration
peut se faire de deux manières, la première est assez
indigeste et abstraite nous la laisserons aux mathématiciens
(...) même si elle a l'avantage d'être générale,
la seconde plus simple, consiste à vérifier cette
assertion pour différentes matrices carrées.
Démonstration:

(13.146)
Les calculs donnent donc des résultats qui sont bien identiques.
Nous pouvons vérifier ainsi pour des matrices carrées
de dimensions supérieures.
C.Q.F.D.
P5. Une matrice carrée
est inversible (non singulière) si et seulement si .
Démonstration:
Si A est inversible (non singulière),
nous avons:
(13.147)
C.Q.F.D.
Il s'agit de la propriété
la plus importante des matrices dans le cadre de la physique théorique
car si A est un système linéaire,
le calcul de son déterminant
permet de savoir si celui-ci a des solutions uniques. Dans le cas
contraire, comme nous en avons déjà fait mention,
soit le système n'a aucune solution, soit une infinité
!
Il faut considérer
aussi un cas particulier important. Soit le système suivant:
(13.148)
où
et
à déterminer. Il est clair..., que A soit
inversible (non singulière) ou non, la solution triviale est .
Cependant..., imaginons un cas de physique théorique où
nous avons
mais pour lequel nous savons que
et pour lequel nous imposons .
Dans ce cas, il nous faut éliminer la solution triviale
.
De plus, calculer l'inverse (s'il existe) de la matrice A ne
nous ramènera à rien de concret mis à part
à
ce qui bien évidemment ne nous satisfait pas. La seule solution
est alors de se débrouiller pour que les coefficients
de la matrice A soient tels que son déterminant
soit nul et donc la matrice non inversible! L'intérêt
? Eh, bien d'avoir une infinité
de solutions possibles (de B donc !) qui
satisfont .
Nous aurons besoin de cette méthodologie en mécanique
quantique ondulatoire, lorsque nous déterminerons l'existence
des antiparticules par l'intermédiaire de l'équation
de Dirac linéarisée. Il faudra donc s'en rappeler.
P6. Deux matrices "conjuguées"
(attention, pas dans le sens complexe du terme) ont le même
déterminant.
Démonstration:
Soit ,
et une
matrice de passage d'une base à une autre (voir plus
loin le traitement des changements de bases), nous avons alors:
(13.149)
C.Q.F.D.
P7. Pour toute matrice
:
(13.150)
Démonstration:
(13.151)
Or (trivial... simple
multiplication de tous les coefficients):
(13.152)
Puisque (trivial)
et que
(cf. chapitre sur les Nombres),
nous pouvons alors écrire:
(13.153)
C.Q.F.D.
P8. Pour toute matrice :
(13.154)
Démonstration:
Ben... c'est la même chose que pour
la propriété précédente mais sans les
valeurs conjuguées... De fait, nous montrons de la même
manière, la même propriété pour .
C.Q.F.D.
P9. Soit une matrice
,
nous noterons
la matrice obtenue à partir de A en
effaçant la i-ème ligne et la j-ème
colonne (notation très importante à ne pas oublier
pour la suite!!!).
appartient donc à .
Alors pour tout :
(13.155)
où le terme:
(13.156)
est
appelé le "cofacteur" .
Démonstration:
Définissons pour
cela l'application:
(13.157)
Il est facile de voir
que
est multilinéaire (il suffit de considérer
comme une simple constante et ensuite par extension de la définition
du déterminant... trop facile...).
Montrons cependant
qu'elle est alternée (dans ce cas, c'est un déterminant
qui a toutes les propriétés d'un déterminant):
Soit
deux vecteurs colonne de A qui se suivent. Supposons que ,
il faut montrer que dans ce cas
(qui découle de la définition d'une application alternée).
Nous avons premièrement
(c'est obligatoire de par la définition) si nous n'effaçons
aucune des colonnes j étant k ou
k + 1:
si
(13.158)
et nous avons bien évidemment si nous enlevons respectivement
la colonne k et la colonne k+1:
(13.159)
Donc:
(13.160)
C'est donc OK. Elle est alternée
et multilinéaire, il s'agit donc bien d'un déterminant.
Nous venons donc de montrer que
est un déterminant et par unicité nous avons
pour tout .
C.Q.F.D.
Voyons un exemple
de cette méthode en calculant le déterminant de:
(13.161)
Développons
selon la deuxième ligne .
Nous obtenons:
(13.162)
Développons
selon la première colonne en guise de vérification
(on ne sait jamais...):
(13.163)
Le calcul déterminé ci-dessus est donc exponentiel
car si par exemple nous devons calculer le déterminant d'une
matrice d'ordre 10 alors le déterminant sera développé en
une somme de 10 termes, dont chacun contient le déterminant
d'une matrice d'ordre 9, qui est un cofacteur de la matrice de
départ.
Si nous développons n'importe
lequel de ces déterminants, nous obtenons une somme de 9
déterminants
dont chacun contient le déterminant d'une matrice d'ordre
8. A ce stade, il y a donc 90 déterminants de matrices d'odre
8 à calculer.
Le processus pourrait se poursuivre jusqu'à ce qu'il ne
reste que des déterminants d'ordre 2. Et alors là nous
devinons que le nombre de matrices d'ordre 2 est très conséquent!
Définition: Soit m, n deux
entiers positifs quelconques et A une
matrice à coefficients
dans .
Pour tout entier un "mineur d'ordre k" de A est
un déterminant du type:
avec
(13.164)
Dans le cas particulier d'une matrice carrée d'ordre la
définition est plus simple: Le mineur de
l'élément est
le déterminant de la matrice d'ordre n - 1 obtenue
en supprimant la ligne i et la colonne j. Ainsi,
pour calculer le mineur d'un élément, nous supprimons
la ligne et la colonne auxquelles l'élément appartient,
puis nous calculons le déterminant de la matrice carrée
restante.
DÉRIVÉE
D'UN DÉTERMINANT
Voyons maintenant un résultat qui nous sera fort utile en relativité
générale.
Soit une
matrice carrée avec des
fonctions dérivables. Posons  .
Nous voulons calculer .
Soit le
i-ème vecteur colonne de la matrice G.
Utilisons la formule:
(13.165)
Sachant que la dérivée
de
est (dérivée de n produits):
(13.166)
nous avons donc:
(13.167)
Si nous regardons la première
somme ci-dessus, nous remarquons que:
(13.168)
où
est la dérivée du vecteur .
De même pour les sommes suivantes. Ainsi,
(13.169)
Développons encore. Considérons
le terme
ci-dessus. Si nous le développons par rapport à la
première colonne, nous obtenons:
(13.170)
De même, en développant
le j-ème terme de la somme ci-dessus par rapport à
la j-ème colonne nous avons:
(13.171)
Si nous posons:
(13.172)
nous obtenons:
(13.173)
ce qui en notation tensorielle
(cf. chapitre de Calcul Tensoriel)
s'écrit:
(13.174)
Nous avons aussi:
(13.175)
où
est le coefficient se trouvant à la j-ème
ligne, i-ème
colonne de la matrice .
Si nous notons
le coefficient i, j de la matrice
alors:
et
(13.176)
L'expression de la dérivée
devient finalement:
(13.177)
qui s'écrit en notation tensorielle:
(13.178)
Ce résultat, finalement assez
simple, nous sera utile dans le chapitre de Calcul Tensoriel,
pour construire les outils nécessaires à l'étude
de la relativité
générale et à la détermination de l'équation
d'Einstein des champs. Il convient donc de s'en rappeler.
INVERSE D'UNE MATRICE
Terminons notre étude des déterminants avec la cerise
sur le gâteau
en donnant une relation très
importante dans de nombreux domaines de l'ingénierie, de
la physique et de la mathématique qui relie les coefficients
de l'inverse d'une matrice avec
ses mineurs d'ordre (nous
allons utiliser cette relation plus loin).
Soit une
matrice inversible (non singulière). Notons et .
Alors:
(13.179)
Démonstration:
Notons le k-ème
vecteur colonne de la matrice A. Sachant que ,
nous avons (trivial):
(13.180)
Calculons .
D'une part en développant par rapport à la k-ème
colonne nous trouvons (puisque qu'un seul des coefficients de est
non nul et que l'unique non nul est égal à l'unité):
(13.181)
D'autre part (propriétés du déterminant):
(13.182)
Ainsi:
(13.183)
c'est-à-dire:
(13.184)
C.Q.F.D.
Pour une application pratique simple, détaillée
et importante dans l'industrie (car sinon dans l'ensemble du site
nous inversons que très
rarement de petites
matrices), le lecteur pourra se reporter au chapitre de Méthodes
Numériques
dans la partie qui concerne la régression linéaire
multiple.
Signalons également les propriétés importantes suivantes
(la première est logique, la deuxième a déjà été présentée plus
haut mais pas démontrée et la troisième est importante pour la
démonstration de du facteur d'inflation de la variance que nous
démontrerons dans le chapitre de Méthodes Numériques):
(13.185)
Démontrons la dernière propriété en
utilisant la propriété de l'associativité:
(13.186)
ce qui prouve que est
bien l'inverse de AB où (aussi
notée )
est une matrice diagonale unitaire (et donc aussi carrée)
de dimension n.
CHANGEMENTS DE BASES
Supposons que nous passions d'une
base
d'un espace
à une autre base de
ce même espace partageant la même origine. Soit en deux dimensions:

Figure: 13.4 - Concept sous-jacent en deux dimensions
Décomposons les
dans la base :
(13.187)
Définition: Nous appelons "matrice
de transition" ou "matrice de
passage", la matrice (l'application
linéaire) qui permet de passer de
donnée par:
(13.188)
Maintenant, considérons le vecteur donné par:
(13.189)
Alors
nous nous proposons de démontrer que les composantes de dans
la base sont
données par:
(13.190)
soit explicitement:
(13.191)
Remarque: La
matrice P est inversible (non singulière),
car ses colonnes sont linéairement indépendantes
(ce sont les vecteurs 
décomposés dans la base 
et les 
sont linéairement indépendants car ils forment une
base).
Démonstration:
Prenons pour simplifier
le cas (la
démonstration étant assez facilement généralisable)
avec
et .
Nous avons alors:
(13.192)
Nous avons donc
et nous cherchons à exprimer
dans la base
tel que .
Nous allons donc chercher l'application linéaire qui relie
ces deux relations telles que:
(13.193)
Soit écrit de manière explicite:
(13.194)
d'où:
(13.195)
c'est-à-dire:
(13.196)
Donc P (si elle existe!) est bien la matrice
qui permet d'exprimer les composantes d'un vecteur d'une base en
celles
d'une
autre base
telle qu'en écriture vectorielle nous ayons:
(13.197)
C.Q.F.D.
Considérons maintenant une application
linéaire. Soit A sa matrice dans la
base ,
et B sa matrice dans la base (de
même dimension). Alors nous pourrions avoir:
(13.198)
ce qui revient aussi à écrire:
(13.199)
ou encore:
(13.200)
S'il existe une matrice P satisfaisant ces
relations, nous disons que A et B sont des "matrices
semblables".
Démonstration:
Reprenons le fait que plus haut nous ayons démontré qu'il
est
éventuellement possible de construire une matrice de passage P
à partir du fait que:
(13.201)
et posons:
(13.202)
nous
avons donc une fonction qui nous amène à écrire:
(13.203)
D'autre part, nous avons (ce que nous
avons démontré tout à l'heure):
(13.204)
Dès lors:
(13.205)
d'où:
(13.206)
et comme nous l'avons vu dans notre étude du déterminant,
les déterminants de A, B sont égaux
et donc invariants. Nous reviendrons plus tard sur une formulation
similaire lors de notre étude du théorème spectral.
C.Q.F.D.
Au niveau du vocabulaire, nous disons lorsque nous
somme en présence d'une relation matricielle ayant une telle structure
de dire que: A est "conjuguée" à la matrice B.
VALEURS ET VECTEURS
PROPRES
Définition: Une
"valeur propre" est par
définition (nous retrouverons
cette définition
dans l'introduction à l'algèbre quantique dans le
cadre du chapitre de Physique Quantique Ondulatoire) une valeur
appartenant à un corps K tel que soit
une matrice carrée
nous avons:
(13.207)
et réciproquement
qu'un vecteur
est un "vecteur propre" si et seulement si:
(13.208)
L'avantage majeur de ces concepts sera la possibilité d'étudier
une application linéaire, ou tout autre objet lié à une
représentation matricielle, dans une représentation
simple grâce à un changement de base sur laquelle
la restriction de A est une simple homothétie (typiquement
la résolution de systèmes d'équations différentielles simples).
En d'autres termes: lorsqu'une transformation (application
d'une matrice) agit sur un vecteur, elle modifie la direction de
ce vecteur excepté pour certaines matrices particulières
qui ont des valeurs propres!
Ainsi, l'ensemble des valeurs propres
d'une matrice est
appelé "spectre de A"
et satisfait au système homogène:
(13.209)
ou (peu importe cela revient au même!):
(13.210)
où
(aussi notée )
est pour rappel une matrice diagonale unitaire (et donc aussi carrée)
de dimension n
. Ce système nous le savons (démontré plus
haut) admet des solutions non triviales, donc ou ,
si et seulement si (nous verrons de nombreux exemples
en
physique):
(13.211)
soit que la matrice est
non inversible (singulière).
Le déterminant est
donc un polynôme en de
degré n et peut donc avoir aux maximum n solutions/valeurs
propres comme nous l'avons démontré lors de notre étude
des polynômes
(cf. chapitre de Calcul Algébrique)
et est appelé "polynôme
caractéristique" de A et l'équation
"équation caractéristique de A" ou "équations aux valeurs propres".
Pour la petite parenthèse, il est sympathique de remarquer
que nous avons toujours dans le développement du la
trace de la matrice tr(A) et le déterminant
det(A) qui apparaissent. Voyons deux exemples de cela:
(13.212)
Ainsi, pour une matrice carré de dimension 2, les valeurs propres
sont (simple résolution de l'équation du deuxième degré):
(13.213)
Pour une matrice carrée de dimension 3 nous avons:
(13.214)
et là... la solution est beaucoup moins simple dans le cas général...
Remarquons aussi au passage (nous généraliserons le résultat qui
en découle lors de notre étude du théorème spectral) que puisque
multiplier le système homogène:
(13.215)
par -1 des deux côtés de l'égalité ne change rien
au problème, alors nous avons:
(13.216)
avec donc toujours le même signe devant le terme
comportant la trace.
Puisque nous savons que les valeurs propres
sont solutions
de chacun des polynômes ci-dessus, nous avons alors:
(13.217)
Soit par correspondace terme à terme il vient le résultat
important en Statistique (particulièrement dans les techniques
numériques)
et que nous démontrerons
donc de façon
plus générale
plus tard avec le théorème spectral:
(13.218)
Si nous regardons comme
une application linéaire f, puisque ce sont les solutions
non triviales qui nous intéressent, nous pouvons alors
dire que les valeurs propres sont les éléments tels
que:
(13.219)
et
que le Kernel constitue l'espace propre de A de
la valeur propre dont
les éléments non nuls sont les vecteurs propres!
En mathématiques, le concept de vecteur propre est une
notion algébrique qui s'applique donc à une application
linéaire d'un espace dans lui-même. Il correspond à l'étude
des axes privilégiés, selon lesquels l'application
se comporte comme une dilatation, multipliant les vecteurs par
une même constante. Ce rapport de dilatation/homothétie
est donc la valeur
propre, les vecteurs auxquels il s'applique vecteurs propres, réunis
en un "espace propre".
Une autre manière de voir la chose:
- Un vecteur est dit "vecteur propre" par une application linéaire
s'il est non nul et si l'application ne fait que modifier sa taille
sans changer sa direction.
- Une "valeur propre" associée à un "vecteur
propre" est le facteur de modification de taille, c'est à dire
le nombre par lequel il faut multiplier le vecteur pour obtenir
son
image. Ce facteur peut être négatif (renversement
du sens du vecteur) ou nul (vecteur transformé en un vecteur
de longueur nulle).
- Un "espace propre" associé à une "valeur
propre" est l'ensemble des vecteurs propres qui ont une même
valeur propre et le vecteur nul. Ils subissent tous la multiplication
par le même facteur.
Remarque: En mécanique, nous étudions les
fréquences
propres et les modes propres des systèmes oscillants
(cf.
chapitre de Mécanique Ondulatoire). En analyse
fonctionnelle, une fonction propre est un vecteur propre pour
un opérateur
linéaire, c'est-à-dire une application linéaire
agissant sur un espace de fonctions cf.
chapitre d'Analyse Fonctionnelle). En géométrie
ou en optique, nous parlons de directions propres pour rendre
compte de la
courbure des surfaces (cf. chapitre de
Géométrie
Non- Euclidiennes). En théorie des graphes, une
valeur propre est simplement une valeur propre de la matrice
d'adjacence
du graphe (cf. chapitre de Théorie
Des Graphes).
Avant de clore cette petite introduction sur les valeurs et vecteurs
propres (nous y reviendrons plus loin), indiquons que puisqu'un
vecteur propre doit satisfaire le système homogène:
(13.220)
Rien ne nous empêche alors de multiplier le
vecteur propre par une constante K qui le normalise à l'unité (technique
souvent utilisée en statistique et méthodes numériques
pour améliorer la précision flottante des algorithmes)
puisque:
(13.221)
Ainsi dans la pratique est d'usage si le vecteur
propre s'explicite par exemple par:
(13.222)
De le normaliser à l'unité en écrivant:
(13.223)
MATRICES
DE ROTATION
Maintenant que nous avons
vu ce qu'était une valeur et un vecteur propre, revenons
sur un type particulier de matrices orthogonales qui nous seront
particulièrement utiles dans notre étude des quaternions
(cf. chapitre sur les Nombres), des
groupes et symétries (cf. chapitre
d'Algèbre Ensembliste) et de
la physique des particules (cf. chapitre
de Physique des Particules Elémentaires).
Nous notons, selon ce qui a été vu dans le chapitre
d'Algèbre
Ensembliste, O(n)
l'ensemble des matrices
à coefficients dans
orthogonales, c'est-à-dire vérifiant:
(13.224)
que nous
notons aussi pour rappel:
(13.225)
Les colonnes et les lignes
d'une matrice orthogonale forment des bases orthonormées
de
pour le produit scalaire habituel.
Le déterminant d'une
matrice orthogonale vaut ,
en effet
entraîne:
(13.226)
Nous notons SO(n)
l'ensemble des matrices orthogonales de déterminant 1. Montrons
en trois points que si
alors A est la matrice d'une rotation par rapport à
un axe passant par l'origine.
1. Toute valeur propre d'une
matrice de rotation A (réelle ou complexe) est de
module 1. En d'autres termes, la rotation conserve la norme:
En effet, si
est une valeur propre de vecteur propre ,
nous avons:
(13.227)
ou en notant le produit scalaire
avec la notation habituelle du site:
(13.228)
donc .
2. Il existe une droite dans
l'espace qui sert d'axe de rotation et tout vecteur sur cette droite
ne subit aucune rotation:
Notons
un vecteur propre normé de valeur propre 1 (c.à.d
un vecteur tel que ).
Comme le lecteur l'aura peut-être compris (lire jusqu'au bout!),
la droite engendrée par
que l'on notera
constitue notre axe de rotation.
En effet, tout vecteur sur
est envoyé sur lui-même par A. Dans ce cas l'espace
orthogonal noté
qui est de dimension deux est le plan perpendiculaire à l'axe
de rotation.
3. Tout vecteur perpendiculaire
à l'axe de rotation reste, après une rotation,
perpendiculaire à cet axe. En d'autres termes,
est invariant par A
En effet, si
alors,
et pour tout :
(13.229)
c'est-à-dire .
Donc
est invariant par A.
En fin de compte, la restriction de A à l'espace
est une rotation.
Exemple:
Soit (voir
le chapitre sur les nombres où la rotation par les complexes
est démontré) une valeur propre (dont le module
est de 1 comme nous l'avons vu lors de notre étude des
nombres complexes) de A restreinte à .
Notons
un vecteur propre avec
de sorte que:
(13.230)
avec (comme nous l'avons
déjà montré dans notre étude des nombres
complexes):
(13.231)
où nous savons de par notre étude des nombres complexes,
que les vecteurs
forment une base orthogonale (pas nécessairement normée!)
de .
Remarque: Il est par ailleurs aisé de vérifier que
cette matrice est orthogonale (si ce n'est pas le cas contactez-nous
et ce sera détaillé!).
THÉORÈME SPECTRAL
Voyons maintenant un théorème très important
relativement aux valeurs et vecteurs propres qui se nomme le "théorème
spectral" qui
nous sera très utile à nouveau en physique et en statistiques
ainsi que dans les chapitrse de Méthodes Numériques
et Génie Industriel.
Pour résumer, les mathématiciens disent dans leur
langage que le théorème spectral permet d'affirmer
la diagonalisabilité d'endomorphismes
(de matrices) et justifie également la décomposition
en valeurs propres (appelée aussi "décomposition
en valeurs singulières" abrégé "S.V.D.").
Remarque: La décomposition
en valeurs singulières
(S.V.D.) est cependant très générale, dans
le sens où elle
s'applique à toute matrice rectangulaire . La
décomposition en valeurs propres, en revanche, ne fonctionne
que pour certaines matrices carrées.
Pour simplifier la démonstration, nous ne traitons ici que les
matrices réelles en évitant un maximum le langage des mathématiciens.
Nous noterons dans un premier temps l'ensemble
des matrices à coefficients
réels.
Nous confondrons la matrice avec
l'application linéaire induite sur l'espace vectoriel par:
(13.232)
avec .
Rappel: Nous avons vu plus haut lors de l'étude des changements
de base que si est
une base de et alors
la matrice de l'application linéaire M dans la base est:
(13.233)
où S est
la matrice formée par les vecteurs colonnes .
D'abord, nous vérifions simplement que si A est
une matrice symétrique alors (c'est trivial mais cela peut
se vérifier avec un exemple à dimension 2 très rapidement):
(13.234)
Nous nous proposons maintenant d'étudier les propriétés suivantes
d'une matrice M symétrique:
P1. Toutes les valeurs propres de M sont réelles.
Démonstration:
Soit:
(13.235)
un vecteur propre a priori complexe de valeur propre .
Notons:
(13.236)
le vecteur conjugué de .
Nous avons alors:
(13.237)
D'autre part vu que nous
avons:
(13.238)
Etant donné que nous
avons et
par suite, .
C.Q.F.D.
P2. Deux espaces propres de M relatifs à des
valeurs propres différentes sont orthogonaux (en d'autres termes,
les vecteurs propres sont indépendants).
Démonstration:
Soit deux
valeurs propres distinctes de vecteurs propres correspondants .
Nous avons (ne pas oublier que M est symétrique!):
(13.239)
ainsi:
(13.240)
ce qui entraîne:
(13.241)
C.Q.F.D.
Avant d'aller plus loin, il nous faut aussi démontrer
que si est
une matrice symétrique et V un sous-espace vectoriel
de invariant
par M (c'est-à-dire qui vérifie pour
tout )
alors nous avons les propriétés suivantes:
P3. L'orthogonal de V noté (obtenu
par la méthode de Gram-Schmidt vue dans le chapitre de Calcul
Vectoriel) est aussi invariant par M.
Démonstration:
Soit et alors:
(13.242)
ce qui montre que .
C.Q.F.D.
P4. Si est
une base orthonormale de alors
la matrice de la restriction de M à dans
la base est
aussi symétrique.
Démonstration:
Notons la
matrice de la restriction de M à dans
la base .
Nous avons par définition pour tout (puisque
le vecteur résultant d'une application linéaire comme M peut
s'exprimer dans sa base):
(13.243)
Or:
(13.244)
car:
(13.245)
si dans
la base orthonormale.
D'un autre coté:
(13.246)
Donc:
(13.247)
ce
qui montre que:
(13.248)
C.Q.F.D.
Nous allons à présent pouvoir montrer que toute
matrice symétrique est
diagonalisable. C'est-à-dire qu'il existe une matrice inversible S telle
que le résultat du calcul:
(13.249)
donne une matrice
diagonale. Ce résultat est dans le présent texte
une forme particulière du cas plus général
(donc applicable aussi à des matrices
rectangulaires) appelé "théorème
de d'Eckart-Young".
Remarque: En
fait nous verrons, pour être plus précis, qu'il
existe S orthogonale telle que  soit
diagonale.
Rappel: S orthogonale signifie que (où I est
la matrice identité) ce qui équivaut à dire que les colonnes de S forment
une base orthonormale de .
Donc allons-y et pour cela considérons une
matrice symétrique. Alors nous souhaitons démontrer
qu'il existe une matrice S orthogonale
telle que soit
diagonale (en d'autres termes, il existe une base où M est
diagonalisable).
Démonstration:
Nous prouvons l'affirmation par récurrence sur n.
Si il
n'y a rien à montrer. Supposons que l'affirmation soit vérifiée
pour et
prouvons là pour .
Soit donc une
matrice symétrique et une
valeur propre de M.
Nous vérifions facilement que l'espace propre:
(13.250)
est
invariant par M (il suffit de prendre n'importe quelle
application numérique) et que par la démonstration
vue plus haut que est
aussi invariant par M. De plus, nous savons (cf.
chapitre de Calcul Vectoriel), que se
décompose en somme directe:
(13.251)
Si:
(13.252)
alors:
(13.253)
et
il suffit de prendre une base orthonormale de W pour diagonaliser M.
En effet si est
une telle base, la matrice S formée
par les vecteurs colonnes ( )
est orthogonale et vérifie:
(13.254)
et est
bien diagonale.
Supposons donc et
soit avec une
base orthonormale de .
Notons A la matrice de la restriction de M à dans
la base . A est
aussi symétrique (selon la démonstration d'une des
propriétés précédentes).
Par hypothèse de récurrence il existe une matrice orthogonale
telle que soit
diagonale.
Notons par une
base orthonormale de W et G la matrice
formée par les vecteurs colonnes .
Alors, nous pouvons écrire que:
(13.255)
et G est aussi orthogonale par construction.
Considérons la matrice par blocs (matrice composée de matrices)
suivante:
(13.256)
et posons:
(13.257)
Il
est évident que S est orthogonale car G et L le
sont. Effectivement, si:
et
(13.258)
alors
(ne pas oublier que la multiplication matricielle est associative!!!):
(13.259)
De plus S vérifie:
(13.260)
Et alors:
(13.261)
est bien diagonale.
C.Q.F.D.
Pour finir voici donc enfin le fameux "théorème
spectral" (cas réel):
Si une
matrice symétrique alors il existe une base orthonormale
formée
de vecteurs propres de M.
Démonstration:
Nous avons donc vu dans les paragraphes précédents
qu'il existe S orthogonale
telle que soit
diagonale si M est symétrique. Notons les
colonnes de S. est
une base orthonormale de car S est
orthogonale. Notant le i-ème
vecteur de la base canonique de et le i-ème
coefficient diagonal de nous
avons sans supposer directement que est
une valeur propre pour l'instant:
(13.262)
en multipliant par S des deux côtés de l'égalité nous
avons:
(13.263)
et donc:

ce qui montre que sont
des vecteurs propres et les
valeurs propres.
C.Q.F.D.
Pour clore sur le théorème spectral,
redémontrons
donc un résultat vu plus haut mais qui avait été obtenu
de façon
peu rigoureuse (la somme des valeurs propres est égal à la trace
d'une matrice):
(13.264)
Le théorème spectral nous dit donc
que pour tout matrice M symétrique, il existe une matrice
orthogonale S telle que:
(13.265)
est diagonale. Rien ne nous empêche alors de choisir
la matrice diagonale résultante comme étant une matrice composée
des valeurs propres dans la diagonale. Ce qui nous notons habituellement:
(13.266)
et comme S est une matrice orthogonale
réelle et que par définition nous avons qu'une matrice
est orthogonale si et seulement si ,
alors nous trouvons la relation ci-dessous aussi fréquemment sous
la forme suivante:
(13.267)
Alors évidemment dès lors il faudra
trouver S si
M est imposé ou inversement. Bref, revenons à nos
moutons et prenons la trace de cette relation:
(13.268)
Alors en utilisant la propriété de la trace tr, de
l'associativité de la multiplication matricielle, et de l'orthogonalité
de S nous
avons:
(13.269)
Ce qui redémontre le résultat vu plus haut avec
une condition qui pouvait ne pas être triviale: la matrice
doit être symétrique (ou symétrisable)!
Nous avons aussi par extension:
(13.270)
et donc en utilisant la propriété démontrée relativement
au déterminant (lors de nos démonstrations des propriétés du déterminant)
et aux matrices conjugées il vient:
(13.271)
et donc si M est symétrique nous avons la
propriété:
(13.272)

- Algèbre linéaire, R.
Cairoli, Éditions Presses polytechniques et universitaires
romandes, ISBN10: 2880741874 (325 pages) - Imprimé en
1993
|