f
loadingPage en cours de chargement
    ACCUEIL | TÉLÉCHARGER | QCM | DON | ANNONCES | CHAT | FORUM | LIVRE D'OR | PARTENAIRES | CONTACT | BLOG
 
  Rechercher
  separation
  Introduction
  Arithmétique
  Algèbre
  Analyse
  Géométrie
  Mécanique
  Électrodynamique
  Atomistique
  Cosmologie
  Chimie
  Informatique Théorique
  Maths. Sociales
  Ingénierie
  separation
  Biographies
  Références
  Liens
  separation
  Humour
  Serveur d'exercices
  separation
  Parrains
9 connectés
News News :: Erreur Erreur :: Statistiques Visiteurs :: ClearType ClearType :: Imprimer Imprimer :: Bookmark and Share

Algèbre

CALCUL ALGÉBRIQUE | ALGÈBRE ENSEMBLISTE | CALCUL DIFFÉRENTIEL ET INTÉGRAL
SUITES ET SÉRIES | CALCUL VECTORIEL | ALGÈBRE LINÉAIRE | CALCUL TENSORIEL
CALCUL SPINORIEL

13. ALGÈBRE LINÉAIRE

Dernière mise à jour de ce chapitre: 2017-08-06 17:22:42 | {oUUID 1.691}
Version: 3.3 Révision 10 | Avancement: ~95%
viewsvues depuis le 2012-01-01: 12'792

Table des matières LISTE DES SUJETS TRAITÉS SUR CETTE PAGE

Il y a plusieurs manières d'aborder l'algèbre linéaire. D'abord une manière pragmatique (nous commencerons par celle-ci car notre expérience nous a montré que c'est celle qui semblait le mieux marcher chez les étudiants) et une manière plus formelle que nous présenterons aussi après la première. Il convient d'abord de prévenir le lecteur que l'algèbre linéaire est un outil puissant de calcul que l'on retrouve énormément dans la pratique économique et industrielle dans les domaines suivants (voir les chapitres respectifs du site pour des exemples concrets): Statistique, Électrotechnique, Finance des marchés, Méthodes numériques d'optimisation, Optique, Physique Quantique, Électrodynamique, Relativité, Mécanique des fluides, etc. Il est alors nécessaire d'y attacher une attention particulière.

D'abord répondons à deux questions d'un lecteur: Pourquoi l'Algèbre Linéaire s'appelle ainsi? Et existe-t-il une algèbre non linéaire?

Voici mes réponses:

  1. Cela s'appelle "Algèbre Linéaire" car il fallait d'abord bien choisir un nom... et aussi parce que c'est une généralisation de l'algèbre scalaire mais avec des vecteurs où les applications ne sont plus des fonctions de scalaires mais des matrices dont l'effet est d'agir en tant que somme linéaire de vecteurs d'une base (du moins cela peut être interprété tel quel).
  2. Officiellement et à ma connaissance il n'existe pas d'algèbre non linéaire dans la même philosphie que ce que nous allons voir dans ce chapitre. Il existe des mathématiciens qui auraient créés des "algèbres non linéaires" mais celles-ci n'ont rien à voir avec les matrices.

Maintenant, rappelons que nous avions étudié dans le chapitre de Calcul Algébrique comment déterminer l'intersection (si elle existe) de l'équation de deux droites (nous pouvons étendre le problème bien évidemment à plus de deux droites) dans equationdonnées par:

equation et equation   (13.1)

equation.

En cherchant donc la valeur de equation pour laquelle:

equation   (13.2)

Ainsi nous pouvions écrire:

equation   (13.3)

Cependant, il existe une autre manière de présenter le problème comme nous l'avons vu en méthodes numériques (section d'informatique théorique). Effectivement, nous pouvons écrire le problème sous la forme d'un bloc d'équations:

equation   (13.4)

et comme nous cherchons equation, nous avons:

equation   (13.5)

Cette écriture s'appelle comme nous l'avons présenté dans le chapitre de Méthodes Numériques (section d'Informatique Théorique) un "système linéaire" que nous pouvons résoudre en soustrayant ou en additionnant les lignes entre elles (l'ensemble des solutions étant toujours égal), ce qui nous donne:

equation   (13.6)

et nous voyons que nous retombons sur la solution:

equation   (13.7)

Il y donc deux manières de présenter un problème d'intersection de droites:

1. Sous forme d'équation

2. Sous forme de système

Nous allons nous intéresser dans une partie ce chapitre à la deuxième méthode qui va nous permettre à l'aide des outils vus dans le chapitre de Calcul Vectoriel de résoudre les intersections non plus d'une ou plusieurs droites mais d'une ou plusieurs droites et de plans, hyperplans dans respectivement equation.

Avant d'attaquer la partie purement théorique, présentons un exemple très intéressant mais qui nécessite un concept – le déterminant – que nous démontrerons rigoureusement que bien plus loin en détails dans le présent chapitre (il nous a semblé pédagogiquement plus judicieux d'aborder ce sujet maintenant plutôt que le lecteur doive attendre de parcourir des dizaines de pages de développements mathématiques avant d'arriver à la définition rigoureuse du déterminant).

Considérons le système de 2 équations linéaires à 2 inconnues suivant (système d'intersection de plans):

equation   (13.8)

Si nous résolvons cela, nous obtenons rapidement (technique appelée "méthode de substitution"):

equation   (13.9)

Il vient alors:

equation   (13.10)

et donc au final:

equation   (13.11)

et si nous définissons un peu à la vite un truc qui se nomme le "déterminant" et dont nous verrons la provenance rigourusement plus loin ainsi:

equation   (13.12)

ou avec une autre notation plus courante:

equation   (13.13)

nous avons alors:

equation   (13.14)

Et en procédant de même, il vient:

equation   (13.15)

Il vient alors:

equation   (13.16)

et donc au final nous avons

equation et equation   (13.17)

Il apparaît alors clair que si:

equation   (13.18)

le système a une infinité de solutions. À l'opposé, le système n'admet aucune solution si:

equation et equation   (13.19)

Et si le lecteur réitère (joyeusement...) la procédure pour un système de 3 équations à trois inconnues du type (intersection d'hyperplans):

equation   (13.20)

Nous obtenons alors (après quelques opérations algébriques élémentaires):

equation  et  equation  et  equation   (13.21)

avec:

equation   (13.22)

Il apparaît alors clair que si:

equation   (13.23)

le système a une infinité de solutions. À l'opposé, le système n'admet aucune solution si:

equation et equation   (13.24)

et ainsi de suite pour des équations à n inconnues.

Il y a cependant une condition à remplir: comme nous l'avons vu dans l'exemple précédent, nous ne pourrions pas résoudre un système d'équations à deux inconnues si nous n'avons qu'une seule équation. C'est la raison pour laquelle il faut et il suffit pour un système d'équations à n inconnues d'avoir au moins n équations. Ainsi, nous parlons de: "systèmes de n équations à n inconnues". Nous démontrerons aussi qu'il faut et il suffit que le déterminant soit non nul pour qu'un système linéaire, dont la matrice est carrée, ait une solution unique (le concept de "déterminant" sera défini plus loin) et donc que la matrice soit donc inversible (non singulière).

SYSTÈMES LINÉAIRES

Définition: Nous appelons donc "système linéaire", ou simplement "système", toute famille d'équations de la forme:

equation   (13.25)

où chaque ligne représente l'équation d'une droite, plan ou hyperplan (cf. chapitre de Géométrie Analytique) et equation les "coefficients du système", equation les "coefficients du second membre" et les equation les "inconnues du système".

Si le système à n équation à n iconnues et que ce système admet une solution unique, nous parlons alors de "système de Cramer" (1750).

Si les coefficients du second membre sont tous nuls, nous disons alors que le système est un "système homogène" et alors celui-ci admet au moins la solution triviale où les equation sont tous nuls.

Nous appelons "système homogène associé au système", le système d'équations que nous obtenons en substituant des zéros aux coefficients du second membre.

Rappelons les élément suivants:

- L'équation d'une droite (cf. chapitre d'Analyse Fonctionnelle) est donnée par:

equation   (13.26)

en posant equation.

- L'équation d'un plan  (cf. chapitre de Géométrie Analytique) est donnée par:

equation   (13.27)

en posant equation.

- L'équation d'un hyperplan est très facilement (si vous ne voyez pas comment faites le nous savoir nous le préciserons) généralisable à partir de la démonstration de celle du plan et nous obtenons ainsi:

equation   (13.28)

en posant equation

Nous écrivons souvent un système linéaire sous la forme condensée suivante:

equation   (13.29)

Nous appelons "solution du système" tout n-uplet equation tel que:

equation   (13.30)

Résoudre un système signifie trouver l'ensemble des solutions de ce système (on retrouve beaucoup ce type de systèmes dans des problèmes économiques, de recherche opérationnelle ou des plans d'expérience). Deux systèmes à n inconnues sont dits "systèmes équivalents" si toute solution de l'un est solution de l'autre, autrement dit, s'ils admettent le même ensemble de solutions. Nous disons parfois que les équations d'un système sont des "équations compatibles" ou "équations incompatibles", suivant que ce système admet au moins une solution ou n'en admet aucune.

Nous pouvons également donner bien sûr une interprétation géométrique à ces systèmes. Supposons que les premiers membres des équations du système soient non nuls. Alors, nous savons que chacune de ces équations représente un hyperplan d'un espace affine (cf. chapitre de Calcul Vectoriel) de dimension n. Par conséquent, l'ensemble des solutions du système, regardé comme ensemble de n-uplets de coordonnées, représente une intersection finie d'hyperplans.

exempleExemple:

Le système d'équations suivant:

equation   (13.31)

noté plus conventionellement dans les petites classes sous la forme:

equation   (13.32)

Aurait comme solutions les points représentant l'intersection des trois plans définis par les trois équations. Mais comme nous pouvons le voir visuellement avec Maple 4.00b à l'aide des commandes suivantes:

>with(plots):
>implicitplot3d({x-3*z=-3,2*x-5*y-z=-2,x+2*y-5*z=1},x=-3..3,y=-3..3,z=-3..3);

equation
Figure: 13.1 - Représentation d'un système de 3 équations à 3 inconnues avec Maple 4.00b

Ce système n'a aucune solution. Ce qui peut soit se vérifier à la main, soit avec Maple 4.00b en écrivant:

>solve({x-3*z=-3,2*x-5*y-z=-2,x+2*y-5*z=1},{x,y,z});

Remarque: Pour la méthode de résolution "classique" de ces systèmes, nous renvoyons le lecteur au chapitre traitant des Méthodes Numériques dans la section d'informatique.

Enfin, signalons un cas important dans la pratique: les "systèmes surdéterminés" ou nous avons plus d'équation que d'inconnues. Le première situation de ce type daterait du 18ème siècle dans le cadre de l'étudie de l'osciallation lunaire mais on retrouve également cette situation fréquemment dans les laboratoire de R&D dans le cadre des techniques des plans d'expérience (cf. chapitre de Génie Industriel) ou encore dans les modèles par équations structurelles (cf. chapitre de Méthodes Numériques).

Considérons le cas particulier mais parlant ci-dessous de trois équations à deux inconnues:

equation   (13.33)

système qui sous forme de matrice et de vecteur s'écrira:

equation   (13.34)

ou dite sous "forme augmentée" de la manière suivante:

equation   (13.35)

et avec Maple 4.00b:

>with(plots):
>implicitplot({2*x+3*y=-1,-3*x+y=-2,-x+y=1},x=-3..3,y=-3..3);

equation
Figure: 13.2 - Représentation d'un système de 3 équations à 2 inconnues avec Maple 4.00b

Nous voyons bien sur le graphique ci-dessus que ce système particulier n'a pas de solution complète mais a une solution si nous prenons seulement le problème par paire d'équations... ce qui ne fait forcément pas avancer les choses... Remarquons cependant que si nous récrivons le système:

equation   (13.36)

Cela ressemble étrangement à un système de régression linéaire multiple (cf. chapitre de Méthodes Numériques) dont le vecteur colonne des inconnues peut être vu comme les coefficients equation de la droite recherchée. Nous avons alors démontré en détails dans la chapitre de Méthodes Numériques que:

equation   (57.37)

à condition que la matrice carrée equation  soit inversible (non singulière). Dans le cas précédent, nous trouvons la "pseudo-solution" (c'est la terminologie officielle...) en faisant les calculs rapidement à la main (ou avec un tableur comme Microsoft Excel):

equation   (13.38)

et en réinjectant ces valeurs dans le système initial, le lecteur comprendra très vite pourquoi on parle de "pseudo"-solution...

C'était donc la manière pragmatique de voir les choses... passons maintenant à la seconde façon un peu plus ... mathématique (mais qui reste relativement simple):

TRANSFORMATIONS LINÉAIRES

Définition: Une "transformation linéaire" ou "application linéaire" A est une application d'un espace vectoriel E vers un espace vectoriel F telle que avec K étant equationou equation:

equation   (13.39)

plus fréquemment donné sous la forme (car l'application linéaire est souvent assimilée à une matrice):

equation   (13.40)

ceci constitue, pour rappel, un endomorphisme (cf. chapitre de Théorie Des Ensembles).

La première propriété spécifie que la transformée d'une somme de vecteurs doit être égale à la somme des transformées, pour qu'elle soit linéaire. La deuxième propriété précise que la transformée d'un vecteur auquel nous avons appliqué un facteur d'échelle (homothétie) doit aussi être égale à ce facteur appliqué sur la transformée du vecteur original. Si l'une ou l'autre de ces deux propriétés n'est pas respectée, la transformation n'est alors pas linéaire.

Nous allons maintenant montrer que toute transformation linéaire peut être représentée par une matrice:

Soient equation les vecteurs de base pour E et equation ceux de F. Avec ces bases, nous pouvons représenter n'importe quels vecteurs equation avec les combinaisons linéaires suivantes (cf. chapitre de Calcul Vectoriel):

equation   (13.41)

Soit la transformation linéaire A qui applique E sur F (equation). Donc equation que nous pouvons réécrire de la façon suivante:

equation   (13.42)

mais puisque A est un opérateur linéaire par définition, nous pouvons aussi écrire:

equation   (13.43)

En considérant maintenant que les vecteurs equation sont des éléments de F, nous pouvons les réécrire en tant qu'une combinaison linéaire de ses vecteurs de base:

equation   (13.44)

Ainsi, nous obtenons:

equation   (13.45)

En inversant l'ordre des sommations, nous pouvons écrire:

equation   (13.46)

et en réarrangeant cette dernière relation, nous produisons le résultat:

equation   (13.47)

Finalement, en se rappelant que les vecteurs de base equation doivent être indépendants, nous pouvons conclure que leurs coefficients doivent forcément être nuls, donc:

equation   (13.48)

Ce qui correspond au produit de "matrice":

equation   (13.49)

que nous pouvons noter:

equation   (13.50)

Autrement dit, toute transformation linéaire peut être décrite par une matrice A qu'il s'agit de multiplier avec le vecteur que nous voulons transformer, pour obtenir le vecteur résultant de la transformation.

MATRICES

Nous appelons donc "matrice" à m lignes et n colonnes, ou "matrice de type mn" (le premier terme correspond toujours aux lignes et le second aux colonnes, pour s'en souvenir il existe un bon moyen mnémotechnique: le président LinColn - abréviation de Ligne et Colonne...), tout tableau de nombres:

equation   (13.51)

Nous désignons souvent une matrice de type equation plus brièvement par:

equation   (13.52)

ou simplement par equation.

Le nombre equation est appelé "terme ou coefficient d'indices i, j". L'indice i étant appelé "indice de ligne" et l'indice j "indice de colonne".

Nous notons equation l'ensemble des matrices equation dont les coefficients prennent leurs valeurs dans K (pouvant être equation ou equation par exemple).

Lorsque equation, nous disons que equation est une "matrice carrée" d'ordre n. Dans ce cas, les termes equation sont appelées "termes diagonaux".

Nous appelons également une matrice à une seule ligne "matrice-ligne" et une matrice à une seule colonne "matrice-colonne". Il est clair qu'une matrice colonne n'est rien d'autre qu'un "vecteur-colonne". Par la suite, les lignes d'une matrice seront assimilées à des matrices-lignes et les colonnes à des matrices-colonnes.

L'intérêt de la notion de matrice va apparaître tout au long des textes qui vont suivre mais la raison d'être immédiate de cette notion est simplement de permettre à certaines familles finies de nombres d'être conçues sous la forme d'un tableau rectangulaire.

Nous assignerons aux matrices des symboles propres, à savoir les lettres latines majuscules: A,B,... et aux matrices-colonnes des symboles à savoir les lettres minuscules vectorielles equation; nous les appellerons d'ailleurs indifféremment matrices-colonnes ou vecteurs-colonnes.

Nous appelons "matrice nulle", et nous la notons O, toute matrice dont chaque terme est nul. Les matrices-colonnes nulles sont également désignées par le symbole vectoriel: equation.

Nous appelons "matrice unité d'ordre n" ou "matrice identité d'ordre n", et nous notons equation, ou simplement I, la matrice carrée d'ordre n:

equation   (13.53)

Nous verrons plus loin que la matrice nulle joue le rôle d'élément neutre de l'addition matricielle et la matrice unité d'élément neutre de la multiplication matricielle.

Attention! Lorsque nous travaillons avec les matrices à coefficients complexes il faut toujours utiliser le terme "matrice identité" plutôt que "matrice unitaire" car dans le domaine des nombres complexes la matrice unitaire est un autre objet mathématique qu'il convient de ne pas confondre!

Nous allons maintenant revenir brièvement sur la définition de "rang d'une famille finie" que nous avons vue dans le chapitre de Calcul Vectoriel.

Rappel: Nous appelons "rang" d'une famille de vecteurs la dimension du sous-espace vectoriel de E qu'elle engendre.

Ainsi, soit equation les colonnes d'une matrice A, nous appelons "rang de A", et nous notons equation, le rang de la famille equation.

Dans un langage un peu plus familier (...) le rang d'une matrice est donné par le nombre de matrices-colonnes qui ne peuvent s'exprimer par la combinaison et la multiplication par un scalaire d'autres matrices-colonnes de la même matrice.

Remarque: S'il y a des difficultés à déterminer le rang d'une matrice il existe une technique "d'échelonnage" des matrices que nous allons voir plus tard qui permet d'effectuer ce travail très rapidement.

Définition: Nous appelons "matrice associée au système":

equation   (13.54)

l'objet mathématique défini par:

equation   (13.55)

c'est-à-dire la matrice A dont les termes sont les coefficients du système. Nous appelons "matrice du second membre du système linéaire", ou simplement "second membre du système", la matrice-colonne equation dont les termes sont les coefficients du second membre de ce système. Nous appelons également "matrice augmentée associée au système" la matrice obtenue de A en ajoutant equationcomme (n + 1)-ème colonne.

Si nous considérons maintenant un système de matrice associée A et de second membre equation. Désignons toujours par equation les colonnes de A. Le système s'écrit alors de manière équivalente sous la forme d'une équation vectorielle linéaire:

equation   (13.56)

Maintenant rappelons un théorème que nous avons vu en calcul vectoriel: pour que le rang d'une famille de vecteurs equation soit égal au rang de la famille augmentée equation, il faut et il suffit que le vecteur equation soit combinaison linéaire des vecteurs equation.

Il s'ensuit que notre système linéaire sous forme vectorielle admet au moins une solution equation si le rang de la famille equation est égal au rang de la famille augmentée equation et cette solution est unique si et seulement si le rang de la famille equation est n.

Ainsi, pour qu'un système linéaire de matrice associée A et de second membre equation admette au moins une solution, il faut et il suffit que le rang de A soit égal au rang de la matrice augmentée equation. Si cette condition est remplie, le système admet une seule solution si et seulement si le rang de A est égal au nombre d'inconnues autrement dit, les colonnes de A sont linéairement indépendantes.

Nous disons qu'une matrice est "échelonnée" si ses lignes satisfont aux deux conditions suivantes:

C1. Toute ligne nulle n'est suivie que de lignes nulles

C2. L'indice de colonne du premier terme non nul de toute ligne non nulle est supérieur à l'indice de colonne du premier terme non nul de la ligne qui la précède.

Une matrice échelonnée non nulle est donc de la forme:

equation   (13.57)

equation et equation sont des termes non nuls. Bien entendu, les lignes nulles terminales peuvent manquer.

Remarque: Nous supposerons relativement évident que les matrices nulles et les matrices unités sont échelonnées.

Les colonnes d'indice equation d'une matrice échelonnée sont clairement linéairement indépendantes. Envisagées comme des vecteurs-colonnes de equation, elles forment donc une base de cet espace vectoriel. En considérant les autres colonnes également comme des vecteurs-colonnes de equation, nous en déduisons qu'elles sont nécessairement combinaison linéaire de celles d'indice equation et donc que le rang de la matrice échelonnée est r.

Nous noterons que r est aussi le nombre de lignes non nulles de la matrice échelonnée et également le rang de la famille des lignes de cette matrice, puisque les lignes non nulles sont dès lors manifestement indépendantes.

Nous pouvons dès lors nous autoriser un certain nombre d'opérations élémentaires (supplémentaires) sur les lignes des matrices qui nous seront fort utiles et ce, sans changer son rang:

P1. Nous pouvons permuter les lignes.

Remarque: La matrice est juste une représentation graphique esthétique d'un système linéaire. Ainsi, permuter deux lignes ne change aucunement le système.

P2. Multiplier une ligne par un scalaire non nul

Remarque: Cela ne changeant en rien l'indépendance linéaire des vecteurs-lignes.

P3. Additionner à une ligne originelle, un multiple d'une autre

Remarque: La ligne originelle disparaîtra au profit de la nouvelle qui est indépendante de toutes les (anciennes) autres. Le système reste ainsi linéairement indépendant.

Toute matrice peut être transformée en matrice échelonnée par une suite finie d'opérations de type P1, P2, P3. C'est cette technique que nous utilisons dans le chapitre traitant des algorithmes pour résoudre les systèmes linéaires.

Il est donc évident que les opérations élémentaires sur les lignes d'une matrice ne modifient pas le rang de la famille des lignes de cette matrice. Or, nous avons observé que le rang de la famille des lignes d'une matrice échelonnée est égal au rang de la famille des colonnes, c'est-à-dire au rang de cette matrice. Nous en concluons que le rang de n'importe quelle matrice de type equation est également le rang de la famille des lignes de cette matrice.

Comme corollaire de cette conclusion, il apparaît que:

equation   (13.58)

Lors de la résolution de systèmes linéaires de m équations à n inconnues il apparaît, comme nous l'avons déjà fait remarquer tout au début de ce chapitre, qu'il doit y avoir au moins un nombre égal d'équations que d'inconnues ou plus rigoureusement: le nombre d'inconnues doit être inférieur ou égal au nombre d'équations tel que:

equation   (13.59)

OPÉRATIONS SUR LES MATRICES

Rappelons que nous avons vu lors de notre étude du calcul vectoriel que les opérations de multiplication d'un vecteur par un scalaire, d'addition ou soustraction de vecteurs entre eux et l'opération de produit scalaire formait dans le sens ensembliste du terme un "espace vectoriel" (voir le chapitre de théorie des ensembles) possédant ainsi aussi une "structure algébrique vectorielle". Ceci sous la condition que les vecteurs aient bien sûr les mêmes dimensions (ce constat n'étant pas valable si au lieu du produit scalaire nous prenions le produit vectoriel).

Au même titre que les vecteurs, nous pouvons multiplier une matrice par un scalaire et additionner celles-ci entre elles (tant qu'elles ont les mêmes dimensions...) mais en plus, nous pouvons aussi multiplier deux matrices entre elles sous certaines conditions que nous définirons ci-après. Cela fera également de l'ensemble des matrices dans le sens ensembliste du terme, un espace vectoriel sur le corps K et possédant ainsi aussi une "structure algébrique vectorielle".

Ainsi, un vecteur pourra aussi être vu comme une matrice particulière de dimension equation et opérer dans l'espace vectoriel des matrices. En gros..., le calcul vectoriel n'est qu'un cas particulier de l'algèbre linéaire.

Définitions:

D1. Soient equation. Nous appelons "somme de A et B" la matrice equation dont les coefficients sont:

equation   (13.60)

Les matrices pouvant être sommées sont dites "conformes pour l'addition".

D2. Soient equation une matrice et equation un scalaire. Nous appelons "produit de A par equation" la matrice equationdont les coefficients sont:

equation   (13.61)

De ses deux définitions nous pouvons donc effectivement conclure que l'espace/ensemble des matrices est bien un espace vectoriel et possède ainsi une structure algébrique vectorielle.

D3. Soient E, F, G trois espaces vectoriels de bases respectivesequation et equationdeux applications linéaires (voir aussi le chapitre de Théorie Des Dnsembles pour un rappel).

Notons A la matrice de f relativement aux bases equation et B la matrice de g relativement aux bases equation. Alors la matrice C de equation (voir la définition d'une fonction composée dans le chapitre d'Analyse Fonctionnelle) relativement aux bases equation est égale au produit de B par A noté BA.

equation et equation   (13.62)

equation et equation   (13.63)

Donc soient equation et equation, nous appelons "produit matriciel" ou "multiplication matricielle" de B par A et nous notons BA, la matrice equation dont les coefficients sont:

equation   (13.64)

Il est important de remarquer que contrairement à l'addition, A et B peuvent avoir des dimensions différentes. Toutefois! le nombre de lignes de A doit être égal au nombre de colonnes de B, comme l'indique l'indice n des deux matrices. Donc dans le produit BA, si B est une matrice equation, A doit être une matrice equation, quel que soit p.

En notant par des lettres latines majuscules les matrices et par les lettres grecques minuscules les scalaires, le lecteur vérifiera aisément (nous pouvons rajouter les démonstrations sur demande) les relations suivantes (les matrices sont supposées avoir des dimensions adéquates):

equation   (13.65)

Il est surtout important de se rappeler de la dernière ligne comme quoi la multiplication matricielle n'est pas commutative (pour les dimensions supérieures à 1 bien évidemment) et de l'avant dernière ligne comme qoui la mutliplication matricielle est assocative.

Concernant la démonstration générale que l'assertion de commutativité est fausse il faut passer par un exemple numérique (car même le cas général sans le remplacement des termes algébriques par des valeurs numériques ne vous montrera pas grand chose...).

Remarque: L'ensemble equation des matrices carrées d'ordre n à coefficients dans equation muni de la somme et la multiplication usuelles des matrices forme un anneau (cf. chapitre de Théorie Des Ensembles). C'est vrai plus généralement si les coefficients des matrices sont pris dans un anneau quelconque: par exemple l'ensemble equation des matrices à coefficients entiers est un anneau.

Voyons quelques démonstrations et commençant pas l'associativité:

Soient equation , alors pour equation, nous avons bien (nous utilisons l'expression explicite de la multiplication matricielles des composantes vue plus haut plusieurs fois comme vous pourrez le constater):

equation   (13.66)

TYPE DE MATRICES

Afin de simplifier les notations et la longueur des calculs nous allons introduire ici les matrices types que le lecteur pourra rencontrer tout au long de sa lecture du site (et pas que dans la partie de mathématiques pures!).

Définitions:

D1. Soit A une matrice carrée (c'est-à-dire equation). La matrice A est dite "matrice inversible" ou "matrice régulière" ou encore "matrice non singulière" si et seulement si equation est telle que:

equation   (13.67)

où:

equation   (13.68)

est une matrice unité. Si tel n'est pas le cas, nous disons que A est une "matrice singulière". Nous démontrerons plus tard que pour qu'une matrice carrée soit inversible (non singulière) il faut que son déterminant soit nul.

Cette définition est fondamentale, elle a des conséquences extrêmement importantes dans toute l'algèbre linéaire et aussi dans la physique (résolution de système linéaires, déterminant, vecteurs et valeurs propres, etc.) il convient donc de s'en souvenir.

D2. Soit:

equation   (13.69)

une matrice de equation. Nous appelons "matrice transposée" de A, la matrice notée equation (le T en exposant est selon les ouvrages en majuscule ou en minuscule et soit à gauche, soit à droite mais la norme ISO 80000-2:2009 recommande la majuscule et l'exposant en haut à droite), de equation définie par (nous transposons les lignes en colonnes et les colonnes en lignes):

equation   (13.70)

Voici quelques propriétés intéressantes (qui nous seront par ailleurs utiles plus tard lors d'un théorème fameux et aussi lors de l'étude de la régression linéaire multiple dans le chapitre de Méthodes Numériques!) de la transposée:

equation   (13.71)

et aussi une propriété importante de la matrice transposée (la vérification se fait aussi par l'exemple):

equation   (13.72)

La matrice transposée est très importante en physique et en mathématique dans le cadre de la théorie des groupes et symétries! Il convient donc aussi de se souvenir de sa définition.

Comme la troisième propriété est la plus utilisée dans les différents chapitres du site démontrons-là en considérant equation et en se rappelant de la relation explicite de la mutliplication matricielle vue tout au début:

equation   (13.73)

Or dans cette dernière égalité, nous remarquons que nous parcourons B en ligne et A en colonne pour un i et un j fixes et cela correspond alors nous le savons à la multiplication matricelle AB, dès lors:

equation   (13.74)

Finalement nous avons bien:

equation   (13.75)

Et pour les mêmes raisons démontrons quand même la quatrième et dernière propriété. D'abord, il est trivial si A est inversible que:

equation   (13.76)

et en prenant la transposée des deux côtés de léégalité nous trouvons (nous utilisons la propriété démontrée juste avant):

equation   (13.77)

Cette dernière égalité démontre bien que equation est l'inverse de equation, c'est-à-dire:

equation   (13.78)

D3. Soit:

equation   (13.79)

une matrice de equation. Nous appelons "matrice adjointe" de A, la matrice, de equation définie par:

equation   (13.80)

qui est donc la complexe conjuguée de la matrice transposée ou si vous préférez... la transposée de la matrice conjuguée A (dans le cas de coefficient réels... on se passera de la conjuguer!). Pour simplifier les écritures nous la notons simplement equation (écriture fréquente en physique quantique et algèbre ensembliste).

Remarque: Relation triviale (qui sera souvent utilisée en physique quantique des champs): 

equation   (13.81)

D4. Par définition, une matrice est dite "matrice hermitique" ou "matrice hermitienne" ou "matrice self-adjointe" ou encore "matrice autoadjointe"... si elle est égale à son adjointe (matrice transposée conjuguée) tel que:

equation   (13.82)

D5. Soit A une matrice carrée de equation, la "trace" de A, notée equation est définie par:

equation   (13.83)

Quelques relations utiles y relatives (dont nous pouvons rajouter les démonstrations détaillées sur demande):

equation   (13.84)

D6. Une matrice A est dite "matrice nilpotente" si en la multipliant successivement par elle-même elle peut donner zéro. En clair, s'il existe un entier k tel que:

equation   (13.85)

Si la matrice A multipliée par elle-même donne A..., alors nous parlons de "matrice idempotente".

Remarque: Pour se souvenir de ce mot, nous le décomposons en "nil" pour nulle et "potent" pour potentiel. Ainsi, quelque chose de nilpotent est donc quelque chose qui est potentiellement nul.

D7. Une matrice A est dite "matrice orthogonale" si ses éléments sont réels et si elle obéit à:

equation   (13.86)

ce qui se traduit par (où equation est le symbole de Kronecker):

equation   (13.87)

Les vecteurs colonnes de la matrice sont donc normés à l'unité et orthogonaux entre eux (ou de même avec ses lignes!). Ainsi une matrice orthogonale représente une base orthonormée!

Un exemple courant en mathématique est la matrice de la base canonique orthonormée (cf. chapitre de Calcul Vectoriel):

equation   (13.88)

ou encore une matrice courant en physique quantique:

equation   (13.89)

Remarques:

R1. C'est typiquement le cas de la matrice de la base canonique, ou de toute matrice diagonalisable.

R2. Si au lieu de prendre simplement une matrice avec des coefficients réels, nous prenons une matrice à coefficients complexes avec sa transposée complexe (matrice adjointe). Alors, nous disons que A est une "matrice unitaire" si elle satisfait à la relation ci-dessus!

Nous reviendrons plus tard, après avoir présenté les concepts de vecteurs et valeurs propres, sur un cas particulier et très important de matrices orthogonales (appelées "matrices de translations").

Signalons encore une autre propriété importante en géométrie, physique et statistiques des matrices orthogonales.

Soit equation, où A est une matrice orthogonale et equation. Alors f (respectivement A) est une isométrie. C'est-à-dire que:

equation   (13.90)

Démonstration:

equation   (13.91)

et donc nous avons bien:

equation   (13.92)

Donc en d'autres termes: Les matrices orthogonales sont des applications linéaires qui conservent la norme (les distances).

equationC.Q.F.D.

D8. Soit equation une matrice carrée. La matrice A est dite "matrice symétrique" si et seulement si:

equation   (13.93)

Nous retrouverons cette définition en calcul tensoriel.

D9. Soit equationune matrice carrée. La matrice A est dite "matrice anti-symétrique" si et seulement si:

equation   (13.94)

ce qui impose que:

equation   (13.95)

Nous retrouverons cette définition dans le chapitre de Calcul Tensoriel.

D10. Soit equationune matrice carrée. La matrice A est dite "matrice triangulaire supérieure" si et seulement si:

equation   (13.96)

D11. Soit Soit equation une matrice carrée. La matrice A est dite "matrice triangulaire inférieure" si et seulement si (nous retrouverons de nombreuses fois ce type de matrice dans les méthodes numériques et statistiques):

equation   (13.97)

D12. Soit equation, une matrice carrée. La matrice D est dite "matrice diagonale" si et seulement si:

equation   (13.98)

La notation habituelle d'une matrice diagonale D étant:

equation   (13.99)

D13. Soient E un espace vectoriel, de dimension n et deux bases equation de E:

equation   (13.100)

Nous appelons "matrice de passage" de la base equation à la base equation, et nous noterons P la matrice de equation dont les colonnes sont formées des composantes des vecteurs de equation sur la base equation (voir plus loin le traitement détaillé des changements de base pour plus d'infos).

Nous considérons le vecteur equation de E qui s'écrit dans les bases equation et equation suivant les relations:

equation   (13.101)

Soit:

equation   (13.102)

le vecteur de equation formé des composantes de equation dans la base equation et respectivement le vecteur formé des composantes de equation dans la base equation. Alors:

equation   (13.103)

relation pour laquelle la démonstration détaillée sera donnée plus loin lors de notre étude des changements de base. Nous avons également:

equation   (13.104)

Remarques:

R1. Si lorsqu'un vecteur est donné et que sa base n'est pas spécifiée, c'est qu'il s'agit dès lors implicitement de la base canonique:

equation   (13.105)

qui laisse invariant la multiplication par un vecteur quelconque et lorsque la base utilisée est notée equation et n'est pas spécifiée, c'est qu'il s'agit également de la base canonique.

R2. Si un vecteur est donné par rapport à la base canonique, ces composantes sont dites "covariantes", dans le cas contraire, où si elles sont exprimées après suite dans une autre base non canonique, alors nous disons que les composantes sont "contravariantes" (pour plus de précisions sur le sujet voir le chapitre de Calcul Tensoriel).

D14. Une matrice est dite "matrice définie-positive" (ce qui nous sera utile dans le chapitre de Méthodes Numériques pour certaines techniques d'ingénierie importantes ainsi que dans la finance quantitative pour l'estimation qualitative de la matrice de corrélation) si:

equation   (13.106)

et "matrice positive" ou "matrice semi-positive" si:

equation   (13.107)

Nous verrons lors de notre étude de la matrice des variances-covariances dans le chapitre de Statistiques qu'une matrice semi-positive a ses valeurs propres qui sont toutes positives ou nulles, alors que si elle est définie positive ses valeurs propres sont toutes positives non nulles.

D15. Une matrice symétrique ayant tous ses composantes positives et des zéros sur la diagonale est appelée "matrice de distance" (nous retrouverons plusieurs fois ce type de matrice dans les techniques de Data Mining du chapitre de Méthodes Numériques).

D16. Une matrice est dite "matrice creuse" si elle contient un certain nombre significatifs de valeures nulles. En méthodes numériques, il existe des algorithmes qui utilisent cette spécificité pour optimiser le stockage de ce type de matrices (utilisé dans les cubes OLAP et dans l'ingénierie financière).

DÉTERMINANTS

Nous allons nous intéresser aux déterminants dans le point de vue du physicien (celui de mathématicien étant assez rébarbatif...). En physique (que ce soit en mécanique classique ou physique quantique des champs), en chimie ou en ingénierie, nous aurons fréquemment des systèmes linéaires à résoudre. Or, nous avons vu maintenant qu'un système linéaire:

equation   (13.108)

peut être écrit sous la forme:

equation   (13.109)

et nous savons que les seuls systèmes linéaires résolubles (dans le sens qu'ils ont une unique solution!!!) sont ceux qui ont autant d'équations que d'inconnues et leur déterminant qui est non nul! Ainsi, la matrice A doit être une matrice carrée equation.

Si une solution existe, il existe alors une matrice-colonne (ou "vecteur") X tel que equation ce qui implique:

equation   (13.110)

Qu'impose cette relation? Eh bien c'est relativement simple mais à la fois très très important: pour qu'un système linéaire ait une solution unique, il faut que la matrice A soit inversible (non singulière)! Quel rapport avec le déterminant alors? C'est simple: les mathématiciens ont cherché comment s'écrivaient les inverses des matrices de systèmes linéaires dont ils savaient qu'il y avait une solution unique et ils sont arrivés après tâtonnements successifs à déterminer une sorte de formule qui permette de vérifier si la matrice est inversible (non singulière) ou non. Une fois cette formule trouvée, ils ont formalisé (comme ils savent si bien le faire...), avec une très bonne rigueur, le concept entourant cette formule qu'ils ont appelé "déterminant". Ils y sont tellement bien arrivés d'ailleurs qu'on oublie parfois qu'ils ont procédé ainsi....

Remarque: Si une matrice d'un système linéaire n'est pas inversible (non singulière), cela a pour conséquence qu'il existe soit aucune solution, soit une infinité de solutions (comme à l'habitude quoi...)

Nous allons ci-dessous d'abord nous intéresser à la manière de construire le déterminant en définissant un type d'application particulière. Ensuite, après avoir vu un exemple simple et interprétable du calcul d'un déterminant, nous nous attacherons à déterminer la formule de celui-ci dans le cas général. Enfin, une fois ceci fait, nous verrons quelle est la relation qui lie l'inverse d'une matrice et le déterminant.

Dans ce qui suit tous les espaces vectoriels considérés sont de dimension finie et sur le corps equation des nombres complexes (ceux qui le préfèrent pourront prendre equation comme corps de base, de fait nous pourrions prendre un corps quelconque).

D'abord nous allons faire un petit peu de mathématique (un peu rébarbative) avant de passer à du concret.

Soit V un espace vectoriel, nous écrirons equation au lieu de equation. equation désignera la base canonique de equation. equation est l'ensemble des matrices carrées equation à coefficients dans equation.

Définitions:

D1. Une "application multilinéaire" sur un espace V est par définition une application equation qui est linéaire en chacune de ces composantes. C'est-à-dire:

equation   (13.111)

pour tout equation et equation où les equation sont des vecteurs.

Remarque: Une application multilinéaire non nulle n'est pas une application linéaire de l'espace equation dans equation. Sauf si equation. Effectivement, cela se vérifie de par la définition de l'application linéaire versus celle de l'application multilinéaire:

equation   (13.112)

D2. Une "application multilinéaire alternée" sur V est par définition une application multilinéaire qui vérifie la condition suivante:

equation   (13.113)

pour tout equation. Ainsi la permutation de deux vecteurs qui se suivent change le signe de equation.

Ainsi, si equation est une application multilinéaire, alors equation est alternée si et seulement si equation. nous avons:

equation   (13.114)

Démonstration: equation étant définie comme alternée, nous avons donc:

equation   (13.115)

equationC.Q.F.D.

et voilà ce qui nous intéresse:

D3. Un "déterminant" est par définition (par imposition) une application multilinéaire alternée equation vérifiant de plus:

equation   (13.116)

Remarque: Les colonnes d'une matrice carrée forment n vecteurs et nous voyons donc qu'un déterminant D sur equation induit une application equation de equation (où equation est l'espace des matrices carrées equation à coefficients dans equation) définie par equationequation est la i-ème colonne de M. Par la suite, nous ferons l'abus d'écriture qui consiste à confondre D et equation.

Etudions le cas equation. Si D est un déterminant, pour tout vecteur:

equation   (13.117)

nous avons:

equation   (13.118)

Comme D est multilinéaire, nous avons:

equation   (13.119)

et comme elle est surtout multilinéaire alternée, nous avons donc:

equation   (13.120)

En fait, nous venons de montrer que si un déterminant existe, il est unique et de la forme indiquée ci-dessus, il faudrait encore vérifier que l'application ainsi définie satisfait les propriétés d'un déterminant, mais ce dernier point est immédiat.

Ainsi, si equation est une matrice nous avons donc:

equation   (13.121)

Nous retrouvons donc la forme du déterminant tel que nous en avons fait mention en calcul vectoriel.

Donnons une interprétation géométrique du déterminant. Soit equation deux vecteurs de equation.

equation
Figure: 13.3 - Interprétation géométrique du déterminant

Le vecteur equation est obtenu en projetant equation sur equation et nous avons donc:

equation et equation   (13.122)

L'aire du parallélogramme ci-dessus est donc:

equation   (13.123)

Si :

equation   (13.124)

alors:

equation   (13.125)

et donc:

equation   (13.126)

Ainsi le déterminant représente au signe près l'aire du parallélogramme défini par les vecteurs equation lorsque ceux-ci sont linéairement indépendants. Nous pouvons généraliser ce résultat à une dimension n quelconque, en particulier, pour equation, le déterminant de trois vecteurs linéairement indépendants représente le volume du parallélépipède défini par ces derniers.

Le cas plus général de l'expression du déterminant est un peu plus délicat à établir. Il faut pour cela que nous définissions une application bijective particulière mais simple que nous avions déjà rencontrée dans le chapitre Statistique.

Définition: Soit equation nous appelons "permutation" de equation toute application bijective de equation dans equation:

equation   (13.127)

Soit equation l'ensemble des permutations (applications bijectives) possibles de equation. equation contient bien évidemment... (voir la combinatoire dans le chapitre de Probabilités) n! éléments. La donnée d'un élément equation de equation est définie par les données successives de:

equation   (13.128)

Etant donnée une suite d'éléments ordonnée (croissants) d'éléments equation, nous appelons "inversion", toute permutation d'éléments dans la suite ordonnée (donc la suite ne sera plus ordonnée du tout...). Nous notons equation le nombre d'inversions.

Nous disons que la permutation equation est paire (impaire) si equation est pair (impair). Nous appelons "signature" de equation, le nombre noté equation défini par equation, c'est-à-dire:

equation   (13.129)

Nous avons maintenant les outils en place nécessaires à définir de manière générale la formule du déterminant:

Définition: Soit:

equation   (13.130)

Nous appelons "déterminant de A" d'une matrice carrée de dimension n, et nous notons det(A), le scalaire K défini par (nous verrons un exemple plus loin):

equation   (13.131)

appelé parfois "formule de Leibniz" ou encore "formule de Laplace". Cette relation a été obtenue par tâtonnements successifs et par récurrence pour de plus grandes dimensions.

exempleExemples:

E1. Soit equation, considérons les equation permutations des seconds indices (des entiers 1,2) pris dans leur ensemble:

equation   (13.132)

Nous calculons les signatures de equation. Voici le schéma de cette règle (rappel: nous disons donc... qu'il y a "inversion", si dans une permutation, un entier supérieur précède un entier inférieur):

equation

equation

equation

Nombre d'inversions

0

1

Permutation

Paire

Impaire

equation

+1

-1

Tableau: 13.1  - Inversions et permutations d'un déterminant d'ordre 2

Donc nous avons:

equation   (13.133)

Ce qui correspond bien à ce que nous avions vu initialement. Rappelez-vous au passage que nous allons bientôt démontrer que déterminant d'une matrice carrée doit être nul pour que la matrice soit inversible (non singulière)!

E2. Soit equation, considérons les equation permutations des seconds indices (des entiers 1,2,3) pris dans leur ensemble:

equation   (13.134)

Nous calculons les signatures de equation. Voici le schéma de cette règle (rappel: nous disons donc... qu'il y a "inversion", si dans une permutation, un entier supérieur précède un entier inférieur):

equation

123

132

213

231

312

321

Nombre d'inversions

0

1

1

2

2

3

Permutation

Paire

Impaire

Impaire

Paire

Paire

Impaire

equation

+1

-1

-1

+1

+1

-1

Tableau: 13.2  - Inversions et permutations d'un déterminant d'ordre 3

Donc nous avons:

equation   (13.135)

Le lecteur aura peut-être constaté (indication pas innocente car mentionnée dans le chapitre de Méthodes Numériques lors de l'étude de la complexité des algorithmes) que cette dernière égalité peut s'écrire:

equation   (13.136)

Remarque: Certaines personnes apprennent par coeur une méthode nommée "règle de Sarrus" pour calculer les déterminants d'ordre trois comme le précédent. Nous lui préférerons sur ce site la formulation générale du déterminant applicable à tous les ordres.

Voyons quelques propriétés et corollaires de cette formulation du déterminant:

P1. Soit equation une matrice carrée d'ordre n, nous ne changeons pas la valeur du déterminant de equation en:

1. Effectuant une opération élémentaire sur les colonnes de equation

2. Effectuant une opération élémentaire sur les lignes de equation

Démonstration: Si equation alors equation est composée de n vecteurs colonnes:

equation   (13.137)

Effectuer une opération élémentaire sur les colonnes de equation revient à additionner equation à une des colonnes equation de equation. Soit equation la matrice obtenue en additionnant equation à la j-ème colonne de equation, nous avons:

equation   (13.138)

Par multilinéarité (finalement la démonstration n'est vraiment pas bien dure):

equation   (13.139)

et comme le déterminant est alterné:

equation   (13.140)

Pour ce qui est des opérations élémentaires sur les lignes il suffit de considérer la transposée (c'est à pleurer tellement c'est simple mais il fallait y penser).

equationC.Q.F.D.

P2. Soit equation une matrice carrée d'ordre n et soit equation:

equation   (13.141)

Démonstration: Comme précédemment, il suffit de remarquer que si equation sont les vecteurs colonnes constituant la matrice equation alors equation sont ceux qui constituent equation et:

equation   (13.142)

L'application étant n-linéaire, nous aboutissons à l'égalité:

equation   (13.143)

equationC.Q.F.D.

P3. Soit equation une matrice carrée d'ordre n. Nous changeons le signe du déterminant de equation si:

1. Nous permutons deux de ses colonnes

2. Nous permutons deux de ses lignes

Démonstration: equation est constituée des n vecteurs equation. Le déterminant de equation est égal au déterminant de ces n. Permuter deux colonnes de equation revient à permuter les deux vecteurs correspondant. Supposons que les vecteurs permutés soit le i-ème et le j-ème, l'application déterminant étant alternée, nous avons:

equation   (13.144)

Pour ce qui est des lignes, il suffit de considérer la transposée de equation.

equationC.Q.F.D.

P4. Soit equation alors:

equation   (13.145)

La démonstration peut se faire de deux manières, la première est assez indigeste et abstraite nous la laisserons aux mathématiciens (...) même si elle a l'avantage d'être générale, la seconde plus simple, consiste à vérifier cette assertion pour différentes matrices carrées.

Démonstration:

equation
  (13.146)

Les calculs donnent donc des résultats qui sont bien identiques. Nous pouvons vérifier ainsi pour des matrices carrées de dimensions supérieures.

equationC.Q.F.D.

P5. Une matrice carrée equation est inversible (non singulière) si et seulement si equation.

Démonstration:

Si A est inversible (non singulière), nous avons:

equation   (13.147)

equationC.Q.F.D.

Il s'agit de la propriété la plus importante des matrices dans le cadre de la physique théorique car si A est un système linéaire, le calcul de son déterminant permet de savoir si celui-ci a des solutions uniques. Dans le cas contraire, comme nous en avons déjà fait mention, soit le système n'a aucune solution, soit une infinité !

Il faut considérer aussi un cas particulier important. Soit le système suivant:

equation   (13.148)

equation et equation à déterminer. Il est clair..., que A soit inversible (non singulière) ou non, la solution triviale est equation. Cependant..., imaginons un cas de physique théorique où nous avons equation mais pour lequel nous savons que equation et pour lequel nous imposons equation. Dans ce cas, il nous faut éliminer la solution triviale equation. De plus, calculer l'inverse (s'il existe) de la matrice A ne nous ramènera à rien de concret mis à part à equation ce qui bien évidemment ne nous satisfait pas. La seule solution est alors de se débrouiller pour que les coefficients equation de la matrice A soient tels que son déterminant soit nul et donc la matrice non inversible! L'intérêt ? Eh, bien d'avoir une infinité de solutions possibles (de B donc !) qui satisfont equation. Nous aurons besoin de cette méthodologie en mécanique quantique ondulatoire, lorsque nous déterminerons l'existence des antiparticules par l'intermédiaire de l'équation de Dirac linéarisée. Il faudra donc s'en rappeler.

P6. Deux matrices "conjuguées" (attention, pas dans le sens complexe du terme) ont le même déterminant.

Démonstration:

Soit equation, et equation une matrice de passage d'une base à une autre (voir plus loin le traitement des changements de bases), nous avons alors:

equation   (13.149)

equationC.Q.F.D.

P7. Pour toute matrice equation:

equation   (13.150)

Démonstration:

equation   (13.151)

Or (trivial... simple multiplication de tous les coefficients):

equation   (13.152)

Puisque (trivial) equation et que equation (cf. chapitre sur les Nombres), nous pouvons alors écrire:

equation   (13.153)

equationC.Q.F.D.

P8. Pour toute matrice equation:

equation   (13.154)

Démonstration:

Ben... c'est la même chose que pour la propriété précédente mais sans les valeurs conjuguées... De fait, nous montrons de la même manière, la même propriété pour equation.

equationC.Q.F.D.

P9. Soit une matrice equation, nous noterons equation la matrice obtenue à partir de A en effaçant la i-ème ligne et la j-ème colonne (notation très importante à ne pas oublier pour la suite!!!). equation appartient donc à equation. Alors pour tout equation:

equation   (13.155)

où le terme:

equation   (13.156)

est appelé le "cofacteur" .

Démonstration:

Définissons pour cela l'application:

equation   (13.157)

Il est facile de voir que equation est multilinéaire (il suffit de considérer equation comme une simple constante et ensuite par extension de la définition du déterminant... trop facile...).

Montrons cependant qu'elle est alternée (dans ce cas, c'est un déterminant qui a toutes les propriétés d'un déterminant):

Soit equation deux vecteurs colonne de A qui se suivent. Supposons que equation, il faut montrer que dans ce cas equation (qui découle de la définition d'une application alternée).

Nous avons premièrement (c'est obligatoire de par la définition) si nous n'effaçons aucune des colonnes j étant k ou k + 1:

equation si equation   (13.158)

et nous avons bien évidemment si nous enlevons respectivement la colonne k et la colonne k+1:

equation   (13.159)

Donc:

equation   (13.160)

C'est donc OK. Elle est alternée et multilinéaire, il s'agit donc bien d'un déterminant.

Nous venons donc de montrer que equation est un déterminant et par unicité nous avons equation pour tout equation.

equationC.Q.F.D.

Voyons un exemple de cette méthode en calculant le déterminant de:

equation   (13.161)

Développons selon la deuxième ligne equation. Nous obtenons:

equation   (13.162)

Développons selon la première colonne en guise de vérification (on ne sait jamais...):

equation   (13.163)

Le calcul déterminé ci-dessus est donc exponentiel car si par exemple nous devons calculer le déterminant d'une matrice d'ordre 10 alors le déterminant sera développé en une somme de 10 termes, dont chacun contient le déterminant d'une matrice d'ordre 9, qui est un cofacteur de la matrice de départ. Si nous développons n'importe lequel de ces déterminants, nous obtenons une somme de 9 déterminants dont chacun contient le déterminant d'une matrice d'ordre 8. A ce stade, il y a donc 90 déterminants de matrices d'odre 8 à calculer. Le processus pourrait se poursuivre jusqu'à ce qu'il ne reste que des déterminants d'ordre 2. Et alors là nous devinons que le nombre de matrices d'ordre 2 est très conséquent!

Définition: Soit m, n deux entiers positifs quelconques et A une matrice equation à coefficients dans equation. Pour tout entier equation un "mineur d'ordre k" de A est un déterminant du type:

equation avec equation   (13.164)

Dans le cas particulier d'une matrice carrée d'ordre equation la définition est plus simple: Le mineur equation de l'élément equation est le déterminant de la matrice d'ordre n - 1 obtenue en supprimant la ligne i et la colonne j. Ainsi, pour calculer le mineur d'un élément, nous supprimons la ligne et la colonne auxquelles l'élément appartient, puis nous calculons le déterminant de la matrice carrée restante.

DÉRIVÉE D'UN DÉTERMINANT

Voyons maintenant un résultat qui nous sera fort utile en relativité générale.

Soit une matrice carrée equation avec equation des fonctions dérivables. Posons equationequation. Nous voulons calculer equation. Soit equation le i-ème vecteur colonne de la matrice G. Utilisons la formule:

equation   (13.165)

Sachant que la dérivée de equation est (dérivée de n produits):

equation   (13.166)

nous avons donc:

equation   (13.167)

Si nous regardons la première somme ci-dessus, nous remarquons que:

equation   (13.168)

equation est la dérivée du vecteur equation. De même pour les sommes suivantes. Ainsi,

equation   (13.169)

Développons encore. Considérons le terme equation ci-dessus. Si nous le développons par rapport à la première colonne, nous obtenons:

equation   (13.170)

De même, en développant le j-ème terme de la somme ci-dessus par rapport à la j-ème colonne nous avons:

equation   (13.171)

Si nous posons:

equation   (13.172)

nous obtenons:

equation   (13.173)

ce qui en notation tensorielle (cf. chapitre de Calcul Tensoriel) s'écrit:

equation   (13.174)

Nous avons aussi:

equation   (13.175)

equation est le coefficient se trouvant à la j-ème ligne, i-ème colonne de la matrice equation. Si nous notons equation le coefficient i, j de la matrice equation alors:

equation et equation   (13.176)

L'expression de la dérivée devient finalement:

equation   (13.177)

qui s'écrit en notation tensorielle:

equation   (13.178)

Ce résultat, finalement assez simple, nous sera utile dans le chapitre de Calcul Tensoriel, pour construire les outils nécessaires à l'étude de la relativité générale et à la détermination de l'équation d'Einstein des champs. Il convient donc de s'en rappeler.

INVERSE D'UNE MATRICE

Terminons notre étude des déterminants avec la cerise sur le gâteau en donnant une relation très importante dans de nombreux domaines de l'ingénierie, de la physique et de la mathématique qui relie les coefficients de l'inverse d'une matrice equation avec ses mineurs d'ordre equation (nous allons utiliser cette relation plus loin).

Soit equation une matrice inversible (non singulière). Notons equation et equation. Alors:

equation   (13.179)

Démonstration:

Notons equation le k-ème vecteur colonne de la matrice A. Sachant que equation, nous avons (trivial):

equation   (13.180)

Calculons equation. D'une part en développant par rapport à la k-ème colonne nous trouvons (puisque qu'un seul des coefficients de equation est non nul et que l'unique non nul est égal à l'unité):

equation   (13.181)

D'autre part (propriétés du déterminant):

equation   (13.182)

Ainsi:

equation   (13.183)

c'est-à-dire:

equation   (13.184)

equationC.Q.F.D.

Pour une application pratique simple, détaillée et importante dans l'industrie (car sinon dans l'ensemble du site nous inversons que très rarement de petites matrices), le lecteur pourra se reporter au chapitre de Méthodes Numériques dans la partie qui concerne la régression linéaire multiple.

Signalons également les propriétés importantes suivantes (la première est logique, la deuxième a déjà été présentée plus haut mais pas démontrée et la troisième est importante pour la démonstration de du facteur d'inflation de la variance que nous démontrerons dans le chapitre de Méthodes Numériques):

equation   (13.185)

Démontrons la dernière propriété en utilisant la propriété de l'associativité:

equation   (13.186)

ce qui prouve que equation est bien l'inverse de AB equation (aussi notée equation) est une matrice diagonale unitaire (et donc aussi carrée) de dimension n.

CHANGEMENTS DE BASES

Supposons que nous passions d'une base equation d'un espace equation à une autre base equation de ce même espace partageant la même origine. Soit en deux dimensions:

equation
Figure: 13.4 - Concept sous-jacent en deux dimensions

Décomposons les equation dans la base equation:

equation   (13.187)

Définition: Nous appelons "matrice de transition" ou "matrice de passage", la matrice (l'application linéaire) qui permet de passer de equation donnée par:

equation   (13.188)

Maintenant, considérons le vecteur donné par:

equation   (13.189)

Alors nous nous proposons de démontrer que les composantes equation de equation dans la base equation sont données par:

equation   (13.190)

soit explicitement:

equation   (13.191)

Remarque: La matrice P est inversible (non singulière), car ses colonnes sont linéairement indépendantes (ce sont les vecteurs equation décomposés dans la base equation et les equation sont linéairement indépendants car ils forment une base).

Démonstration:

Prenons pour simplifier le cas equation (la démonstration étant assez facilement généralisable) avec equation et equation.

Nous avons alors:

equation   (13.192)

Nous avons donc equation et nous cherchons à exprimer equation dans la base equation tel que equation. Nous allons donc chercher l'application linéaire qui relie ces deux relations telles que:

equation   (13.193)

Soit écrit de manière explicite:

equation   (13.194)

d'où:

equation   (13.195)

c'est-à-dire:

equation   (13.196)

Donc P (si elle existe!) est bien la matrice qui permet d'exprimer les composantes d'un vecteur d'une base en celles d'une autre base telle qu'en écriture vectorielle nous ayons:

equation   (13.197)

equationC.Q.F.D.

Considérons maintenant une application equation linéaire. Soit A sa matrice dans la base equation, et B sa matrice dans la base equation (de même dimension). Alors nous pourrions avoir:

equation   (13.198)

ce qui revient aussi à écrire:

equation   (13.199)

ou encore:

equation   (13.200)

S'il existe une matrice P satisfaisant ces relations, nous disons que A et B sont des "matrices semblables".

Démonstration:

Reprenons le fait que plus haut nous ayons démontré qu'il est éventuellement possible de construire une matrice de passage P à partir du fait que:

equation   (13.201)

et posons:

equation   (13.202)

nous avons donc une fonction qui nous amène à écrire:

equation   (13.203)

D'autre part, nous avons (ce que nous avons démontré tout à l'heure):

equation   (13.204)

Dès lors:

equation   (13.205)

d'où:

equation   (13.206)

et comme nous l'avons vu dans notre étude du déterminant, les déterminants de A, B sont égaux et donc invariants. Nous reviendrons plus tard sur une formulation similaire lors de notre étude du théorème spectral.

equationC.Q.F.D.

Au niveau du vocabulaire, nous disons lorsque nous somme en présence d'une relation matricielle ayant une telle structure de dire que: A est "conjuguée" à la matrice B.

VALEURS ET VECTEURS PROPRES

Définition: Une "valeur propre" est par définition (nous retrouverons cette définition dans l'introduction à l'algèbre quantique dans le cadre du chapitre de Physique Quantique Ondulatoire) une valeur equation appartenant à un corps K tel que soit une matrice carréeequation nous avons:

equation   (13.207)

et réciproquement qu'un vecteur equation est un "vecteur propre" si et seulement si:

equation   (13.208)

L'avantage majeur de ces concepts sera la possibilité d'étudier une application linéaire, ou tout autre objet lié à une représentation matricielle, dans une représentation simple grâce à un changement de base sur laquelle la restriction de A est une simple homothétie (typiquement la résolution de systèmes d'équations différentielles simples).

En d'autres termes: lorsqu'une transformation (application d'une matrice) agit sur un vecteur, elle modifie la direction de ce vecteur excepté pour certaines matrices particulières qui ont des valeurs propres!

Ainsi, l'ensemble des valeurs propres d'une matrice equation est appelé "spectre de A" et satisfait au système homogène:

equation   (13.209)

 ou (peu importe cela revient au même!):

equation   (13.210)

equation (aussi notée equation) est pour rappel une matrice diagonale unitaire (et donc aussi carrée) de dimension n . Ce système nous le savons (démontré plus haut) admet des solutions non triviales, donc equation ou equation, si et seulement si (nous verrons de nombreux exemples en physique):

equation   (13.211)

soit que la matrice equation est non inversible (singulière).

Le déterminant equation est donc un polynôme en equation de degré n et peut donc avoir aux maximum n solutions/valeurs propres comme nous l'avons démontré lors de notre étude des polynômes (cf. chapitre de Calcul Algébrique) et est appelé "polynôme caractéristique" de A et l'équation equation "équation caractéristique de A" ou "équations aux valeurs propres".

Pour la petite parenthèse, il est sympathique de remarquer que nous avons toujours dans le développement du equation la trace de la matrice tr(A) et le déterminant det(A) qui apparaissent. Voyons deux exemples de cela:

equation   (13.212)

Ainsi, pour une matrice carré de dimension 2, les valeurs propres sont (simple résolution de l'équation du deuxième degré):

equation   (13.213)

Pour une matrice carrée de dimension 3 nous avons:

equation   (13.214)

et là... la solution est beaucoup moins simple dans le cas général...

Remarquons aussi au passage (nous généraliserons le résultat qui en découle lors de notre étude du théorème spectral) que puisque multiplier le système homogène:

equation   (13.215)

par -1 des deux côtés de l'égalité ne change rien au problème, alors nous avons:

equation   (13.216)

avec donc toujours le même signe devant le terme comportant la trace.

Puisque nous savons que les valeurs propres sont solutions de chacun des polynômes ci-dessus, nous avons alors:

equation   (13.217)

Soit par correspondace terme à terme il vient le résultat important en Statistique (particulièrement dans les techniques numériques) et que nous démontrerons donc de façon plus générale plus tard avec le théorème spectral:

equation   (13.218)

Si nous regardons equation comme une application linéaire f, puisque ce sont les solutions non triviales qui nous intéressent, nous pouvons alors dire que les valeurs propres sont les éléments equation tels que:

equation   (13.219)

et que le Kernel constitue l'espace propre de A de la valeur propre equation dont les éléments non nuls sont les vecteurs propres!

En mathématiques, le concept de vecteur propre est une notion algébrique qui s'applique donc à une application linéaire d'un espace dans lui-même. Il correspond à l'étude des axes privilégiés, selon lesquels l'application se comporte comme une dilatation, multipliant les vecteurs par une même constante. Ce rapport de dilatation/homothétie est donc la valeur propre, les vecteurs auxquels il s'applique vecteurs propres, réunis en un "espace propre".

Une autre manière de voir la chose:

- Un vecteur est dit "vecteur propre" par une application linéaire s'il est non nul et si l'application ne fait que modifier sa taille sans changer sa direction.

- Une "valeur propre" associée à un "vecteur propre" est le facteur de modification de taille, c'est à dire le nombre par lequel il faut multiplier le vecteur pour obtenir son image. Ce facteur peut être négatif (renversement du sens du vecteur) ou nul (vecteur transformé en un vecteur de longueur nulle).

- Un "espace propre" associé à une "valeur propre" est l'ensemble des vecteurs propres qui ont une même valeur propre et le vecteur nul. Ils subissent tous la multiplication par le même facteur.

Remarque: En mécanique, nous étudions les fréquences propres et les modes propres des systèmes oscillants (cf. chapitre de Mécanique Ondulatoire). En analyse fonctionnelle, une fonction propre est un vecteur propre pour un opérateur linéaire, c'est-à-dire une application linéaire agissant sur un espace de fonctions cf. chapitre d'Analyse Fonctionnelle). En géométrie ou en optique, nous parlons de directions propres pour rendre compte de la courbure des surfaces (cf. chapitre de Géométrie Non- Euclidiennes). En théorie des graphes, une valeur propre est simplement une valeur propre de la matrice d'adjacence du graphe (cf. chapitre de Théorie Des Graphes).

Avant de clore cette petite introduction sur les valeurs et vecteurs propres (nous y reviendrons plus loin), indiquons que puisqu'un vecteur propre doit satisfaire le système homogène:

equation   (13.220)

Rien ne nous empêche alors de multiplier le vecteur propre par une constante K qui le normalise à l'unité (technique souvent utilisée en statistique et méthodes numériques pour améliorer la précision flottante des algorithmes) puisque:

equation   (13.221)

Ainsi dans la pratique est d'usage si le vecteur propre s'explicite par exemple par:

equation   (13.222)

De le normaliser à l'unité en écrivant:

equation   (13.223)

MATRICES DE ROTATION

Maintenant que nous avons vu ce qu'était une valeur et un vecteur propre, revenons sur un type particulier de matrices orthogonales qui nous seront particulièrement utiles dans notre étude des quaternions (cf. chapitre sur les Nombres), des groupes et symétries (cf. chapitre d'Algèbre Ensembliste) et de la physique des particules (cf. chapitre de Physique des Particules Elémentaires).

Nous notons, selon ce qui a été vu dans le chapitre d'Algèbre Ensembliste, O(n) l'ensemble des matrices equation à coefficients dans equation orthogonales, c'est-à-dire vérifiant:

equation   (13.224)

que nous notons aussi pour rappel:

equation   (13.225)

Les colonnes et les lignes d'une matrice orthogonale forment des bases orthonormées de equation pour le produit scalaire habituel.

Le déterminant d'une matrice orthogonale vaut equation, en effet equation entraîne:

equation   (13.226)

Nous notons SO(n) l'ensemble des matrices orthogonales de déterminant 1. Montrons en trois points que si equation alors A est la matrice d'une rotation par rapport à un axe passant par l'origine.

1. Toute valeur propre d'une matrice de rotation A (réelle ou complexe) est de module 1. En d'autres termes, la rotation conserve la norme:

En effet, si equation est une valeur propre de vecteur propre equation, nous avons:

equation   (13.227)

ou en notant le produit scalaire avec la notation habituelle du site:

equation   (13.228)

donc equation.

2. Il existe une droite dans l'espace qui sert d'axe de rotation et tout vecteur sur cette droite ne subit aucune rotation:

Notons equation un vecteur propre normé de valeur propre 1 (c.à.d un vecteur tel que equation). Comme le lecteur l'aura peut-être compris (lire jusqu'au bout!), la droite engendrée par equation que l'on notera equation constitue notre axe de rotation.

En effet, tout vecteur sur equation est envoyé sur lui-même par A. Dans ce cas l'espace orthogonal noté equation qui est de dimension deux est le plan perpendiculaire à l'axe de rotation.

3. Tout vecteur perpendiculaire à l'axe de rotation reste, après une rotation, perpendiculaire à cet axe. En d'autres termes, equation est invariant par A

En effet, si equation alors, equation et pour tout equation:

equation   (13.229)

c'est-à-dire equation. Donc equation est invariant par A.

En fin de compte, la restriction de A à l'espace equation est une rotation.

exempleExemple:

Soit equation (voir le chapitre sur les nombres où la rotation par les complexes est démontré) une valeur propre (dont le module est de 1 comme nous l'avons vu lors de notre étude des nombres complexes) de A restreinte à equation.

Notons equation un vecteur propre avec equation de sorte que:

equation   (13.230)

avec (comme nous l'avons déjà montré dans notre étude des nombres complexes):

equation   (13.231)

où nous savons de par notre étude des nombres complexes, que les vecteurs equation forment une base orthogonale (pas nécessairement normée!) de equation.

Remarque: Il est par ailleurs aisé de vérifier que cette matrice est orthogonale (si ce n'est pas le cas contactez-nous et ce sera détaillé!).

THÉORÈME SPECTRAL

Voyons maintenant un théorème très important relativement aux valeurs et vecteurs propres qui se nomme le "théorème spectral" qui nous sera très utile à nouveau en physique et en statistiques ainsi que dans les chapitrse de Méthodes Numériques et Génie Industriel.

Pour résumer, les mathématiciens disent dans leur langage que le théorème spectral permet d'affirmer la diagonalisabilité d'endomorphismes (de matrices) et justifie également la décomposition en valeurs propres (appelée aussi "décomposition en valeurs singulières" abrégé "S.V.D.").

Remarque: La décomposition en valeurs singulières (S.V.D.) est cependant très générale, dans le sens où elle s'applique à toute matrice rectangulaire . La décomposition en valeurs propres, en revanche, ne fonctionne que pour certaines matrices carrées.

Pour simplifier la démonstration, nous ne traitons ici que les matrices réelles en évitant un maximum le langage des mathématiciens.

Nous noterons dans un premier temps equation l'ensemble des matrices equation à coefficients réels.

Nous confondrons la  matrice equationavec l'application linéaire induite sur l'espace vectoriel equation par:

equation    (13.232)

avec equation.

Rappel: Nous avons vu plus haut lors de l'étude des changements de base que si equation est une base de equation et equation alors la matrice de l'application linéaire M dans la base equation est:

equation    (13.233)

S est la matrice formée par les vecteurs colonnes equation.

D'abord, nous vérifions simplement que si A est une matrice symétrique alors (c'est trivial mais cela peut se vérifier avec un exemple à dimension 2 très rapidement):

equation   (13.234)

Nous nous proposons maintenant d'étudier les propriétés suivantes d'une matrice M symétrique:

P1. Toutes les valeurs propres de M sont réelles.

Démonstration:

Soit:

equation   (13.235)

un vecteur propre a priori complexe de valeur propreequation. Notons:

equation   (13.236)

le vecteur conjugué de equation. Nous avons alors:

equation   (13.237)

D'autre part vu queequation nous avons:

equation   (13.238)

Etant donné que equation nous avons equation et par suite, equation.

equationC.Q.F.D.

P2. Deux espaces propres de M relatifs à des valeurs propres différentes sont orthogonaux (en d'autres termes, les vecteurs propres sont indépendants).

Démonstration:

Soit equation deux valeurs propres distinctes de vecteurs propres correspondants equation. Nous avons (ne pas oublier que M est symétrique!):

equation   (13.239)

ainsi:

equation   (13.240)

ce qui entraîne:

equation   (13.241)

equationC.Q.F.D.

Avant d'aller plus loin, il nous faut aussi démontrer que si equation est une matrice symétrique et V un sous-espace vectoriel de equation invariant par M (c'est-à-dire qui vérifie pour tout equation) alors nous avons les propriétés suivantes:

P3. L'orthogonal de V noté equation (obtenu par la méthode de Gram-Schmidt vue dans le chapitre de Calcul Vectoriel) est aussi invariant par M.

Démonstration:

Soit equation etequation alors:

equation   (13.242)

ce qui montre que equation.

equationC.Q.F.D.

P4. Si equation est une base orthonormale de equation alors la matrice de la restriction de M à equation dans la base equation est aussi symétrique.

Démonstration:

Notons equation la matrice de la restriction de M à equation dans la base equation. Nous avons par définition pour tout equation (puisque le vecteur résultant d'une application linéaire comme M peut s'exprimer dans sa base):

equation   (13.243)

 Or:

equation   (13.244)

car:

equation    (13.245)

si equation dans la base orthonormale.

D'un autre coté:

equation   (13.246)

Donc:

equation    (13.247)

ce qui montre que:

equation   (13.248)

equationC.Q.F.D.

Nous allons à présent pouvoir montrer que toute matrice symétrique equation est diagonalisable. C'est-à-dire qu'il existe une matrice inversible S telle que le résultat du calcul:

equation   (13.249)

donne une matrice diagonale. Ce résultat est dans le présent texte une forme particulière du cas plus général (donc applicable aussi à des matrices rectangulaires) appelé "théorème de d'Eckart-Young".

Remarque: En fait nous verrons, pour être plus précis, qu'il existe S orthogonale telle que equation soit diagonale.

Rappel: S orthogonale signifie que equation (où I est la matrice identité) ce qui équivaut à dire que les colonnes de S forment une base orthonormale de equation.

Donc allons-y et pour cela considérons equation une matrice symétrique. Alors nous souhaitons démontrer qu'il existe une matrice S orthogonale telle que equation soit diagonale (en d'autres termes, il existe une base où M est diagonalisable).

Démonstration:

Nous prouvons l'affirmation par récurrence sur n. Si equation il n'y a rien à montrer. Supposons que l'affirmation soit vérifiée pour equation et prouvons là pour equation. Soit donc equation une matrice symétrique et equation une valeur propre de M.

Nous vérifions facilement que l'espace propre:

equation    (13.250)

est invariant par M  (il suffit de prendre n'importe quelle application numérique) et que par la démonstration vue plus haut que equation est aussi invariant par M. De plus, nous savons (cf. chapitre de Calcul Vectoriel), que equation se décompose en somme directe:

equation   (13.251)

Si:

equation   (13.252)

alors:

equation   (13.253)

et il suffit de prendre une base orthonormale de W pour diagonaliser M. En effet si  equation est une telle base, la matrice S formée par les vecteurs colonnes equation (equation) est orthogonale et vérifie:

equation   (13.254)

et equation est bien diagonale.

Supposons donc equation et soit equation avec equation une base orthonormale de equation. Notons A la matrice de la restriction de M à equation dans la base equation. A est aussi symétrique (selon la démonstration d'une des propriétés précédentes).

Par hypothèse de récurrence il existe une matrice equation orthogonale telle que equation soit diagonale.

Notons par equation une base orthonormale  de W  et G la matrice formée par les vecteurs colonnes equation. Alors, nous pouvons écrire que:

equation   (13.255)

et G est aussi orthogonale par construction.

Considérons la matrice par blocs (matrice composée de matrices) suivante:

equation   (13.256)

et posons:

equation   (13.257)

Il est évident que S est orthogonale  car G et L le sont. Effectivement, si:

equation et equation   (13.258)

alors (ne pas oublier que la multiplication matricielle est associative!!!):

equation   (13.259)

De plus S vérifie:

equation   (13.260)

Et  alors:

equation   (13.261)

est bien diagonale.

equationC.Q.F.D.

Pour finir voici donc enfin le fameux "théorème spectral" (cas réel):

Si equation une matrice symétrique alors il existe une base orthonormale formée de vecteurs propres de M.

Démonstration:

Nous avons donc vu dans les paragraphes précédents qu'il existe S orthogonale telle que equation soit diagonale si M est symétrique. Notons equation les colonnes de S. equation est une base orthonormale de equation car S est orthogonale. Notant equation le i-ème vecteur de la base canonique de equation et equation le i-ème coefficient diagonal de equation nous avons sans supposer directement que equation est une valeur propre pour l'instant:

equation   (13.262)

en multipliant par S des deux côtés de l'égalité nous avons:

equation   (13.263)

et donc:

equation

ce qui montre que equation sont des vecteurs propres et equation les valeurs propres.

equationC.Q.F.D.

Pour clore sur le théorème spectral, redémontrons donc un résultat vu plus haut mais qui avait été obtenu de façon peu rigoureuse (la somme des valeurs propres est égal à la trace d'une matrice):

equation   (13.264)

Le théorème spectral nous dit donc que pour tout matrice M symétrique, il existe une matrice orthogonale S telle que:

equation   (13.265)

est diagonale. Rien ne nous empêche alors de choisir la matrice diagonale résultante comme étant une matrice composée des valeurs propres dans la diagonale. Ce qui nous notons habituellement:

equation   (13.266)

et comme S est une matrice orthogonale réelle et que par définition nous avons qu'une matrice est orthogonale si et seulement si equation , alors nous trouvons la relation ci-dessous aussi fréquemment sous la forme suivante:

equation   (13.267)

Alors évidemment dès lors il faudra trouver S si M est imposé ou inversement. Bref, revenons à nos moutons et prenons la trace de cette relation:

equation   (13.268)

Alors en utilisant la propriété de la trace tr, de l'associativité de la multiplication matricielle, et de l'orthogonalité de S nous avons:

equation   (13.269)

Ce qui redémontre le résultat vu plus haut avec une condition qui pouvait ne pas être triviale: la matrice doit être symétrique (ou symétrisable)!

Nous avons aussi par extension:

equation   (13.270)

et donc en utilisant la propriété démontrée relativement au déterminant (lors de nos démonstrations des propriétés du déterminant) et aux matrices conjugées il vient:

equation   (13.271)

et donc si M est symétrique nous avons la propriété:

equation   (13.272)

En Savoir Plus

- Algèbre linéaire, R. Cairoli, Éditions Presses polytechniques et universitaires romandes, ISBN10: 2880741874 (325 pages) - Imprimé en 1993


Haut de page

CALCUL VECTORIELCALCUL TENSORIEL


Like8   Dislike0
78.6% sur 100%
Notée par 43 visiteur(s)
12345
Commentaires: [2] 
 
 


W3C - HTMLW3C - CSS Firefox
Ce travail est dans le domaine public
2002-2017 Sciences.ch

Haut de page