loadingPage en cours de chargement
    ACCUEIL | TÉLÉCHARGER | QCM | DON | ANNONCES | CHAT | FORUM | LIVRE D'OR | PARTENAIRES | CONTACT | BLOG
 
  Rechercher
  separation
  Introduction
  Arithmétique
  Algèbre
  Analyse
  Géométrie
  Mécanique
  Électrodynamique
  Atomistique
  Cosmologie
  Chimie
  Informatique Théorique
  Maths. Sociales
  Ingénierie
  separation
  Biographies
  Références
  Liens
  separation
  Humour
  Serveur d'exercices
  separation
  Parrains
3 connectés
News News :: Erreur Erreur :: Statistiques Visiteurs :: ClearType ClearType :: Imprimer Imprimer :: Bookmark and Share

Algèbre

CALCUL ALGÉBRIQUE | ALGÈBRE ENSEMBLISTE | CALCUL DIFFÉRENTIEL ET INTÉGRAL
SUITES ET SÉRIES | CALCUL VECTORIEL | ALGÈBRE LINÉAIRE | CALCUL TENSORIEL
CALCUL SPINORIEL

11. SUITES ET SÉRIES

Dernière mise à jour de ce chapitre: 2017-01-31 10:12:17 | {oUUID 1.692}
Version: 3.7 Révision 16 | Avancement: ~95%
viewsvues depuis le 2012-01-01: 12'131

Table des matières LISTE DES SUJETS TRAITÉS SUR CETTE PAGE

Les suites et séries ont une très grande importance dans la mathématique appliquée et c'est la raison pour laquelle nous y consacrons un chapitre entier. Nous les retrouverons par ailleurs souvent dans les différents chapitres de la section de Mécanique lorsque nous aurons besoin de faire quelques approximations mineures (...) ainsi qu'en dans les chapitres d'Économie et de Techniques de Gestion. Il conviendra cependant de la part du lecteur de ne pas confondre dans ce qui va suivre le concept de "suite" de celui de "série" qui tout en étant similaires sur le fond ne s'analysent mathématiquement pas toujours de la même manière.

Nous avons souhaité dans ce chapitre rester dans des choses simples sans trop partir dans les concepts topologiques des suites et séries. Cependant, la personne intéressée par des définitions plus rigoureuses pourra se reporter dans le chapitre traitant des Fractales (section d'Informatique Théorique) et de Topologie où de nombreux concepts sur les suites sont définis (supremum, infimum, sous-suite, théorème de Bolzano-Weierstrass, etc.).

SUITES

Définition: Une "suite" d'un ensemble est une famille d'éléments indexée par l'ensemble des entiers naturels (cf. chapitre sur les Nombres) ou par une partie de celui-ci. De manière vulgarisée, nous disons qu'une suite est une liste d'objets mis en ordre, chacun ayant un numéro d'ordre. Nous notons classiquement une suite par:

equation ou equation   (11.1)

où l'indexation se fait parfois (par tradition...) sans le 0.

Pour quelques suites, nous indiquons le premier terme equation(si l'indexation commence par 1 au lieu de 0), ainsi qu'une formule pour obtenir n'importe quel terme equation à partir du terme précédent equation quel que soit equation. Nous appelons une telle formulation une "définition récurrente", et la suite est dite définie "par récurrence" (et de même si elle est indexée à partir de 0 au lieu de 1).

Avant de voir quelques exemples de familles de suites qui seront utilisées dans les différents chapitres du site (Dynamiques des populations, Économie, Physique nucléaire, etc.) voyons un petit paquet de définitions comme il est de tradition en mathématique...

Définitions:

D1. Des nombres (en suite) sont en "progression arithmétique" si la différence de deux termes consécutifs est une constante r appelée la "raison".

D2. Des nombres (en suite) sont en "progression géométrique" si le rapport de deux termes consécutifs est une constante r appelée aussi la "raison".

D3. Des nombres (en suite) sont en "progression harmonique" si les inverses de deux termes consécutifs sont en progression arithmétique.

Dès lors, une "suite" est arithmétique, géométrique, harmonique si ses termes sont respectivement en progression arithmétique, géométrique, harmonique et b est la moyenne arithmétique, géométrique, harmonique de a et c si les nombres a, b, c sont en progression arithmétique, géométrique, harmonique.

Remarque: Pour les définitions des moyennes citées ci-dessus voir le chapitre de Statistiques

D4. Une "suite majorée", est une suite telle qu'il existe un réel M tel que equation

D5. Une "suite minorée", est une suite telle qu'il existe un réel m tel que equation

D6. Une "suite bornée", est une suite telle qu'elle est à la fois majorée et minorée.

D7. Une suite equation est appelée "suite croissante" si equation

D8. Une suite equation est appelée "suite décroissante" si equation

D9. Si une suite est croissante ou décroissante, nous disons qu'elle est "monotone".

D10. Une suite equation est appelée "suite constante" si equation

SUITES ARITHMÉTIQUES

Définition: Nous disons que des nombres ou que des "termes" en progression forment une "suite arithmétique" lorsque leurs valeurs numériques différent d'une valeur r appelée la "raison" de la suite telle que:

equation   (11.2)

r est donc la "raison" de la progression. Nous avons alors bien évidemment si l'indexation commence à partir de 0:

equation   (11.3)

Ainsi, la suite:

equation   (11.4)

n est une constante est une suite arithmétique de raison equation.

La suite:

equation   (11.5)

est une suite arithmétique de raison equation, etc.

Ainsi, si nous notons par equation un terme quelconque de la suite (equation) de raison r, nous avons:

equation   (11.6)

Nous avons les propriétés suivantes pour un tel type de suite:

P1. Un terme dont le rang est la moyenne arithmétique des rangs de deux autres termes est la moyenne arithmétique de ces deux termes. 

Démonstration:

Considérons maintenant (equation) une suite arithmétique de raison r donnée selon le développement précédent:

equation   (11.7)

et soient equation tels que equation, nous avons alors:

equation   (11.8)

et donc:

equation avec equation   (11.9)

equationC.Q.F.D.

P2. Pour trois termes consécutifs en progression arithmétique, le deuxième terme est la moyenne arithmétique des deux autres.

Démonstration:

equation avec equation   (11.10)

equationC.Q.F.D.

Si equation est une progression arithmétique de raison r, alors la n-ème somme partielle equation (c'est-à-dire, la somme des n premiers termes à la puissance 1) est donnée par:

equation ou equation   (11.11)

lorsque l'indexation se fait à partir de 1.

Démonstration:

Nous pouvons écrire la série:

equation   (11.12)

En jouant avec la deuxième ligne, nous obtenons:

equation   (11.13)

Ce qui se simplifie encore:

equation   (11.14)

Nous démontrerons quelques lignes plus bas que la série de Gauss simple:

equation   (11.15)

est égale à:

equation   (11.16)

Nous avons alors in extenso pour:

equation   (11.17)

la relation suivante:

equation   (11.18)

Il vient alors:

equation   (11.19)

Nous voyons avec cette dernière relation que si equation nous retombons sur la série de Gauss simple.

Comme:

equation   (11.20)

lorsque l'indexation se fait à partir de 1. Il vient alors:

equation   (11.21)

equationC.Q.F.D.

Nous verrons d'autres types de sommations un peu plus bas lors de notre étude des séries!

SUITES HARMONIQUES

Définition: Nous disons que des nombres (1/a, 1/b, 1/c,...) forment une "suite harmonique" lorsque leurs inverses sont en progression arithmétique. Nous représentons cette progression par:

equation   (11.22)

a, b, c, ..., h, k, l  désignent des termes au dénominateur en progression arithmétique de raison r. D'ailleurs, nous supposerons, dans ce qui suit, qu'il n'y a aucun dénominateur nul.

En partageant cette série en groupes renfermant successivement equation termes, nous observons que chacun de ceux-ci est plus grand que le dernier de son groupe:

equation   (11.23)

et que la somme des termes de chaque groupe est plus grande que 1/2 . La somme des termes de la série augmente donc indéfiniment; nous disons alors que la série est une "série divergente" (nous reviendrons plus en détail sur ces concepts de convergence et divergence plus bas).

SUITES GÉOMETRIQUES

Définition: Une "suite géométrique" est une suite de nombres tels que chacun d'eux est égal au précédent n multiplié par un nombre constant q que nous appelons la "raison" de la progression. Nous désignerons par:

equation   (11.24)

Ainsi, si nous notons par equation un terme quelconque de la suite (equation), nous avons (trivial):

equation   (11.25)

Voici quelques propriétés pour un tel type de suite (sans démonstration pour l'instant... sauf demande car triviales pour la plupart):

P1. (triviale) Le quotient de deux termes d'une même suite est une puissance de la raison dont l'exposant égale la différence des rangs des deux termes (simple rapport de termes de puissance). 

P2. (triviale) Si nous multiplions ou divisons terme à terme deux suites géométriques, nous obtenons une troisième suite géométrique dont la raison égale le produit (respectivement le quotient) des raisons des progressions données (simple opération avec les raisons des deux séries d'origine).

P3. Dans une suite géométrique, un terme dont le rang est la moyenne arithmétique des rangs de deux autres termes est la moyenne géométrique (cf. chapitre de Statistiques) de ces deux termes (relisez plusieurs fois au besoin).

Démonstration:

Soit une suite géométrique réelle positive de raison q, nous avons:

equation   (11.26)

Soient a,b deux termes de la suite géométrique, nous avons alors:

equation   (11.27)

et ainsi:

equation   (11.28)

equationC.Q.F.D.

Nous avons comme corolaire que pour trois termes consécutifs en progression géométrique, le deuxième terme est la moyenne géométrique des deux autres.

Démonstration:

equation   (11.29)

avec:

equation   (11.30)

equationC.Q.F.D.

Il existe cependant quelques suites particulières qui ont des propriétés particulières que nous retrouvons très fréquemment en mathématique ou physique théorique. Sans trop entrer dans les détails, voici une petite liste (non exhaustive de ces dernières):

SUITE DE CAUCHY

Il est souvent intéressant pour le mathématicien, autant que pour le physicien, de connaître les propriétés d'une suite ayant un type de progression donnée. La propriété la plus importante étant la limite vers laquelle elle tend.

Remarque: Le lecteur qui n'est pas à l'aise avec la topologie peut sauter le texte qui va suivre en attendant... et celui qui souhaite en savoir plus sur les suites de Cauchy peut se reporter au chapitre de Topologie et particulièrement au chapitre consacré aux Fractales (section d'Informatique Théorique).

Définition: Soit (X, d) un espace métrique (cf. chapitre de Topologie), nous disons que la suite:

equation   (11.31)

converge vers equation si par définition:

equation   (11.32)

En d'autres termes plus nous avançons dans la suite, plus les points sont proches (au sens de la métrique d ) les uns des autres.

Cependant la définition précédente de la convergence pose problème car la limite x doit être connue. Dans la plupart des cas intéressants, x est malheureusement inconnue. Pour sortir de cette impasse, Cauchy a l'idée de proposer la définition suivante:

Nous disons par définition que la suite equation d'éléments de X est une "suite de Cauchy" si:

  equation   (11.33)

Il est clair alors que toute suite convergente est une suite de Cauchy (bon il y a quelques subtilités auxquelles nous ne ferons pas référence pour l'instant).

Remarque: Ce critère facilite certaines démonstrations car il permet de montrer l'existence d'une limite sans faire intervenir sa valeur, en général inconnue.

Maintenant, montrons qu'une suite convergente est de Cauchy.

Démonstration:

Soit une suite equation convergeant vers l (qui nous est inconnu donc!) et equation (choisi au hasard). Il existe alors selon la définition d'une suite convergente, equation tel que:

equation   (11.34)

le choix d'écrire equation est complètement arbitraire mais au fait nous anticipons juste le résultat de la démonstration afin que celui-ci soit plus esthétique.

Alors pour equation (au fait connaître le N en question importe peu puisque cela doit marcher pour n'importe lequel... bon n'oublions pas quand même que N dépend de equation) nous avons selon l'inégalité triangulaire (cf. chapitre de Calcul Vectoriel):

equation   (11.35)

et puisque equation:

equation   (11.36)

ce qui revient à écrire:

equation   (11.37)

C'est peut-être un peu abstrait alors voyons un exemple avec la suite harmonique (divergente comme nous le savons déjà) equation. D'abord, rien ne nous interdit de prendre equation (sinon cela va être dur de faire une différence entre deux termes...).

Dès lors nous prenons la distance euclidienne:

equation   (11.38)

D'abord le lecteur remarquera que dans tous les cas equation puisque compris entre equation et 2n. Ce qui nous amène à pouvoir écrire:

equation   (11.39)

Donc à partir de cette égalité il vient automatiquement que chaque terme de la somme de gauche ci-dessous sera plus grand que chaque terme de la somme de droite suivant:

equation avec equation   (11.40)

maintenant l'idée est de voir que la somme de gauche est donc plus grande ou égale à equation et cela quel que soit n. Ainsi, l'idée c'est que nous ayons trouvé un epsilon pour lequel le critère de Cauchy est mis en défaut. Car dans le cas contraire nous aurions dû avoir:

equation   (11.41)

donc la suite n'est pas convergente.

equationC.Q.F.D.

Donc, ce n'est pas parce que des points se rapprochent les uns des autres qu'ils convergent vers un point, car ce point n'existe peut-être pas.

exempleExemple:

Le meilleur exemple est certainement le suivant:

Prenons equation et:

equation   (11.42)

Soit z un nombre irrationnel et equation, avec equation.

Les equation forment une suite de Cauchy. En effet:

equation   (11.43)

et donc equation si equation. Nous avons donc trouvé un N qui satisfait à notre définition d'une suite de Cauchy. Or cette suite ne converge pas dans equation sinon z serait rationnel.

Remarque: Les mathématiciens utilisent ce fait pour définir l'ensemble des irrationnels en utilisant quelques concepts topologique supplémentaires.

Nous venons de voir qu'une suite de Cauchy n'est pas forcément une suite convergente dans X. La réciproque toutefois est vraie: toute suite convergente est une suite de Cauchy.

SUITE DE FIBONACCI

Si nous calculons une suite de nombres commençant par 0 et 1, de telle sorte que chaque terme soit égal à la somme des deux précédents, nous pouvons former la suite:

0, 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144...   (11.44)

par conséquent, si nous désignons les différents termes par:

equation   (11.45)

nous avons la loi de formation:

equation   (11.46)

La suite de Fibonacci possède des propriétés nombreuses fortes intéressantes, qui seront développées ultérieurement. Il s'agit cependant de la première "suite récurrente" connue (d'où le fait que nous en parlions sur ce site).

L'origine de cette suite viendrait d'un problème de lapins posé à Fibonacci en 1202. Partant d'un couple, combien de couples de lapins obtiendrons-nous après un nombre donné de mois sachant que chaque couple produit chaque mois un nouveau couple, lequel ne devient productif qu'après deux mois. Nous avons alors:

- Début: Un couple de bébés lapins qui vont grandir

- Premier mois: Un couple de lapins adultes (qui feront des bébés le mois prochain...)

- Deuxième mois: Un couple de lapins adultes et un couple de bébés donc 2 couples

- Troisième mois: Deux couples de lapins adultes et un couple de bébés donc 3 couples

- Quatrième mois: Trois couples de lapins adultes et deux couples de bébés donc 5 couples.

etc.

Prenons un exemple réel, cette fois-ci: le coeur de certaines fleurs, les écailles d'un ananas ou d'une pomme de pin forment deux familles de spirales enroulées en sens inverse. Sur une pomme de pin, vous compterez 5 spirales dans un sens et 8 dans l'autre, sur l'ananas, 8 et 13, sur la fleur de tournesol 21 et 34. Chaque fois, nous obtenons des nombres de Fibonacci !

Une illustration de ceci consiste à faire le simple schéma suivant (appelé "spirale de Fibonacci") qui reproduit les nombres de Fibonacci sur un plan quadrillé:


Figure: 11.1 - Spirale de Fibonacci

Nous utilisons également ce genre de suite pour montrer l'utilité du principe d'induction présenté dans le chapitre de Théorie Des Nombres se trouvant dans la section d'Arithmétique ainsi qu'un cas d'application d'échauffement pour la transformée en Z (cf. chapitre d'Analyse Fonctionnelle).

SÉRIES

Le physicien a souvent besoin pour résoudre simplement et formellement des problèmes, d'approximer certains "termes" (cf. chapitre de Théorie De La Démonstration) de ses équations. Pour cela, il utilisera les propriétés de certaines séries. 

Il existe, une quantité phénoménale de séries et de théories gravitant autour de ces dernières, mais nous citerons en particulier les séries de Taylor (utilisées un peu partout), les séries de Fourier (théorie du signal et en mécanique ondulatoire) et les séries ou fonctions de Bessel (physique nucléaire) dont nous ferons une étude sommaire ici.

Définition: Soit donnée une suite numérique infinie:

equation   (11.47)

L'expression:

equation   (11.48)

est appelée "série numérique".

Définition: La somme partielle des n premiers termes de la série est appelée "somme partielle" et notée equation:

equation   (11.49)

Si la limite notée S suivante existe et est finie:

equation   (11.50)

nous l'appelons la "somme de la série" et nous disons que la "série converge" (elle est donc de Cauchy). Cependant, si la limite n'existe pas, nous disons que la "série diverge" et n'a pas de somme (pour plus de détails voir le  sous-chapitre plus loin traitant des critères de convergence).

Montrons par ailleurs que si equation est une série numérique convergente alors:

equation   (11.51)

Démonstration:

Nous supposons d'abord que equation est bien une série convergente et notons par S sa limite. Posons:

equation   (11.52)

Alors:

equation   (11.53)

Or, si la série est convergente:

equation   (11.54)

Donc:

equation   (11.55)

equationC.Q.F.D.

Voyons comment calculer la somme partielle des quelques séries classiques:

SÉRIES DE GAUSS

Les séries arithmétiques de Gauss sont  l'expression de la somme de n premiers entiers non nuls élevés à une puissance donnée sous une forme condensée. L'application de cette forme condensée de série a une utilité pratique en physique (voir les chapitres y relatifs) lorsque l'on souhaite simplifier l'expression de certains résultats ainsi que dans les chapitre de Statistiques lors de notre étude des statistiques non paramétriques.

Gauss avait trouvé une méthode séduisante en 1786 pour déterminer cette expression lorsqu'il avait 9 ans (...):

equation   (11.56)

En simplifiant, nous trouvons facilement:

equation   (11.57)

pour equation. Indiquons que chaque somme intermédiaire de la série (1, 3, 6, 10, 15, etc.) est appelée "nombre triangulaire" puisqu'il est possible de le représenter sous la forme suivante:


Figure: 11.2 - Nombres triangulaires 1, 3, 6, 10 et 15

Nous pouvons continuer ainsi pour des ordres supérieurs (nous les présentons non en tant qu'exercices mais parce que ces relations sont utiles!):

Calculons maintenant le cas très important que nous retrouverons dans un certain nombre d'autres chapitres (Économie, Physique Quantique Ondulatoire, etc.) et qui est la somme des n premiers carrés (toujours non nuls).

Posons pour cela:

equation   (11.58)

nous savons que (binôme de Newton):

equation   (11.59)

nous pouvons donc écrire et ajouter membre à membre les n égalités suivantes:

equation   (11.60)

Avec quelques manipulations algébriques élémentaires:

equation   (11.61)

d'où:

equation   (11.62)

Finalement:

equation   (11.63)

Terminons avec la somme des n premiers cubes (non nuls). Le principe étant le même que précédemment, nous posons:

equation   (11.64)

Nous savons par ailleurs que (binôme de Newton):

equation   (11.65)

Nous obtenons en faisant varier k de 1 à n, n relations que nous pouvons ajouter membre à membre:

equation   (11.66)

Nous avons donc:

equation   (11.67)

Ce qui donne après développement:

equation   (11.68)

Et après une première simplification:

equation   (11.69)

et une deuxième:

equation   (11.70)

Le résultat final est donc:

equation   (11.71)

ou écrit autrement:

equation   (11.72)

Évidemment, nous pouvons continuer ainsi longtemps mais à partir d'une certaine valeur de l'élévation de la puissance les choses se compliquent un petit peu (de plus, la méthode est un peu longue). Ainsi, un des membres de la famille des Bernoulli (c'était une famille de mathématiciens assez doués...) a montré une relation générale fonctionnant pour n'importe quelle puissance en définissant ce que nous appelons le "polynôme de Bernoulli".

Terminons avec un dernier cas particulier dont nous aurons besoin lors de notre étude des séries de Fourier. Nous posons:

equation   (11.73)

Nous voulons exprimer cette expression sous forme de fraction rationnelle. Pour ce faire, nous multiplions tout par equation. Nous avons donc les deux expressions:

equation   (11.74)

Nous soustrayons la première de la deuxième:

equation   (11.75)

Finalement:

equation   (11.76)

De même, pour les besoin du chapitre d'Économie, nous avons:

equation   (11.77)

Soit:

equation   (11.78)

Finalement:

equation   (11.79)

NOMBRES ET POLYNÔMES DE BERNOULLI

Comme nous venons de le voir plus haut il est possible d'exprimer la somme des n premiers entiers non nuls élevés à une puissance donnée selon (les quatre premiers ont été démontrés précédemment) les relations suivantes où nous avons posé equation avec n' le nombre de termes dont nous voulons la somme 0 non compris (d'où le signe négatif que nous n'avions pas plus haut):

equation   (11.80)

Jacob Bernoulli remarqua ensuite que les polynômes equation avaient la forme:

equation   (11.81)

Dans cette expression, les nombres equation semblent ne pas dépendre de p. Plus généralement, après tâtonnement on remarque que le polynôme peut être écrit sous la forme:

equation   (11.82)

Ce qui donne par identification les "nombres de Bernoulli":

equation   (11.83)

Par la suite, les mathématiciens dans leurs recherches sont tombés au hasard sur le fait que les nombres de Bernoulli pouvaient être exprimés par la série:

equation avec equation   (11.84)

En d'autres termes, la fonction génératrice des nombres de Bernoulli serait G(z). Si nous développons les premiers termes de cette série:

equation   (11.85)

Démonstration:

Nous avons vu dans notre étude des nombres complexes (cf. chapitre sur les Nombres) que:

equation   (11.86)

Dès lors:

equation   (11.87)

Posons maintenant:

equation   (11.88)

Nous avons alors:

equation  (11.89)

Nous voyons (en distribuant) que:

equation   (11.90)

par suite pour que tout cela soit égal à l'unité il faut que:

equation   (11.91)

De la deuxième équation nous tirons:

equation   (11.92)

De la troisième équation nous tirons:

equation   (11.93)

etc.

En continuant ainsi nous montrons que:

equation...   (11.94)

Il est évident que cette méthode ne nous permet de calculer à la main que les premiers termes de cette série.

Ainsi, en se basant sur:

equation   (11.95)

nous trouvons que les premiers nombres de Bernoulli sont les suivants:

k

equation

0

1

1

−1/2

2

1/6

3

0

4

−1/30

5

0

6

1/42

7

0

8

−1/30

9

0

10

5/66

11

0

12

−691/2730

13

0

14

7/6

Tableau: 11.1  - Nombres de Bernoulli

Le lecteur aura remarqué que equation lorsque n est impair et différent de 1.

equationC.Q.F.D.

Nous voyons bien par ailleurs, que les valeurs des nombres de Bernoulli ne peuvent pas être décrites simplement. En fait, ce sont essentiellement des valeurs de la fonction ζ de Riemann (voir plus bas) pour des valeurs entières négatives de la variable, et ces nombres sont associés à des propriétés théoriques profondes qui dépassent le cadre d'étude de ce site. Par ailleurs, les nombres de Bernoulli apparaissent également dans le développement en série de Taylor des fonctions tangentes circulaire et hyperbolique, dans la formule d'Euler-Maclaurin (voir plus bas).

Avec une petite modification, il est possible de définir les "polynômes de Bernoulli" equation par:

equation   (11.96)

avec donc:

equation   (11.97)

Par ailleurs, il est aisé de remarquer que:

equation   (11.98)

et donc il est facile d'en déduire:

equation   (11.99)

Démonstration:

D'un côté nous avons:

equation   (11.100)

et d'un autre nous avons:

equation  (11.101)

Donc:

equation   (11.102)

equationC.Q.F.D.

Et par identification des coefficients nous en déduisons:

equation   (11.103)

et pour equation:

equation   (11.104)

Il est alors aisé de déduire que les equationsont des polynômes de degré k:

equation   (11.105)

Voici un tracé de ces polynômes:

equation
Figure: 11.3 - Quelques polynômes de Bernoulli

Ce qui est remarquable c'est qu'à l'aide des polynômes de Bernoulli, nous voyons qu'il est possible d'écrire les equation sous la forme suivante:

equation   (11.106)

Certains écrivent cette relation encore autrement. Effectivement, de la relation précédente, nous pouvons écrire:

equation   (11.107)

Et en utilisant:

equation   (11.108)

Il vient:

equation   (11.109)

Donc nous venons de démontrer:

equation   (11.110)

Cependant, nous pouvons maintenant nous demander ce qu'il advient de la somme partielle de suites arithmétiques et géométriques telles que présentées au début de ce chapitre.

SÉRIES ARITHMÉTIQUES

Nous avons démontré plus haut que la somme partielle de la série de Gauss (analogue à la somme des termes d'une suite arithmétique de raison = 1) s'écrivait donc:

equation   (11.111)

si nous notons non pas n la valeur du n-ème terme mais equation, le développement que nous avions fait pour la série de Gauss nous amène alors à:

equation   (11.112)

et si nous notons le premier terme 1 de la série de Gauss par equation, nous avons alors:

equation   (11.113)

ce qui nous donne la somme partielle des n-termes d'une suite arithmétique de raison r quelconque (ou plus simplement: la somme partielle de la série arithmétique de raison r).

Remarque: Le lecteur aura observé que la raison r n'apparaît pas dans la relation. Effectivement, en reprenant (toujours) le même développement fait que pour la série de Gauss, le terme r se simplifie.

SÉRIES GÉOMÉTRIQUES

De même, avec un somme géométrique où nous avons pour rappel:

equation   (11.114)

nous avons donc:

equation   (11.115)

La dernière relation s'écrit (après simplification):

equation   (11.116)

et si equation, nous avons:

equation   (11.117)

ce qui peut s'écrire en factorisant equation:

equation   (11.118)

Si q est positif et inférieur à 1, lorsque n tend vers l'infini nous avons le résultat qui sera très utilisé dans le chapitre d'Économie:

equation   (11.119)

exempleExemple:

Soit la suite de raison q=2 suivante:

equation   (11.120)

pour calculer la somme des quatre premiers termes equation, nous prenons la puissance de 2 équivalent de equation (le zéro n'étant pas pris en compte). Nous obtenons alors bien equation.

FONCTION ZÊTA ET IDENTITÉ D'EULER

L'allemand Riemann a baptisé "zêta" une fonction déjà étudiée avant lui, mais qu'il examine lorsque la valeur est un nombre complexe (cf. chapitre sur les Nombres). Cette fonction se présente comme une série de puissances inverses de nombres entiers. C'est la série:

equation   (11.121)

Remarque: Il est traditionnel de noter s la variable dont dépend cette série.

Cette série a une propriété intéressante mais si l'on reste dans le cadre des puissances entières positives et non nulles:

equation   (11.122)

quand equation nous avons alors:

equation   (11.123)

Si nous faisons equation, nous obtenons la somme des puissances inverses de 2 et de même avec equation tel que:

equation   (11.124)

Si nous faisons le produit de ces deux expressions, nous obtenons la somme des puissances de toutes les fractions dont le dénominateur est un nombre produit de 2 et de 3:

equation   (11.125)

Si nous prenons tous les nombres premiers à gauche, nous obtiendrons à droite tous les nombres entiers, puisque tout entier est produit de nombres premiers selon le théorème fondamental de l'arithmétique (cf. chapitre de Théorie Des Nombres), et c'est l'identité fondamentale d'Euler: ce que nous appelons maintenant la "fonction zêta de Riemann" est à la fois un produit fini et la somme des puissances inverses de tous les entiers:

equation   (11.126)

En notation condensée, "l'identité d'Euler" est:

equation   (11.127)

p sont les nombres premiers.

Nous proposons maintenant au lecteur de sauter ce qui va suivre concernant la fonction zêta de Riemann et d'y revenir une fois les séries de Fourier présentées plus bas dans ce chapitre maîtrisées et comprises.

Nous supposons pour ce qui va suivre que les séries de Fourier sont maintenant connues et que l'égalité de Parseval a été étudiée (puisqu'elle est aussi démontrée plus bas). Nous allons chercher à déterminer la fonction zêta de Riemann pour deux valeurs (s valant respectivement 2 et 4) qui nous seront utiles lors de la valorisation d'intégrales dans certains chapitres de la section de Mécanique.

Pour déterminer la valeur de equation, nous allons exprimer la fonction:

equation   (11.128)

sous forme de série de Fourier (voir un peu plus loin dans ce même chapitre ). Lors de notre étude des séries de Fourier nous verrons qu'il y a deux manières traditionnelles de définir une série de Fourier et que nous avons fait ici le choix de la définition d'usage le plus courant chez les physiciens et ingénieurs:

equation   (11.129)

Comme nous le démontrerons lors de notre étude des séries de Fourier, les coefficients de Fourier equation s'obtiennent en résolvant:

equation   (11.130)

et en utilisant l'intégration par parties (cf. chapitre de Calcul Différentiel Et Intégral). Nous avons alors:

equation   (11.131)

Il vient alors:

equation   (11.132)

Mais le théorème de Parseval que nous démontrerons lors de notre étude des séries de Fourier nous donne aussi (suivant le choix de la définition de la série de Fourier et des coefficients associés, le théorème de Parseval s'exprime un peu différemment!):

equation   (11.133)

Il vient alors immédiatement:

equation   (11.134)

Mais nous verrons aussi lors de notre démonstration du théorème de Parseval que:

equation   (11.135)

Il vient alors dans notre cas:

equation   (11.136)

Donc:

equation   (11.137)

et:

equation   (11.138)

Pour déterminer la valeur de equation, nous allons procéder de même, mais avec la fonction:

equation   (11.139)

sous forme de série de Fourier:

equation   (11.140)

Pour cela, nous allons calculer les coefficients de Fourier en utilisant l'intégration par parties (cf. chapitre de Calcul Différentiel Et Intégral):

equation   (11.141)

Il vient alors:

equation   (11.142)

Mais le théorème de Parseval que nous verrons donc plus loin nous donne aussi:

equation   (11.143)

Il vient alors immédiatement:

equation   (11.144)

Mais nous verrons aussi vu lors de notre démonstration du théorème de Parseval que:

equation   (11.145)

Il vient alors dans notre cas:

equation   (11.146)

Donc:

equation   (11.147)

et au final:

equation   (11.148)

SÉRIES DE TAYLOR ET DE MACLAURIN

Les séries de Taylor et de Maclaurin constituent un outil pratique très puissant pour simplifier des modèles théoriques ou des calculs informatiques (modélisation de fluides ou champs dans l'espace). Elles sont utilisées énormément dans tous les domaines de la physique mais on les retrouve aussi dans l'industrie notamment en ingénierie (plans d'expérience, méthodes numériques, gestion de la qualité), statistiques (approximations d'intégrales), finance (processus stochastiques), analyse complexe... Nous conseillons donc vivement au lecteur de bien lire les développements qui vont suivre.

Soit un polynôme (à une variable):

equation   (11.149)

Nous avons trivialement pour ce dernier:

equation   (11.150)

Soit maintenant la dérivée du polynôme P(x):

equation   (11.151)

donc:

equation   (11.152)

et ainsi de suite avec P''(x),P'''(x),... tel que:

 equation   (11.153)

Il s'ensuit que:

equation   (11.154)

Donc finalement notre polynôme peut s'écrire:

equation   (11.155)

relation que nous appelons "série de Maclaurin limitée" ou tout simplement "série de Maclaurin" d'ordre + 1.

Remarque: Dans la pratique, comme nous le verrons dans de nombreux autres chapitres de ce site, nous utiliserons fréquemment des développements limités d'ordre 1 (encore appelés "approximations affines", ou "approximations affines tangentes"), qui permettent de faciliter les calculs, lorsque nous n'exigons pas une trop grande précision.

En appliquant maintenant le même raisonnement mais en centrant le polynôme sur la valeur equation, nous avons:

equation   (11.156)

et ainsi le développement précédent devient:

equation   (11.157)

qui n'est d'autre que l'expression générale d'un polynôme exprimé sous une forme dite de "série de Taylor limitée" d'ordre + 1. Cette fonction peut être assimilée à un polynôme tant que n est fini. Mais si n est infini, comme nous le verrons plus loin, cette série converge vers la fonction dont nous cherchons la représentation sous forme de somme de termes.

Ainsi, certaines fonctions f(x) pouvant être approchées par un polynôme P(x) (une somme de puissances autrement dit...) centré sur la valeur equation peuvent être exprimées sous la forme:

equation   (11.158)

Relation souvent designée sous le nom de "théorème de Taylor".

Par contre cette dernière relation n'est pas juste pour toutes les fonctions ne pouvant pas s'exprimer sous forme de polynômes. Dès lors nous disons que la série n'est pas convergente pour ces dernières. Nous en verrons un exemple plus bas.

La dernière relation s'écrit aussi de manière plus conventionnelle...:

equation   (11.159)

Dans la finance (et pas que!), nous utiliserons souvent le réarrangement suivant:

equation   (11.160)

Revenons brièvement à l'approximation de f(x) proche et centrée en equation:

equation   (11.161)

Certaines personnes n'aiment pas utiliser cette formulation car on risque d'oublier que l'approximation pour quelques termes n'est bonne que tant que l'on ne s'éloigne pas trop de equation avec x. Raison pour laquelle il arrive souvent que nous posions:

equation   (11.162)

avec equation fixé et h variable mais petit (!) et ainsi il vient alors une forme d'écriture courante des séries de Taylor:

equation   (11.163)

Voyons un exemple d'application avec une série de Maclaurin (avec equation étant nul) de la fonction sin(x) et Maple 4.00b:

>p[n](x) = sum((D@@i)(f)(a)/i!*(x-a)^i,i=0..n);
>p11:= taylor(sin(x),x=0,12);
>p11:= convert(p11,polynom);
>with(plots):
>tays:= plots[display](sinplot):
for i from 1 by 2 to 11 do
tpl:= convert(taylor(sin(x), x=0,i),polynom):
tays:= tays,plots[display]([sinplot,plot(tpl,x=-Pi..2*Pi,y=-2..2,
color=black,title=convert(tpl,string))]) od:
>plots[display]([tays],view=[-Pi..2*Pi,-2..2]);

equation
Figure: 11.4 - Approximation de la fonction sinus par un développement de Maclaurin sur Maple 4.00b

Nous voyons donc bien dans cet exemple que la série de Maclaurin ne permet que d'approcher une fonction en un point avec un nombre limités de points. Mais plus nous prenons de termes (mettre 100 termes dans l'exemple précédent) plus la validité est grande sur tout le domaine de définition de la fonction. Au fait il est possible de démontrer que la fonction sin(x) est exactement exprimable en série de Maclaurin lorsque le nombre de termes est infini. Nous disons alors que son "reste" est nul.

Par contre ceci n'est pas vrai pour toutes les fonctions. Par exemple avec la fonction:

equation   (11.164)

>p[n](x) = sum((D@@i)(f)(a)/i!*(x-a)^i,i=0..n);
>p10:= taylor(1/(1-x^2),x=0,10);
>p10:= convert(p10,polynom);
>with(plots):
>tays:= plots[display](xplot):
for i from 1 by 2 to 10 do
tpl:= convert(taylor(1/(1-x^2), x=0,i),polynom):
tays:= tays,plots[display]([xplot,plot(tpl,x=-2..2,y=-2..2,
color=black,title=convert(tpl,string))]) od:
>plots[display]([tays],view=[-2..2,-2..2]);

equation
Figure: 11.5 - Contre-exemple d'approche par Maclaurin sur Maple 4.00b

Nous voyons bien ci-dessus que peu importe le nombre de termes que nous prenons, la série de Maclaurin converge seulement dans un domaine de définition compris entre ]-1,1[. Cette intervalle est appelé le "rayon de convergence" et sa détermination (celle des singularités) est un point crucial dans de nombreux domaines de l'ingénierie, de la physique et de l'analyse. Nous y reviendrons plus en détails dans le chapitre d'Analyse Complexe.

Par contre nous pouvons décaler la série de Maclaurin de la fonction précédente afin d'approcher la fonction avec une série de Taylor en un autre point non singulier comme par exemple en equation valant 2:

>p[n](x) = sum((D@@i)(f)(a)/i!*(x-a)^i,i=0..n);
>p10:= taylor(1/(1-x^2),x=2,10);
>p10:= convert(p10,polynom);
>with(plots):
>tays:= plots[display](xplot):
for i from 1 by 2 to 10 do
tpl:= convert(taylor(1/(1-x^2), x=2,i),polynom):
tays:= tays,plots[display]([xplot,plot(tpl,x=0..5,y=-2..2,
color=black,title=convert(tpl,string))]) od:
>plots[display]([tays],view=[-0..5,-2..2]);

equation
Figure: 11.6 - Décalage possible de l'approche par Maclaurin avec Maple 4.00b

Nous étudierons une généralisation au plan complexe des séries de Taylor précédentes dans le chapitre d'Analyse Complexe pour obtenir un résultat très puissant permettant aux physiciens de calculer des intégrales curvilignes compliquées.

DÉVELOPPEMENTS DE MACLAURIN USUELS

Nous allons démontrer ici les développements de Maclaurin les plus fréquents (une petite dizaine) jusqu'au deuxième ordre que nous puissions rencontrer en physique théorique et mathématique (en fait, nous avons développés uniquement ceux qui sont utilisés dans l'ensemble du site). La liste est pour l'instant non exhaustive mais les démonstrations étant généralisées, elles peuvent s'appliquer à un grand nombre d'autres cas (que nous appliquerons/rencontrerons tout au long de ce site).

Remarque: Les développements de Taylor (donc ailleurs qu'en zéro) étant très rare (il y en a un ou deux sur l'ensemble du site mais ils sont détaillés dans le chapitre respectif), nous les omettrons.

1. Développement de Taylor-Maclaurin de equation:

D'abord rappelons que nous avons démontré dans le chapitre de Calcul Différentiel Et Intégral que:

equation   (11.165)

Il vient alors que:

equation
  (11.166)

2. Développement de Taylor-Maclaurin de equation:

D'abord rappelons que nous avons démontré dans le chapitre de Calcul Différentiel Et Intégral que:

equation   (11.167)

Il vient alors que:

equation
  (11.168)

3. Développement de Taylor-Maclaurin de equation:

D'abord rappelons que nous avons démontré dans le chapitre de Calcul Différentiel Et Intégral que:

equation   (11.169)

Il vient alors que:

equation
  (11.170)

4. Développement de Taylor-Maclaurin de equation:

D'abord rappelons que nous avons démontré dans le chapitre de Calcul Différentiel Et Intégral que:

equation   (11.171)

Il vient alors que:

equation
  (11.172)

5. Développement de Taylor-Maclaurin de equation:

D'abord rappelons que nous avons démontré dans le chapitre de Calcul Différentiel Et Intégral que:

equation   (11.173)

Il vient alors que:

equation
  (11.174)

6. Développement de Taylor-Maclaurin de equation:

D'abord rappelons que nous avons démontré dans le chapitre de Calcul Différentiel Et Intégral l'expression générale de la dérivée d'un quotient de deux fonctions. Il vient alors:

equation   (11.175)

Il vient alors que:

equation
  (11.176)

Il s'ensuite immédiatement une autre série de Taylor que nous retrouverons aussi un certain nombre de fois:

equation   (11.177)

7. Développement de Taylor-Maclaurin de equation:

D'abord rappelons que nous avons démontré dans le chapitre de Calcul Différentiel Et Intégral l'expression générale de la dérivée d'un quotient de deux fonctions. Il vient alors:

equation   (11.178)

Il vient alors que:

equation
  (11.179)

Il s'ensuite immédiatement une autre série de Taylor que nous retrouverons aussi un certain nombre de fois:

equation   (11.180)

8. Développement de Taylor-Maclaurin de equation:

D'abord rappelons que nous avons démontré dans le chapitre de Calcul Différentiel Et Intégral que la dérivée de la fonction logarithme. Il vient alors (nous retrouvons très vite les termes d'une des séries développée un peu plus haut):

equation   (11.181)

Il vient alors que:

equation
  (11.182)

9. Considérons maintenant le cas important pour le modèle de Langevin du paramagnétisme qu'est le développement de Taylor approximé de la fonction cotangente hyperbolique (cf. chapitre de Trigonométrie), définie pour rappel par la relation:

equation   (11.183)

Pour cela, nous allons utiliser la notation de Landau avec des expressions du type equation en se rappelant que nous venons de démonter un peu plus haut que:

equation   (11.184)

lorsque equation.

Pour la cotangente hyperbolique nous avons alors:

equation   (11.185)

À présent il faut se rappeler comme nous venons de le démontrer un peu plus haut que:

equation   (11.186)

pour equation. Donc:

equation   (11.187)

et pour finir en remplaçant ceci dans l'expression précédente nous trouvons:

equation   (11.188)

SÉRIES DE TAYLOR D'UNE FONCTION A 2 VARIABLES

Nous allons voir ici comment approcher une fonction f(x, y) de deux variables réelles par une somme de puissances (série de Taylor). Ce type d'approximation est très utilisé dans de nombreux domaines de l'ingénierie (voir chapitre de Génie Industriel et de Méthodes Numériques).

Nous cherchons donc une approximation de f(x, y) au point equation. Pour cela, posons (rien ne nous interdit a priori de le faire) que:

equation   et   equation   (11.189)

Nous avons alors:

equation   (11.190)

La valeur de (l'astuce est là!):

equation   (11.191)

peut être approchée en utilisant son expression en série de Taylor autour de la valeur 0 telle que:

equation   (11.192)

Or, nous avons:

equation   (11.193)

et:

equation   (11.194)

Selon le théorème de Schwarz (cf. chapitre de Calcul Intégral Et Différentiel):

equation   (11.195)

Nous avons alors:

equation   (11.196)

et nous démontrons par récurrence que:

equation   (11.197)

Nous avons alors finalement:

equation   (11.198)

ou sous une autre forme équivalente simplifiée:

equation   (11.199)

Ou encore si nous définissons une matrice H appelée "matrice Hessienne" donnée par:

equation  (11.200)

nous pouvons aussi écrire:

equation   (11.201)

Dans Maple 4.00b nous utilisons la commande suivante pour faire un développement d'ordre n autour de 0 d'ordre 3.

>readlib(mtaylor):
>mtaylor(f(x,y), [x,y], 3);

FORME QUADRATIQUE

Maintenant nous allons avoir besoin pour le chapitre de Méthodes Numériques d'énoncer une propriété importante (qui aurait tout à fait sa place uniquement dans le chapitre de Calcul Différentiel Et Intégral):

Soit f une fonction définie et dérivée sur un intervalle I et soit a un élément de I. Si f est telle que equation alors nous disons qu'elle a un extremum local en a.

Remarque: La réciproque est fausse, la fonction x3 en est un exemple. Sa dérivée est nulle en 0 mais il n'y a pas d'extremum local en ce point. Donc il faut être prudent!

Cependant, soit f une fonction définie et dérivée sur un intervalle I et soit a un élément de I. Si f est telle que equation et si f ' change de signe en a alors f admet un extremum local en a.

Pour maintenant revenir à notre développement de Taylor à deux variables, nous savons que si  equation est un extremum local de f  alors dans un premier temps (cf. chapitre de Calcul Différentiel Et Intégral):

equation   (11.202)  

Cependant nous venons de voir que cette condition n'est pas suffisante à garantir que equation soit un extremum local.

Reconsidérons le développement de Taylor de f ci-dessus en tenant compte de la condition précédente. Le développement se simplifie alors en:

equation   (11.203)

Nous savons alors par définition que pour que equation soit un minimum local (respectivement un maximum local) il suffit que l'expression entre crochets soit positive (respectivement négative). Étant donné que les dérivées secondes de f  sont continues, il suffit donc que l'expression:

equation   (11.204)

soit positive (resp. négative) quels que soient h ou k et qu'elle soit nulle que si equation. Nous disons alors que q est une "forme quadratique définie positive (resp. définie négative)".

Pour simplifier l'écriture et être conforme aux traditions posons maintenant:

equation   (11.205)

Nous pouvons alors réécrire q comme suit:

equation   (11.206)

Où  H est toujours matrice hessienne de f évaluée en equation.

Nous voyons donc que q est définie positive (minimum local) si equation et equation, définie négative  (maximum local) si equation et equation.

En revenant aux dérivées partielles ces conditions se réécrivent comme suit:

- Définie positive (minimum local) si:

equation et equation   (11.207)

- Définie négative (maximum local) si:

equation et equation   (11.208)

En conclusion nous voyons que le signe du déterminant de la matrice hessienne ainsi que celui de  equation nous permettent d'obtenir une condition suffisante pour déterminer si nous sommes en présence d'un extremum local.

RESTE DE LAGRANGE

Il peut y avoir un intérêt dans certaines applications numériques (cf. chapitre de Méthodes Numériques) à connaître l'erreur d'approximation du polynôme equation par rapport à la fonction equation .

Définissons pour cela un "reste" equation, tel que:

equation   (11.209)

La fonction equation est appelée "reste de Lagrange".

Considérons maintenant une fonction f(x) qui est equation fois dérivable sur un intervalle qui contient equation. Pour une valeur x de l'intervalle, différente de equation, nous nous proposons de démontrer qu'il existe un nombre z situé entre equation et x tel que:

equation   (11.210)

Démonstration:

Soit une fonction g(t) une fonction définie par la différence d'une fonction f(x) supposée connue et une approximation de Taylor de cette même fonction:

equation
  (11.211)

avec bien sûr:

equation   (11.212)

Nous voyons que g(t) s'annule bien pour la valeur equation.

Dérivons maintenant g(t) par rapport à t, nous trouvons:

equation   (11.213)

Après simplification:

equation   (11.214)

Selon le théorème de Rolle (cf. chapitre de Calcul Différentiel Et Intégral), il existe une valeur equation pour laquelle la dérivée equation s'annule. Donc:

equation   (11.215)

Nous pouvons simplifier l'équation par equation:

equation   (11.216)

ce qui s'écrit aussi:

equation   (11.217)

et nous trouvons donc pour maximum de equation:

equation   (11.218)

equationC.Q.F.D.

Nous voyons que plus le polynôme equation est de degré élevé, plus il approxime la fonction f(x) avec exactitude. Que se passe-t-il lorsque equation?

equation   (11.219)

Supposons que f(x) admette des dérivées de tout ordre (ce que nous notonsequation) pour toutes les valeurs d'un intervalle quelconque contenant equation et soit equation le reste de Lagrange de f(x) en equation. Si, quel que soit x dans l'intervalle:

equation   (11.220)

alors f(x) est exactement représentée par P(x) sur l'intervalle.

Démonstration:

Elle découle simplement de l'expression de equation lorsque equation.

Effectivement, si nous prenons une infinité de termes pour equation, la correspondance avec la fonction approchée est parfaite et donc le reste est nul.

equationC.Q.F.D.

Le polynôme:

equation   (11.221)

est appelé "polynôme de Taylor" ou "série de Taylor". Si equation, il est appelé "polynôme de Maclaurin" ou "série de Maclaurin".

FORMULE DE TAYLOR AVEC RESTE INTÉGRAL

Nous allons voir ici un théorème qui nous sera utile dans le chapitre de Statistique pour relier la loi de Poisson et la loi du Khi-2 qui est utilisée dans les logiciels statistique pour le test de Poisson des événements rares (c'est la seule application pratique utilisée dans les entreprises qui nous est connue à ce jour).

Remarque: Si quelqu'un possède une démonstration plus pédagogique dont le début fait un peu moins "formule tombée du ciel", nous sommes preneurs!

Soit f une application n+1 fois dérivable dans l'intervalle [a, b]. Nous avons alors :

equation   (11.222)

où il est important (pour la bonne compréhension de ce que nous ferons dans le chapitre de Statistiques) que le lecteur remarque dans le développement que quand la dérivée s'arrête au n-ième terme dans la série, l'intégrale (le reste) a un facteur 1/n!, une puissance en n et une dérivée en n+1. Donc in extenso, comme nous allons le démontrer ci-après, si nous arrêtons le développement des termes à n-1, l'intégrale (le reste) aura un facteur 1/(n-1)!, une puissance en n-1 et une dérivée n-ième.

Démonstration:

La démonstration se fait par récurrence. Nous considérons d'abord la formule tombée du ciel:

equation   (11.223)

Nous montrons qu'elle est correcte pour k = 0 et ensuite nous faisons une récurrence sur k pour equation.

Pour k = 0, nous avons la relation bien connue (cf. chapitre de Calcul Différentiel Et Intégral):

equation   (11.224)

Supposons la propriété vraie pour equation:

equation   (11.225)

Nous intégrons par parties (cf. chapitre de Calcul Différentiel Et Intégral) le terme:

equation   (11.226)

Nous avons alors:

equation   (11.227)

d'où:

equation   (11.228)

equationC.Q.F.D.

SÉRIES DE FOURIER

Nous appelons par définition "série trigonométrique" une série de la forme:

equation   (11.229)

ou sous une forme plus compacte:

equation   (11.230)

Les constantes equation sont les coefficients de la série trigonométrique plus souvent nommés "coefficients de Fourier".

Remarque: Nous avions déjà fait mention de ce type de série lors de notre étude des types de polynômes existants puisque les séries de Fourier ne sont au fait que des polynômes trigonométriques. (cf. chapitre de Calcul Algébrique). Par ailleurs, nous avons vu comme exemple dans le chapitre d'Analyse Fonctionnelle lors de notre étude du produit scalaire fonctionnel que les fonctions sinus et cosinus constituaient les bases d'un espace vectoriel.

Si la série converge, sa somme est une fonction périodique f(x) de période  equation , étant donné que sin(nx) et cos(nx) sont des fonctions périodiques de période  equation . De sorte que:

  equation   (11.231)

Posons maintenant le problème suivant: Nous nous donnons une fonction connue, périodique quelconque f(x) continue par morceaux de période equation. Nous nous demandons s'il existe une série trigonométrique convergeant vers f(x) moyennant des conditions sur cette série.

Supposons maintenant que la fonction f(x), périodique et de période equation, puisse être effectivement représentée par une série trigonométrique convergeant vers f(x) dans l'intervalle [0, T], c'est-à-dire qu'elle soit la somme de cette série:

equation   (11.232)

Supposons que l'intégrale de la fonction du premier membre de cette égalité soit égale à la somme des intégrales des termes de la série ci-dessus. Ceci aura lieu, par exemple, si nous supposons que la série trigonométrique proposée converge absolument, c'est-à-dire que la série numérique suivante converge (de par la propriété bornée des fonctions trigonométriques):

equation   (11.233)

La série:

 equation   (11.234)

est alors majorable et peut être intégrée terme à terme de 0 à T (où equation) ce qui nous permet de déterminer les différents coefficients de Fourier. Mais avant de commencer exposons les intégrales suivantes qui nous très seront utiles par la suite:

  equation              equation   (11.235)

                         Avec  equation et  equation                     Avec  equation et  equation

Avant de continuer, démontrons la valeur que prennent ces six intégrales (suite à la demande des internautes). Mais d'abord, rappelons que comme equation alors:

equation et equation   (11.236)

1. Nous procédons en utilisant les relations trigonométriques remarquables (cf. chapitre de Trigonométrie) et les primitives des fonctions trigonométriques élémentaires (cf. chapitre de calcul Différentiel Et Intégral):

equation   (11.237)

car comme nous l'avons vu dans le chapitre de Trigonométrie equation et comme equation, les deux différences précédentes ont tous les termes qui sont nuls tel qu'au final:

equation   (11.238)

2. Pour la deuxième intégrale, nous procédons selon les mêmes techniques et mêmes propriétés des fonctions trigonométriques:

equation   (11.239)

3. Et nous continuons ainsi pour la troisième, toujours selon les mêmes propriétés:

equation   (11.240)

4. Encore une fois selon les mêmes méthodes (cela devient routinier...) pour equation d'abord:

equation   (11.241)

et pour equation il vient immédiatement:

equation   (11.242)

5. Encore une fois... (bientôt au bout...) pour equation d'abord:

equation   (11.243)

et pour equation il vient immédiatement:

equation   (11.244)

6. Et enfin la dernière (...):

equation   (11.245)

Ce petit travail fait, revenons maintenant à nos moutons... Pour déterminer les coefficients equation multiplions les deux membres de l'égalité:

equation   (11.246)

par equation:

equation   (11.247)

La série du second membre de l'égalité est majorable, étant donné que ses termes ne sont pas supérieurs en valeur absolue aux termes de la série positive convergente. Nous pouvons donc l'intégrer terme à terme sur tout segment borné de 0 à T:

equation   (11.248)

Nous avons démontré plus haut que quelles que soient les valeurs entières que prennent k ou n le deuxième terme de la parenthèse est toujours nul. Il ne reste alors plus que:

equation   (11.249)

Or, nous avons démontré plus haut que l'intégrale à droite est toujours nulle si n et k sont différents. Il ne reste alors que le cas où n et k sont égaux. C'est-à-dire:

equation   (11.250)

Dans cette situation, nous avons d'abord le cas particulier où k est nul. Dans ce cas:

equation   (11.251)

Soit:

equation   (11.252)

Il est évident que le coefficient equation représente donc la moyenne du signal ou de sa composante continue si elle existe.

Dans le cas où k n'est pas nul, nous avons:

equation   (11.253)

D'où nous tirons:

equation   (11.254)

Pour déterminer les coefficients equation nous procédons de la même manière mais en multipliant cette fois-ci les deux membres de l'égalité par equation:

equation   (11.255)

La série du second membre de l'égalité est majorable, étant donné que ses termes ne sont pas supérieurs en valeurs absolues aux termes de la série positive convergente. Nous pouvons donc l'intégrer terme à terme sur tout segment borné de 0 à T:

 equation   (11.256)

Nous avons démontré plus haut que quelles que soient les valeurs entières que prennent k ou n le premier terme de la parenthèse est toujours nul. Il ne reste plus alors que:

equation   (11.257)

Or, nous avons démontré plus haut que l'intégrale à droite est toujours nulle si n et k sont différents. Il ne reste alors que le cas où n et k sont égaux. C'est-à-dire:

equation   (11.258)

Dans cette situation, nous avons d'abord le cas particulier où k est nul. Mais nous voyons de suite que nous avons une indétermination par zéro. Il vaut mieux alors considérer le cas général d'où nous tirons:

equation   (11.259)

D'où nous tirons aisément que:

equation   (11.260)

Dès lors, pour la situation où k est nul le coefficient est alors nul!

Donc finalement les coefficients de Fourier sont donc déterminés par les intégrales:

equation     equation     equation   (11.261)

Mais comme c'est embêtant d'avoir trois résultats pour les coefficients nous allons jouer un peu avec la définition de la série de Fourier.

Effectivement en sommant de 1 à l'infini plutôt que de 0 à l'infini nous avons:

equation   (11.262)

Ce qui permet alors de n'avoir qu'à se rappeler de (equation inclus donc!):

equation     equation   (11.263)

Les physiciens ont quant à eux pour habitude de noter ces deux dernières relations sous la forme suivante:

equation   (11.264)

Cette décomposition possible de toute fonction périodique continue par morceaux approchée par une somme infinie de fonctions trigonométriques (sinus ou cosinus) consistant en une fonction fondamentale et ses harmoniques est appelée "théorème de Fourier" ou encore "théorème de Fourier-Dirichlet".

equation
Figure: 11.7 - Exemples d'approches de fonctions par série de Fourier (source: Mathwolrd)

La série de Fourier permet donc implicitement de représenter toutes les fréquences contenues dans un signal périodique dont la fonction est connue mathématiquement. On se demande bien pourquoi parler des séries de Fourier quand, dans la pratique, nous ne connaissons pas vraiment la représentation mathématique de ce signal? Cela nous amènera à mieux comprendre le concept de la transformée de Fourier à temps discret, que nous verrons un peu plus loin, qui n'a nul besoin d'une représentation mathématique d'un signal continu échantillonné dans le temps.

Nous constatons par ailleurs que si f(x), soit la fonction périodique dont nous cherchons l'expression en série trigonométrique de Fourier, est paire alors la série devra être paire aussi et donc ne comporter que des termes en cosinus (le cosinus étant pour rappel une fonction paire) ce qui implique que equation et dans le cas contraire d'une fonction impaire equation (le sinus étant pour rappel une fonction impaire)!

Il convient de noter, et c'est important pour la suite, que comme nous l'avons vu dans le chapitre de Calcul Algébrique lors de notre étude des polynômes trigonométriques, les séries de Fourier pouvaient donc s'écrire sous la forme complexe suivante (en changeant un peu les notations et en passant la somme à l'infini):

equation   (11.265)

et nous avions vus que:

equation   (8.266)

Soit:

equation   (11.267)

Ce qui nous donne:

equation   (11.268)

Donc:

equation   (11.269)

exempleExemples:

E1. Lors de la décomposition d'un signal continu, nous disons abusivement que les coefficients equation représentent chacun (implicitement) une fréquence distincte associée à une amplitude que nous visualisons sur un graphique par des lignes verticales. Ce graphique représente le spectre en fréquence du signal décomposé. Nous pouvons également adjoindre une autre représentation qui se nomme "spectre de phase". Ce spectre nous donne la phase du signal harmonique (en avance ou en retard de phase).

equation
Figure: 11.8 - Exemple d'amplitudes et de fréquences associées aux différents coefficients

Voyons maintenant comment décomposer un signal périodique connu en plusieurs signaux d'amplitudes et de fréquences distinctes.

Prenons comme exemple, un signal à onde carrée périodique défini sur une période T=2 et d'amplitude A tel que:

equation   (11.270)

A la période T=2 correspond comme nous le savons une pulsation:

equation   (11.271)

Calculons en premier lieu les coefficients equation à l'aide de l'intégrale permettant de déterminer ces coefficients (le choix des bornes de l'intégrale suppose donc que le signal est périodique par construction!):

equation   (11.272)

En prenant k = 2, nous avons:

equation   (11.273)

De même pour k = 4,6,8 ainsi que pour tout nombre pair.

Pour ce qui est des nombres impairs, nous aurons:

equation   (11.274)

Les coefficients seront alors:

equation   (11.275)

Il y a un seul hic dans cette relation, le coefficient equation ne peut être calculé selon cette relation car on peut voir que si k = 0 dans le résultat ci-haut, nous aurons une valeur infinie et c'est du moins impossible. Le coefficient equationest soit nul ou non nul mais jamais infini.

Pour trouver le coefficient equation, nous devons calculer l'intégrale pour k=0. Le coefficient equationest alors déterminé par:

equation   (11.276)

Le spectre en "fréquence" (attention à l'abus de langage!) et en amplitude sera alors de la forme suivante pour equation et equation les fréquences nulles n'étant pas représentées:

equation
Figure: 11.9 - Spectre de fréquence des coefficients de la série de Fourier

L'abus de parler de fréquences pour les coefficients de Fourier amène donc à avoir des fréquences négatives en abscisse... mais ce n'est qu'une question de vocabulaire (il n'y a aucun rapport direct avec les vraies fréquences) auquel il faut s'habituer.

Le spectre d'amplitude et de phase se calcule selon les relations:

equation   (11.277)

Il est alors relativement aisé de remarquer que si T tend vers un nombre de plus en plus grand, les pics du spectre se rapprochent de plus en plus. Ainsi, lorsque T tend vers l'infini le spectre devient continu.

Le spectre de phase donnera ce qui suit pour les valeurs impaires:

equation
Figure: 11.10 - Spectre de phase des coefficients de la série de Fourier

Il est même possible pour l'exemple d'obtenir relativement facilement le spectre des fréquences dans Microsoft Excel 11.8346 (le lecteur pourra trouver un exemple beaucoup plus détaillé et intéressant dans le serveur d'exercices sur les Suites et Séries)!!!

Effectivement, il suffit pour cela d'échantillonner par exemple notre signal 128 fois (Microsoft Excel 11.8346 a besoin de equation échantillons et ne fonctionne que sous cette condition!). Nous divisons alors l'intervalle equation en 64 échantillons et idem pour l'intervalle equation:

equation
equation
equation
Tableau: 11.2  - Echantillonnage signal

Ce qui donne sous forme graphique (attention! pour que la transformée de Fourier discrète fonctionne bien dans Microsoft Excel 11.8346, il faut que la fréquence d'échantillonnage - correspondant au nombre de mesures dans une seconde - soit au moins 100 fois supérieure à la fréquence du signal d'origine sinon quoi le résultat peut être aberrant!):

equation
Figure: 11.11 - Représentation graphique de la série de données sous Microsoft Excel 11.8346

Ensuite, il suffit d'aller dans le menu Outils/Utilitaire d'Analyse et choisir l'option Analyse de Fourier:

equation
Figure: 11.12 - Caputre de la boîte de dialogue de l'utilitaire d'analyse de Microsoft Excel 11.8346

Vient ensuite la boîte de dialogue suivante qu'il faut remplir comme indiqué (on voit que l'abscisse n'a aucune importance!):

equation
Figure: 11.13 - Paramètres de l'outil Analyse de Fourier de Microsoft Excel 11.8346

Vient alors le tableau suivant pour les coefficients:

equation
equation
equation
Tableau: 11.3  - Coefficients de Fourier

Il reste à calculer le module des nombres complexes avec la fonction MODULE.COMPLEXE( ) de Microsoft Excel 11.8346 et de diviser le résultat par 128 pour chacun des coefficients equation mais nous voyons déjà que chaque coefficient pair est nul ce qui correspond bien au résultat théorique obtenu plus haut.

Nous avons alors en mettant l'indice n en face de chaque module:

equation
equation
equation
Tableau: 11.4  - Module coefficients complexes

En en traçant un graphique à points (toujours dans Microsoft Excel 11.8346) un peu personnalisé des colonnes D et E, nous obtenons finalement (nous avons restreint l'axe des abscisses à [-5,+5] pour en faciliter la lecture):

equation
Figure: 11.14 - Spectre de fréquences de la transformée

A comparer avec les calculs théoriques (graphique déjà présenté plus haut)...:

equation
Figure: 11.15 - Spectre de fréquence calculé plus haut à la main

Nous verrons un exemple pratique et plus détaillé dans le chapitre d'Économie lors de notre étude des séries temporelles.

E2. Prenons un autre exemple identique au précédent mais sous une autre approche. Nous définissons une fonction périodique de période equation comme suit:

equation   (11.278)

Calculons les coefficients de Fourier (nous translatons les bornes des intégrales puisque la fonction est périodique rien ne nous en empêche!):

equation   (11.279)

et:

equation   (11.280)

Nous remarquons que equation vaut 0 pour n pair et vaut equation pour n impair.

La série de Fourier de la fonction considérée s'écrit donc:

equation   (11.281)

Ce quie dans Maple 4.00b s'écrit:

>S:=(4/Pi)*Sum(sin((2*n+1)*x)/(2*n+1),n=0..N);

et que nous pouvons tracer à l'aide de la fonction:

>plot({subs(N=4,S),subs(N=8,S),subs(N=16,S)},
x=-Pi..Pi,color=[red,green,blue],numpoints=200);

Ce qui donne trois traces pour 4, 8 et 16 termes de la série en rouge, vert et bleu:

[Maple Plot]
Figure: 11.16 - Exemple de série de Fourier dans Maple 4.00b avec 4, 8 et 16 termes

Pour 50 termes nous obtenons:

> plot(subs(N=50,S),x=-Pi..Pi,numpoints=800);

[Maple Plot]
Figure: 11.17 - Exemple de série de Fourier dans Maple 4.00b avec 50 termes

Nous voyons les effets de bord appelés "phénomène de Gibbs". Il est possible de montrer ceux-ci se produisent à la valeur de l'abscisse correspondant à equation et que et que le pic culmine à ±1.179 pour toute valeur de n. Voyons cela!

Nous venons donc de montrer que:

equation   (11.282)

Ce qui peut s'écrire:

equation

en utilisant la démonstration faite plus haut comme quoi:

equation

Nous avons alors:

equation

Rappelons que lors de notre étude des nombres complexes (cf. chapitre Nombres) nous avions démontré que:

equation

Ce qui nous amène donc à:

equation

Nous allons nous intéresser aux petites valeurs de x. Donc nous pouvons alors faire un développement au première ordre en Maclaurin du dénominateur (mais pas du numérateur à cause de la présence du n):

equation

Nous faisons un changement de variable:

equation

où nous avons utilisé la notation traditionnelle du "sinus cardinal" dans la dernière relation (car cette fraction est fréquente en physique raison pour laquelle elle a une notation spécifique).

Comme ce qui nous intéresse est de déterminer le maximum du phénomène (la perturbation) de Gibbs, nous voyons que celle-ci a lieu dans le cas particulier que nous avons présenté (voir figure ci-dessus) à chaque multiple de equation et comme le dénominateur de l'expression de l'intégrale va diminuer en fonction que le multiple est plus grand, il vient que le plus grand maximum est au point où equation (le point 0 à l'opposé va annuler l'intégrale donc il faut l'éliminer de notre choix). Nous avons alors:

equation

et la valuation de cette intégrale ne peut être faire que numériquement à notre connaissance, il vient:

equation

Soit environ 18% au-dessus de la valeur limite attendue.

PUISSANCE D'UN SIGNAL

Un signal périodique possède une énergie infinie et une puissance moyenne nulle (cf. chapitre d'Électrocinétique). Sa puissance moyenne sur une période est alors définie par:

equation   (11.283)

Si nous développons cette équation, nous avons:

equation   (11.284)

Cela signifie que la puissance d'un signal à temps continu périodique est égale à la somme des coefficients de Fourier au carré. C'est ce que l'on nomme le "théorème de Parseval". Cela signifie que si nous avons un signal quelconque que nous pouvons décomposer en série de Fourier, nous pouvons connaître la puissance de ce signal uniquement à l'aide des coefficients spectraux.

Dans la réalité, comme nous ne pouvons déterminer mathématiquement l'expression de ce signal, nous utilisons la discrétisation ou l'échantillonnage et ensuite à l'aide d'une transformée de Fourier discrète, nous pouvons calculer la puissance de ce signal en utilisant uniquement les coefficients spectraux. Cela nous donne une caractéristique du signal.

Indiquons aussi le résultat suivant qui nous sera utile dans le chapitre de Thermodynamique pour l'étude du corps noir et qui est aussi intimement liée à des propriétés très importantes la fonction zêta de Riemmann:

equation   (11.285)

La relation suivante:

equation   (11.286)

est appelée "égalité de Parseval".

Suivant la définition de la série de Fourier et de la définition du coefficient equation qui en découle immédiatement, nous avons aussi fréquemment dans la littérature:

equation   (11.287)

TRANSFORMÉE DE FOURIER

Les séries de Fourier sont un outil très puissant pour l'analyse de signaux périodiques par exemple, mais l'ensemble des fonctions périodiques est petit comparé à l'ensemble des fonctions que nous rencontrons dans les problèmes physiques. Ainsi, allons-nous introduire un nouvel outil d'analyse extrêmement puissant qui s'étend à une classe de fonctions plus générale et qui ont des applications très importantes en traitement du signal, traitement d'image, traitement du son, finance des marchés et statistiques avancées..

La transformée de Fourier (TF) est ainsi utilisée tant pour les signaux périodiques que pour les signaux apériodiques.

Pour cela, nous repartons de notre étude sur les séries de Fourier en notation complexe d'une fonction périodique de période T en considérant que celle-ci devient de plus en plus grande jusqu'à la faire tendre vers equation. Dès lors les raies spectrales se rapprochent peu à peu pour se transformer en un specte continu.

Ainsi, reprenons les expressions démontrées ci-avant:

equation   (11.288)

que nous pouvons écrire de manière équivalente sous la forme traditionnelle suivante (dans laquelle il est d'usage de mettre le facteur 1/T plutôt dans f(t)):

equation   (11.289)

et écrivons encore cela pour des besoins ultérieurs sous la forme suivante:

equation   (11.290)

et posons:

equation   (11.291)

Ainsi, quand equation, la pulsation tend vers zéro et nous avons equation car nous passons de valeurs discrètes à valeurs continues qui parcourent l'ensemble des réels (pour tous les k). Donc de:

equation   (11.292)

nous passons à la limite soit:

equation   (11.293)

et cela implique aussi que:

equation   (11.294)

Nous obtenons ainsi pour les coefficients (nous changeons de notation car l'ancienne est inadaptée):

equation   (11.295)

et pour la série infinie (dont la somme devient une intégrale):

equation   (11.296)

Attention!!! Pour faire la différence entre la fonction donnée et son équivalent dont nous cherchons l'expression en somme infinie, nous les noterons dorénavant différemment. Ainsi, il vient:

equation   (11.297)

Donc la série de Fourier discrète devient une fonction continue.

Définitions:

D1. Nous appelons "transformée de Fourier (TF)" de f  la relation:

equation   (11.298)

notée parfois aussi sous la forme suivante:

equation   (11.299)

appelée aussi parfois "densité spectrale d'amplitude".

D2. Nous appelons "transformée de Fourier inverse (TFI)" de F la relation:

equation   (11.300)

Toute technique de transformation de ce type (car il y en a plusieurs!) s'appelle une "transformation intégrale".

Remarque: Il existe de nombreuses manière d'écrire la transformée de Fourier en fonction du choix de la valeur initiale de T .

Certains physiciens préfèrent symétriser ces deux expressions en mettant le même coefficient dans les deux sens, qui sera par exemple equation. Cela donnera:

equation   (11.301)

Donnons également la forme tridimensionnelle qui nous servira de nombreuses fois en mécanique ondulatoire, électrodynamique, optique ondulatoire ou encore dans les divers chapitres de physique quantique:

equation   (11.302)

Pour que les choses soient peut-être plus claires, montrons de manière générale que la transformée de Fourier equation précédemment écrite est une isométrie (conserve la norme).

Remarquons tout d'abord que pour tout f, g nous avons le produit scalaire fonctionnel:

equation   (11.303)

Mais puisque les fonctions sont dans l'espace des complexes, comme nous l'avons vu dans le chapitre de Calcul Vectoriel, nous devons alors utiliser la notation du produit hermitien:

equation   (11.304)

Rappelons quand même que:

equation   (11.305)

Démonstration:

Nous voulons donc démontrer l'égalité:

equation   (11.306)

Soit explicitement:

equation   (11.307)

Mais les variables à intégrer doivent être les mêmes et pour que equation soit implicitement dépendante de equation il faut donc prendre la transformée de Fourier en equation. Tel que:

equation   (11.308)

Ainsi:

equation   (11.309)

Soit en utilisant le théorème de Fubini (cf. chapitre de Calcul Différentiel Et Intégral):

equation   (11.310)

A l'aide de ce résultat, nous avons donc aussi démontré (c'est immédiat):

equation   (11.311)

Nous n'avons pas précisé les bornes: elles sont infinies dans chaque définition (nous intégrons sur tous les equation ou equation possibles).

equationC.Q.F.D.

Voyons maintenant deux propriétés intéressantes de la transformée de Fourier:

P1. Si f est paire, il vient une simplification de la transformée telle que:

equation   (11.312)

P2. Si f est impaire, nous procédons de la même manière que ci-dessus et nous obtenons:

equation   (11.313)

P3. Propriété très importante des transformées de Fourier qui nous sera utile en finance (cf. chapitre d'Économie) et également dans le cadre de l'étude de l'équation de la chaleur (cf. chapitre de Thermodynamique).

Rappelons d'abord que la transformée de Fourier est donnée par:

equation   (11.314)

 Nous souhaitons voir ce qu'il se passe si:

equation   (11.315)

En faisant une intégration par parties (cf. chapitre de Calcul Différentiel Et Intégral):

equation   (11.316)

 il vient:

equation   (11.317)

où nous nous sommes mis dans la situation avec:

equation   (11.318)

Donc:

equation   (11.319)

De manière générale:

equation   (11.320)

Remarque: La branche de "l'analyse harmonique", ou "analyse de Fourier 2D", est la branche des mathématiques qui étudie la représentation des fonctions ou des signaux comme superposition d'ondes de base. Elle approfondit et généralise les notions de série de Fourier et de transformée de Fourier. Les ondes de base s'appellent les harmoniques, d'où le nom de la discipline. Durant ces deux derniers siècles, elle a eu de nombreuses applications en physique et en économie sous le nom "d'analyse spectrale", et connaît des applications récentes notamment en traitement des signaux, mécanique quantique, neurosciences, stratigraphie, statistiques...

exemple Exemples:

E1. Voyons donc un exemple (parmi les deux fondamentaux) d'une transformée de Fourier que nous retrouvons en physique quantique aussi bien qu'en optique ondulatoire.

Nous allons calculer la transformée de Fourier (spectre) de la fonction suivante (impulsion rectangulaire):

equation
Figure: 11.18 - Fonction dont nous souhaitons calculer la TF

Nous avons donc:

equation   (11.321)

où sinc est le sinus cardinal. Nous retombons donc sur le sinus cardinal (si nous prenons le module au carré) de la décomposition d'une onde monochromatique diffractée par une fente rectangulaire. Ainsi, il semble  possible d'étudier les phénomènes de diffraction en utilisant la transformée de Fourier et ce domaine se nomme "l'optique de Fourier". Nous reviendrons là-dessus dans le chapitre d'Analyse Fonctionnelle quand nous approfondirons les transformées de Fourier.

On remarquera que le spectre (décrit par la fonction sinus cardinal) passe par zéro chaque fois que le sinus cardinal s'annule, c'est-à-dire, chaque fois que la fréquence est un multiple de 1/a.

Le spectre de cette impulsion illustre deux points importants concernant les signaux de durée limitée:

P1. Un signal de courte durée possède un spectre large bande

P2. À un spectre étroit correspond un signal de longue durée.

E2. La transformée de Fourier d'une fonction intégrable f est donnée par:

equation   (11.322)

Considérons la fonction intégrable de type Gaussienne:

equation   (11.323)

avec equation défini sur equation.

Nous voulons calculer sa transformée de Fourier car il s'agit d'un cas très important et en particulier utile pour la résolution de l'équation de la chaleur que nous traiterons dans le chapitre de Thermodynamique et pour résoudre l'équation différentielle de Black-Scholes dans le chapitre d'Économie.

L'astuce géniale, si nous voulons éviter de faire de l'analyse complexe sur 3 pages A4, consiste à remarquer que equation est solution de l'équation différentielle linéaire suivante:

equation   (11.324)

où y est une fonction de equation.

En effet en dérivant equation nous obtenons:

 

equation   (11.325)

Une intégration par parties nous donne:

equation   (11.326)

On reconnaît l'expression de la transformée de Fourier de f. Par conséquent:

equation   (11.327)

Ceci montre que equation est bien solution de l'équation différentielle ci-dessus.

Nous avons démontré dans le chapitre de Calcul Différentiel et Intégral que la solution générale de cette équation différentielle est donnée par:

equation   (11.328)

equation. Et comme dans le cas présent:

equation   (11.329)

La primitive G(x) est donc facile à calculer et il vient:

equation   (11.330)

Par conséquent:

equation   (11.331)

 Pour déterminer la constante A il suffit de remarquer que:

equation   (11.332)

et donc:

equation   (11.333)

Il est alors d'usage de dire que la transformation de Fourier d'une Gaussienne est une autre Gaussienne.

SÉRIES DE BESSEL

Les fonctions de Bessel sont très utiles dans de nombreux domaines de pointe de la physique faisant intervenir des équations différentielles délicates à résoudre. Les domaines dans lesquels nous les trouvons le plus souvent sont la calorimétrie (conduction de la chaleur), la physique nucléaire (physique de réacteurs), et la mécanique des fluides. 

Ces séries sont cependant très peu détaillées dans les écoles universitaires et il est souvent du rôle de l'élève de chercher les compléments d'informations dont il a besoin sur le sujet dans la bibliothèque de son école. Nous avons voulu présenter  ici les développements permettant d'éviter cette démarche tout en restant chez soi devant son ordinateur (de plus les livres sur le sujet sont assez rares...).

Remarque: Nous parlons habituellement par abus de langage des "fonctions de Bessel" au lieu des "séries de Bessel".

Il existe une quantité non négligeable de fonctions de Bessel mais nous allons nous restreindre à l'étude de celles qui sont les plus utilisées en physique.

FONCTION DE BESSEL D'ORDRE ZÉRO

La fonction connue sous le nom de "fonction de Bessel d'ordre zéro", est définie par la série de puissances:

equation   (11.334)

C'est lors de l'étude des propriétés de dérivation et d'intégration que Bessel a trouvé que cette série de puissance est une solution à une équation différentielle que l'on retrouve assez fréquemment en physique. C'est pourquoi elle porte son nom.

Si equation représente le r-ème terme de la série, nous voyons aisément que:

equation   (11.335)

qui tend vers zéro quand equation, quelle que soit la valeur de x. Cela a pour conséquence que la série converge pour toutes les valeurs de x. Comme il s'agit d'une série de puissance positive, la fonction equation et toutes ses dérivées sont continues pour toutes valeurs de x, réelles ou complexes.

FONCTION DE BESSEL D'ORDRE N

La fonction equation, connue sous le nom de "fonction de Bessel d'ordre n", est définie, lorsque n est un entier positif, par la série de puissance:

equation   (11.336)

qui converge pour toutes valeurs de x, réelles ou complexes.

equation
Figure: 11.19 - Tracé de quelques fonctions de Bessel

et dans Microsoft Excel 11.8346 ou Maple 4.00b la fonction précédente se trouve sous le nom BESSELJ. Par exemple pour obtenir le graphique précédent dans Maple, il suffit d'écrire:

> plot([BesselJ(0,x),BesselJ(1,x),BesselJ(2,x),BesselJ(3,x)],x=0..20);

Voyons qu'en particulier, pour equation nous avons:

equation   (11.337)

et quand equation:

equation   (11.338)

Nous pouvons noter que equation est une fonction paire de x quand n est pair, et impaire quand n est impair (cf. chapitre d'Analyse Fonctionnelle).

En dérivant la fonction equationet en comparant le résultat avec la série equation, nous voyons sans trop de peine que:

equation   (11.339)

Nous trouvons également sans trop de difficulté, la relation suivante:

equation   (11.340)

En utilisant le fait que:

 equation    (11.341)

et en l'incluant dans la précédente relation, nous trouvons:

equation   (11.342)

ou écrit autrement:

equation   (11.343)

equation est donc une solution de l'équation différentielle du second ordre:

equation   (11.344)

ou écrit autrement:

 equation     (11.345)

ou encore:

equation   (11.346)

Une solution à une équation de Bessel de paramètre n qui n'est pas un multiple de equation est appelée "fonction de Bessel du second type". Supposons que u soit une telle fonction et posons equation; alors d'après la relation:

equation   (11.347)

nous avons:

equation et equation   (11.348)

En multipliant la première relation  par v et la seconde par u et après soustraction, nous obtenons:

equation   (11.349)

nous avons donc également:

equation   (11.350)

nous pouvons donc écrire:

equation   (11.351)

effectivement car si nous développons, nous trouvons:

equation   (11.352)

Pour que l'égalité:

 equation   (11.353)

soit satisfaite, nous avons:

equation   (11.354)

En divisant par equation, nous avons:

equation   (11.355)

ce qui est équivalent à:

equation   (11.356)

de suite, par intégration il vient:

equation   (11.357)

A est une constante. Consécutivement nous avons, puisque equation:

equation   (11.358)

où rappelons-le, A et B sont des constantes, et equation si u n'est pas un multiple de equation par définition.

Si dans la dernière relation, equation est remplacé par son expression en termes de série nous avons:

equation   (11.359)

Pour ceux qui veulent vérifier cette dernière relation (je n'aime pas ce genre de calculs algébriques) avec Maple 4.00b il suffit d'écrire:

>1/x*taylor(1/(series(BesselJ(0,x),x))^2,x=0,5);

Dès lors:

equation   (11.360)

consécutivement si nous posons:

equation   (11.361)

equation est une fonction de Bessel particulière du second type appelée "fonction de Bessel-Neumann du second type d'ordre nul".

Identiquement au fait que equation quand equation, l'expression equation à cause du terme equationquand x est petit tend vers equation quand equation.

Finalement, il vient de ce que nous avons vu précédemment que equation et equationsont des solutions indépendantes de l'équation différentielle:

equation   (11.362)

La solution générale étant donc:

equation   (11.363)

A,B sont des constantes arbitraires et equation afin que equation soit réel.

Si nous remplaçons x par kx, où k est une constante, l'équation différentielle devient:

equation   (11.364)

en multipliant le tout par equation, nous trouvons la forme générale de l'équation différentielle:

equation   (11.365)

dont la solution générale est:

equation   (11.366)

equation afin que equation soit réel quand equation.

Au fait, les fonctions de Bessel viennent des solutions de l'équation différentielle étudiée précédemment et solutionnées par la méthode de Frobenius. Posons:

equation   (11.367)

et faisons la substitution:

equation   (11.368)

en substituant dans Ly, nous obtenons:

equation   (11.369)

Choisissons maintenant les equation afin de satisfaire l'équation différentielle tels que:

equation   (11.370)

Dès lors, à moins que equation soit un entier négatif, nous avons:

equation   (11.371)

En substituant ces valeurs dans la relation:

equation   (11.372)

nous obtenons:

equation   (11.373)

dès lors:

equation   (11.374)

si nous posons equation dans l'avant-dernière relation, nous obtenons:

equation   (11.375)

ÉQUATION DIFFÉRENTIELLE DE BESSEL D'ORDRE N

Nous avons défini les séries de Bessel comme étant:

equation   (11.376)

Posons:

equation   (11.377)

et dérivons ainsi:

equation   (11.378)

Mais nous avons aussi:

equation   (11.379)

Par soustraction:

equation   (11.380)

Ce qui donne finalement:

equation   (11.381)

Ce qui s'écrit également:

equation   (11.382)

qui est appelée "l'équation différentielle de Bessel d'ordre n" ou plus simplement "équation de Bessel". Au fait, la plupart des écoles ou sites Internet donnent cette équation différentielle comme une définition et pourtant il est clair qu'il y a un raisonnement rigoureux derrière cette équation.

La solution est donc du type:

equation   (11.383)

ce qui s'écrit encore parfois en utilisant la fonction gamma d'Euler:

equation   (11.384)

Il s'ensuit que:

equation   (11.385)

et donc que equationest solution de cette équation différentielle.

CRITÈRES DE CONVERGENCE

Lorsque nous étudions une série, l'une des questions fondamentales est celle de la convergence ou de la divergence de cette série.

Si une série converge, son terme général tend vers zéro lorsque n tend vers l'infini:

equation   (11.386)

Ce critère est nécessaire mais non suffisant pour établir la convergence d'une série. Par contre, si ce critère n'est pas rempli, on est absolument sûr que la série ne converge pas (donc elle diverge!).

Trois méthodes sont proposées pour approfondir le critère de convergence:

1. Le test de l'intégrale

2. La règle d'Alembert

3. La règle de Cauchy

Dans les paragraphes suivants, nous admettrons des séries à termes positifs. Le cas de la série alternée sera vu ultérieurement.

TEST DE L'INTÉGRALE

Soit la série à termes positifs décroissants:

equation   (11.387)

c'est-à-dire:

equation   (11.388)

et soit une fonction continue décroissante telle que:

equation   (11.389)

nous pouvons alors affirmer que:

1. Si l'intégrale:

equation   (11.390)

converge, la série converge également.

2. Si l'intégrale:

equation   (11.391)

diverge, la série diverge également.

Remarque: En aucun cas l'intégrale ne donne la valeur de la somme de la série ! Le test de l'intégrale donne simplement une indication sur la convergence de la série. Avant de faire le test de l'intégrale, il est important de vérifier que les termes de la série soient strictement décroissants afin de remplir la condition equation.

RÈGLE D'ALEMBERT

Si dans une série à termes positifs:

equation   (11.392)

le rapport equation (assimilable à une fonction prise en son entier) a une limite finie L lorsque equation:

equation   (11.393)

1. Si equation, la série converge

2. Si equation, la série diverge

3. Si equation on ne peut rien dire

et nous définissons le "rayon de convergence" comme:

equation   (11.394)

RÈGLE DE CAUCHY

Si dans une série à termes positifs:

equation   (11.395)

la quantité equation a une limite finie L lorsque equation telle que:

equation   (11.396)

avec à nouveau les mêmes considérations que pour la règle d'Alembert:

1. Si equation, la série converge

2. Si equation, la série diverge

3. Si equation on ne peut rien dire

THÉOREME DE LEIBNIZ

Nous avons considéré jusqu'à présent des séries à termes positifs. Nous allons considérer dans cette partie des séries dont les termes sont alternés, c'est-à-dire des séries de la forme:

equation   (11.397)

Définition: Une série est dite "série alternée" si deux termes consécutifs de cette série sont de signe contraire.

Si dans une série alternée les termes en valeur absolue vont en décroissant:

equation   (11.398)

et si:

equation   (11.399)

alors la série converge, sa somme est positive et n'est pas supérieure au premier terme.

Si S est la somme de la série et equation une somme partielle, alors:

equation   (11.400)

Remarque: Il est important de vérifier que les valeurs absolues des termes de la série soient strictement décroissantes afin de remplir la condition précédente.

CONVERGENCE ABSOLUE

Définition: Une série à termes variables est dite absolument convergente si la série formée avec la valeur absolue de ses termes converge:

equation   (11.401)

Si une série alternée de termes est absolument convergente, la série absolue qui en découle converge aussi.

Nous pouvons généraliser la règle d'Alembert au cas des séries à termes quelconques:

equation   (11.402)

Ainsi, le rapport  equation a une limite finie L lorsque pour equation nous avons:

equation   (11.403)

toujours avec les mêmes conclusions que pour la règle d'Alembert normale.

THÉOREME DU POINT FIXE

Le théorème du point fixe n'est pas vraiment utile en physique (implicitement il est indispensable mais les physiciens utilisent souvent des outils mathématiques dont les propriétés ont déjà été validées au préalable par des mathématiciens), cependant nous le retrouvons en théorie du chaos (les vortex, tourbillons, etc...) ainsi qu'en informatique théorique (voir chapitre traitant des fractales en particulier le triangle de Sierpinski). Nous ne saurions donc que recommander au lecteur de prendre le temps de lire et de comprendre les explications et développements qui vont suivre.

Soit (X,d), un espace métrique complet (cf. chapitre de Topologie ou des Fractales) et soit equation une application strictement contractante de constante L (voir les fonctions lipschitziennes chapitre de Topologie), alors il existe un unique point equation tel que :

equation   (11.404)

equation est alors dit le "point fixe" de T (penser par exemple à cos(x)=x ). De plus si nous notons par:

 equation  (11.405)

l'image de x par le n-ème itéré de T, nous avons alors: 

equation   (11.406)

et la vitesse de convergence peut d'ailleurs être estimée par:

equation   (11.407)

Remarque: Vous pouvez vous amuser avec votre calculatrice de poche ou celle de votre système d'exploitation en choississant un nombre au hasard et en en prenant le cosinus de manière itérative. Vous verrez que vous tendrez 0.74 et donc que in extenso il s'agit de la solution de cos(x)=x.

Démonstration:

Soit equation. Nous considérons la suite equation définie comme ci-dessus. Nous allons d'abord montrer que cette suite est une suite de Cauchy (voir plus haut dans le présent chapitre ce qu'est une suite de Cauchy). 

En appliquant l'inégalité triangulaire (cf. chapitre d'Analyse Vectorielle) plusieurs fois nous avons:

equation
  (11.408)

Or:

equation   (11.409)

donc:

equation
  (11.410)

pour finir:

equation   (11.411)

c'est-à-dire que dans un premier temps equation est bien une suite de Cauchy.

(X,d) étant un espace complet nous avons que  equation converge, et nous posons:

equation   (11.412)

A présent, nous vérifions que equation est bien un point fixe de T. En effet T est uniformément continue (car lipschitzienne - voir le chapitre de Topologie) donc à fortiori continue ainsi:

equation   (11.413)

Il reste à vérifier que equation est l'unique point fixe (du coup nous aurons démontré que equation ne dépend pas du choix de x). Supposons que nous ayons aussi equation alors:

equationequation   (11.414)

Une estimation de la vitesse de convergence est donnée par:

equation   (11.415)

equation est continue par rapport à chacune des variables donc:

equation   (11.416)

et les limites préservent les inégalités (non strictes) donc:

equation   (11.417)

equationC.Q.F.D.

En Savoir Plus

- Introduction to Bessel function, F. Bowman, Éditions Dover publications, ISBN10: 486604624 (134 pages) - Imprimé en 1958


Haut de page

CALCUL DIFFÉRENTIEL ET INTEGRAL (2/2)CALCUL VECTORIELLE


Like7   Dislike0
63.33% sur 100%
Notée par 48 visiteur(s)
12345
Commentaires: [0] 
 
 


W3C - HTMLW3C - CSS Firefox
Ce travail est dans le domaine public
2002-2017 Sciences.ch

Haut de page