Cours Université d`Orléans

Université d’Orléans
U.F.R. Faculté des Sciences
Licence de Physique
Analyse numérique pour les sciences physiques
Jean-Philippe Grivet, 2005
Chapitre 1
Représentation graphique de
fonctions
L’une des activités les plus fréquentes en informatique scientifique consiste à représenter l’allure
d’une fonction à l’aide d’un dessin, et de très nombreux logiciels peuvent répondre à cette attente
légitime. On peut distinguer deux cas un peu différents en pratique : la fonction est définie par une
ou des formules, ou elle est représentée par un tableau de valeurs. Si le premier cas ne présente
aucune difficulté, le deuxième demande que l’on sache faire lire un fichier de données par le logiciel
considéré, à moins de devoir entrer toutes les valeurs au clavier. J’explique la marche à suivre, pour
quelques logiciels pratiques et faciles d’accès, dans les paragraphes qui suivent.
1.1
Scilab
Scilab est un logiciel gratuit, très puissant et disponible sur le site de l’INRIA. On peut l’utiliser
de façon interactive (comme une calculette) ou préparer, à l’aide d’un éditeur de texte (par exemple
celui qui est incorporé dans Scilab depuis la version 2.7), un programme que l’on fera exécuter
ensuite.
Supposons que je souhaite tracer une sinusoïde amortie, répondant à l’équation
y = exp(−αx) cos(βx),
pour α = 0.3, β = 2 et 0 ≤ x ≤ 10. Les instructions suivantes conviennent.
deff("y = f(x)", "y = exp(-alfa*x)*cos(beta*x)")
alfa = 0.4; beta = 0.4;
x = 0:0.1:10;
fplot2d(x,f)
Le résultat apparaît sur la figure. Ce n’est pas ici le lieu de détailler la syntaxe de Scilab, qui est
très bien expliquée dans l’aide en ligne, dans les manuels et sur divers sites (voir les références en
fin de chapitre) ; je me contenterais de quelques indications. La première ligne définit une fonction
f laquelle dépend d’un seul argument, x ; y est une variable interne à la définition et ne joue
aucun rôle dans la suite. Une définition de ce genre, dite «en-ligne», ne doit pas occuper plus
d’une ligne ! Les points-virgules indiquent à Scilab qu’il ne doit pas afficher à l’écran les valeurs
qui viennent d’être définies. La troisième ligne initialise un vecteur, x, dont les coordonnées sont
x1 = 0, x2 = 0.1, x3 = 0.2, . . . , x101 = 1. Vous pouvez constater qu’il se passe pas mal de choses
«en douce» lors de l’appel de la fonction fplot. Chaque composante du vecteur x est substituée
à l’argument formel x de la «fonction externe» f, la valeur de la fonction est calculée et constitue
2
Chapitre 1. Représentation graphique de fonctions
Fig. 1.1 – Une sinusoïde amortie représentée par Scilab
1.0
0.8
0.6
0.4
0.2
0
−0.2
−0.4
−0.6
−0.8
0
1
2
3
4
5
6
7
8
9
10
une composante d’un vecteur. Le programme interpole ensuite entre composantes successives pour
produire un tracé lisse.
Vous pouvez définir vous-même complètement la suite de points à représenter, comme ceci
alfa = 0.4; beta = 0.4;
x = 0:0.1:10;
y = exp(-alfa*x).*cos(beta*x);
plot2d(x,y)
Ici, y est un vecteur que Scilab calcule composante par composante à partir des coordonnées
du vecteur x. Faites bien attention à l’écriture «.*» (point étoile) qui réalise cette multiplication
composante par composante. Sans le point, y n’est que le produit scalaire (une seule valeur) des
vecteurs exp(-alfa*x) et cos(beta*x).
Les fonctions fplot2d ou plot2d admettent de nombreux paramètres qui permettent de modifier le domaine de variation des coordonnées, la couleur et l’épaisseur des traits, etc. . .
Comment procéder pour tracer la courbe correspondant à un fichier de valeurs numériques ?
C’est une opération très semblable à la précédente. Je suppose que le fichier D:/an_poly/ex112.dta
contient les données qui m’intéressent, à raison de trois par ligne, ces nombres étant séparés par
des espaces ou une tabulation :
1.0 -2.2
.831
-6 123.456
-3
3.1415
2.718281828
-0.3183098
Je procède alors comme suit
M = read("D:/an_poly/ex112.dta", -1,3);
plot2d(M(:,1),M(:,3),-3)
Scilab admet aussi bien les obliques que les contre-obliques dans les noms de fichiers. À la première
ligne, je lis le contenu du fichier et je range les valeurs dans la matrice M. La valeur -1 oblige Scilab
à lire toutes les lignes de D:/an_poly/ex112.dta quelque soit leur nombre et le point-virgule est
là pour l’empêcher d’afficher ces valeurs à l’écran. Je représente ensuite graphiquement tous les
nombres de la troisième colonne de M (ordonnées) en fonction des valeurs correspondantes de la
première colonne (abscisses). Sauf indication contraire, Scilab relie les points par de segments. Pour
empêcher cela, j’ai indiqué un «style» de trait négatif (-3 ici) ; Scilab représente alors des points
isolés à l’aide d’un symbole.
Pour imprimer, on utilise l’option «imprimer» du menu déroulant «fichier» dans la fenêtre qui
contient le graphe.
3
1.2. Maple
Fig. 1.2 – Représentation d’une série de valeurs sous Scilab
2
⊕
1
⊕
0
−1
−2
⊕
−3
−4
−7
1.2
−5
−3
−1
1
3
5
Maple
Le logiciel Maple est orienté vers le calcul algébrique ; il possède cependant des possibilités
graphiques extrêmement puisssantes, dont voici un tout petit aperçu. Le dialogue suivant permet
de tracer une sinusoïde amortie.
>
y := exp(-alpha*x)*cos(beta*x);
>
y := e(−α x) cos(β x)
y1 := subs(alpha = 0.3, beta = 4,y);
y1 := e(−.3 x) cos(4 x)
>
plot(y1,x = 0..10);
Fig. 1.3 – Tracé d’une sinusoïde amortie par Maple
0.5
–6
–4
–2
2
0
–0.5
–1
–1.5
–2
–2.5
–3
J’aurais pu me contenter de l’instruction unique
> plot( exp(-0.3*x)*cos(4*x),x = 0..10) ;
mais la version précédente me permet de définir une quantité y dépendant de deux paramètres dont
je peux modifier la valeur aisément. Le symbole % signifie pour Maple «expression précédente»
(c’est ¨ qui joue ce rôle pour la version V4).
4
Chapitre 1. Représentation graphique de fonctions
La lecture d’un tableau de valeurs externe se fait par l’instruction «readdata» qui admet deux
paramètres obligatoires, le nom du fichier et le nombre de colonnes. On peut aussi préciser s’il
s’agit d’entiers ou de nombres fractionnaires. La manoeuvre est simple dans le cas d’un tableau à
deux colonnes, comme le montre l’exemple ci-dessous. J’ai créé le fichier dont le nom complet est
\"D:\an_poly\ex122.dta\" et dont le contenu est
-2
-3.1
-1.1
-.99
0
1
2.222 3.1415
4
5
Je trace le graphe correspondant à l’aide des instructions
>
M := readdata("C:/an_poly/ex122.dta",2);
M := [[−2., −3.1], [−1.1, −.99], [0., 1.], [2.222, 3.1415], [4., 5.]]
>
plot(M);
Fig. 1.4 – Tracé d’une suite de points par Maple
4
2
–2
–1
1
2
3
4
–2
Les nombres entiers ont été transformés en nombres fractionnaires. Remarquez aussi que les
contre-obliques du nom de fichier sont remplacées par des obliques sous Maple. Il est un peu
plus compliqué d’extraire d’un fichier une colonne d’abscisses et une colonne d’ordonnées. Il faut
procéder comme ceci. Le fichier dont le nom DOS complet est D:\an_poly\ex123.dta contient les
valeurs :
1.0 -2.2
.831
-6 123.456
-3
3.1415 2.718281828
-0.3183098
5
1.3. gnuplot
L’instruction > M := readdata("D:/an_poly/ex123.dta",3); lira ces données et produira le
résultat
M := [[1.0, -2.2, .831],[-6., 123.456, -3.],[3.1415, 2.718281828,
-.3183098]]
Maple considère M comme une liste de listes, chaque liste représentant une ligne. Le code ci-dessous
extrait les nombres de la première colonne (abscisses) et ceux de la troisième colonne(ordonnées),
par exemple, puis reporte les points sur un graphique.
>
restart;
>
with(plots):
>
M := readdata("C:/an_poly/ex112.dta",3);
>
M := [[1.0, −2.2, .831], [−16., 123.456, −3.], [3.1415, 2.718281828, −.3183098]]
points := [seq([M[i,1],M[i,3]],i=1..3)];
>
points := [[1.0, .831], [−16., −3.], [3.1415, −.3183098]]
plot(points,style=POINT,symbol=BOX, thickness=2,symbolsize=20);
Fig. 1.5 – Tracé d’une suite de points par Maple
0.5
–6
–4
–2
2
0
–0.5
–1
–1.5
–2
–2.5
–3
1.3
gnuplot
gnuplot est un autre logiciel gratuit et puissant, disponible pour tous les systèmes d’exploitation ; il a l’avantage d’être assez peu encombrant. Il possède un analyseur syntactique qui connaît
la plupart des fonctions élémentaires. Il est très facile d’accomplir avec gnuplot les deux tâches qui
me servent d’exemples depuis le début. Pour tracer une fonction définie par une formule :
>
>
alfa = 0.3; beta = 4;
plot [0:10] exp(-alfa*x)*cos(beta*x);
La fonction «plot» admet comme premier paramètre l’intervalle de variation de la variable indépendante, laquelle doit s’appeler x, par convention.
Pour afficher un fonction définie comme une suite de valeurs (x, y) :
> plot [-2.5:0] [-3.5:1.5] "D:/an_poly/ex142.dta"
Ici encore, les obliques remplacent les contre-obliques de MS-DOS ; j’ai indiqué l’intervalle de
variation pour x et pour y.
6
Chapitre 1. Représentation graphique de fonctions
Comme gnuplot possède de très nombreuses options, qu’il serait malcommode de préciser à
chaque tracé, il est recommandé d’utiliser un fichier de commande. On peut pour cela créer, à la
main, un tracé simple puis sauvegarder toutes les options en cours dans un fichier par la commande
save <nom_de_fichier>. Ce fichier texte est lisible et modifiable dans n’importe quel éditeur ; on
peut donc, à loisir, ajouter ou modifier des paramètres. On exécute ensuite le fichier modifié par
la commande load <nom_de_fichier>.
La méthode la plus directe pour imprimer sous Windows consiste à cliquer sur l’icone située en
haut à gauche du graphe, puis à choisir options/print.
1.4
Excel
Tous les tableurs comportent des outils graphiques puissants. Dans le cas d’une fonction analytique, ; s’agissant d’un fichier de données, le seul obstacle mineur est la lecture du fichier. Dans
le cas d’une version assez récente d’Excel, par exemple, on clique sur fichier/ouvrir, on indique que
l’on s’intéresse à tous les types de fichiers, on choisit le bon fichier dans la liste déroulante et on
l’ouvre. Il faut alors répondre aux questions simples de «l’assistant d’importation de textes» qui
concernent la disposition des données. Le fichier est ensuite importé dans Excel, ligne par ligne
et colonne par colonne ; il faut parfois retoucher certaines lignes ou colonnes si la disposition des
nombres est très irrégulière. Les logiciels comme Pascal ou C créent des fichiers de résultats où les
nombres fractionnaires sont écrits avec des points, alors que la version francisée d’Excel attend des
virgules. Il est facile, après sélection des cellules concernées, d’utiliser édition/remplacer/remplacer
tout pour corriger ces données. Pour le tracé, on appele «l’assistant graphique» et on répond à ses
questions.
1.5
Logiciels sous Linux
Les utiisateurs du système Linux ont à leur disposition de nombreux autres outils graphiques
gratuits. Je citerais la collection de programmes «Plotutils» (qui se lancent depuis la ligne de
commande), la bibliothèque «pgplot» concue pour s’interfacer facilement avec des programmes en
Fortran et enfin le somptueux «xmgrace» interactif.
1.6
Liens utiles
– Scilab :
http ://scilabsoft.inria.fr/
http ://www.iecn.u-nancy.fr/ pincon/
http ://www.dma.ens.fr/ ldumas/aide.html
www.math-info.univ-paris5.fr/Enseignements/demarre_scilab/demarre_scilab.html
– Maple :
http ://www.maplesoft.com/
lumimath.univ-mrs.fr/ jlm/cours/maple/maple.html
http ://algo.inria.fr/dumas/Maple/
http ://perso.wanadoo.fr/eddie.saudrais/
http ://www-math.math.rwth-aachen.de/MapleAnswers/
– gnuplot :
http ://www.gnuplot.info/
ftp ://ftp.irisa.fr/pub/gnuplot/
– Grace :
http ://plasma-gate.weizmann.ac.il/Grace/
7
1.6. Liens utiles
– plotutils :
www.gnu.org/software/plotutils/
– pgplot :
http ://www.astro.caltech.edu/ tjp/pgplot/
– visualisation 3D http ://www.cmap.polytechnique.fr/ jouve/xd3d/
– un site généraliste http ://ufrmeca.univ-lyon1.fr/formation/ISTIL/OutilsInfo/
– une entrée dans le monde de Linux http ://sal.linet.gr.jp/index.shtml
8
Chapitre 2
Calcul de Fonctions
Sachant qu’un ordinateur ne connaît que les 4 opérations de l’arithmétique (addition, sous√
traction, multiplication et division), comment doit-on s’y prendre pour calculer les valeurs de x,
cos x ou J3 (x) ? On doit faire appel à un algorithme et il existe des algorithmes de calcul pour
chaque fonction. Certains datant de l’antiquité (pour le calcul des racines carrées), d’autres n’ont
que quelques années d’existence. L’utilisateur devrait donc, en principe, écrire un sous-programme
pour calculer la ou les fonctions qui l’intéresse. Une partie du travail est déjà fait ; depuis quelques
années, les microprocesseurs incorporent un opérateur mathématique capable de calculer vite et
bien les fonctions élémentaires. Les compilateurs comportent également des sous-programmes de
calcul de fonctions, plus ou moins nombreux selon le compilateur. Cependant, on rencontre souvent des «fonctions spéciales» telles que les fonctions de Bessel, les polynômes de Legendre ou les
fonctions elliptiques pour lesquelles il n’existe pas de programme immédiatement disponible. On
peut alors rechercher le programme convenable dans les livres ou dans les bibliothèques (voir le
«GAMS», Guide to available mathematical software) ou écrire un programme soi-même.
J’estime qu’il est extrêmement instructif et utile d’apprendre à programmer le calcul d’une
fonction : on doit découvrir le «bon» algorithme, on apprend à se défier des erreurs d’arrondi ou
de troncation, enfin on s’entraîne à rédiger un programme correct. Dans tous les cas simples, la
vérification du programme est immédiate, par comparaison avec le résultat fourni par le compilateur
ou la calculette.
Une catégorie de fonctions se calcule exactement en utilisant uniquement des opérations arithmétiques, ce sont les polynômes et les fractions rationnelles. Ils font l’objet du prochain paragraphe.
2.1
Polynômes et fractions rationnelles
Un polynôme sous forme générale s’écrit
p(x) = a0 + a1 x + a2 x2 + · · · + an−1 xn−1 + an xn .
Les coefficients ak et la variable x sont supposés réels. S’il n’y a aucune difficulté pour calculer la
valeur numérique de p(x0 ), pour la valeur x = x0 de la variable, je peux me demander quelle est
la façon la plus rapide de parvenir au résultat.
La méthode «naïve» consiste à calculer séparément la valeur de chaque puissance de x0 , puis
à multiplier chaque quantité xk0 par le coefficient ak correspondant, puis à faire la somme des
résultats intermédiaires. Pour obtenir ak xk0 , je dois faire k multiplications (n ≥ k ≥ 1) et donc
n(n + 1)/2 multiplications en tout ; il s’y ajoute n additions. L’algorithme naïf demande donc un
nombre d’opérations qui varie comme n2 ; on dit qu’il présente une complexité d’ordre n2 .
Un méthode plus économique est fondée sur la remarque que le calcul de xk0 peut se faire
simplement à partir de la valeur de xk−1
: xk0 = x0 ? xk−1
. On calcule l’ensemble des xk0 , k = 2 . . . n
0
0
9
2.2. Relations de récurrence
en n − 1 multiplications et on garde en mémoire tous les résultats. Il faut ensuite multiplier chaque
puissance de x par le bon coefficient (n − 1 opérations) et faire la somme. Vous vérifierez sans peine
que le nombre total d’opérations varie comme 3n.
L’algorithme de Horner perfectionne le méthode précédente. Il est fondé sur le fait que le
polynôme peut s’écrire
p(x) = ((an ? x + an−1 ) + an−2 ) ? x + · · · + a1 ) ? x + a0 .
Sous cette forme, le calcul de la valeur numérique nécessite n multiplications et n additions, soit
une «complexité» d’ordre 2n. Comment programmer pratiquement ce calcul ? Le polynôme est
représenté en mémoire par le vecteur de ses coefficients, a = [a0 , a1 , . . . , an ]. Si le degré est élevé,
il est fastidieux d’écrire en entier la formule précédente, il vaut mieux utiliser la récurrence
z0 = an
;
zk = xzk−1 + an−k ,
k = 1, 2, . . . , n.
On peut faire ce calcul à la main, en utilisant une disposition comme ci-dessous ; il s’agit de calculer
la valeur de x5 + 2x3 − 3x2 + 4x − 1 pour x = 2.
1
1
0
2
2
6
-3
9
4
22
-1
43
Le premier élément de la deuxième ligne est z0 , il est égal à an ; le deuxième élément (z1 ) vaut
2z0 + an−1 = 2z0 = 2, le troisième est z2 = 2z1 + an−2 = 2 ? 2 + 2 = 6. La valeur de polynôme est
43. Vous voyez qu’il faut tenir compte des coefficients nuls.
Une fraction rationnelle est le quotient de deux polynômes ; il suffit de calculer comme précédemment le numérateur et le dénominateur avant d’effectuer la division.
2.2
Relations de récurrence
Certaines fonctions utiles obéissent à des relations de récurrence, le plus souvent à trois termes.
La fonction cosinus en fournit un exemple élémentaire :
cos(k + 1)x = 2 cos kx cos x − cos(k − 1)x.
On peut utiliser cette relation, avec x «assez petit» pour établir rapidement une table des valeurs
de cos kx.
Exemple. Les polynômes de Legendre obéissent à la relation de récurrence suivante
(n + 1)Pn+1 (x) = (2n + 1)xPn (x) − nPn−1 (x)
qui permet un calcul rapide et précis de Pn (x) pourvu que l’on connaisse P0 = 1 et P1 (x) = x. Les
deux petits fichiers qui suivent permettent le calcul puis l’affichage de Pn sous Scilab.
Remarquez l’instruction pp = ones(x) qui crée un vecteur de la même taille que x et dont
toutes les composantes sont égales à 1. Rappel : la construction «.*» permet de faire le produit
composante par composante de deux vecteurs : si a = {ai } et b = {bi }, alors a. ∗ b = {ai bi }.
On effectuerait de façon analogue une division ou une élévation à la puissance. Ce type de calcul
est beaucoup plus rapide qu’une boucle for. La figure montre le résultat dans le cas n = 9.
10
Chapitre 2. Calcul de Fonctions
Listing 2.1 – polynôme de Legendre
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
1
2
3
4
5
6
function y = p o l e g ( n , x )
// polynome de Legendre
select n
case 0 then pp = ones ( x ) ;
case 1 then pp = x
else
pavder = ones ( x ) , pder = x ; i = 1 ;
while i < n
pp = ( ( 2 ∗ n+1)∗x . ∗ pder − n∗ pavder
pavder = pder ; pder = pp ;
i = i + 1;
end
end
y = pp ;
endfunction
) / ( n +1);
g e t f ( "C: \ an_poly \ l e g e n d r e . s c e " ) ;
n = input ( " d e g r e du polynome : " ) ;
x = linspace ( − 1 , 1 , 2 0 0 ) ;
y = poleg (n , x ) ;
xset ( "window" , 0 ) , xbasc ( 0 )
plot2d ( x , y )
2.3
Développement limité
La grande majorité des fonctions que l’on rencontre en sciences physiques admet un développement en série ; il est donc tentant d’utiliser un développement en série tronqué (un polynôme)
pour le calcul numérique d’une telle fonction.
Dans les paragraphes précédents, il n’y avait aucune approximation ; si les résultats n’étaient
pas tout à fait exacts, cela était du aux «erreurs d’arrondi», sur lesquelles je reviendrai à la fin de ce
chapitre. L’utilisation d’un développement en série tronqué au terme de rang n fait apparaître une
autre source d’erreur, liée à la méthode utilisée elle-même : au lieu d’une série infinie, je manipule
un polynôme à n termes, commettent ainsi ce que l’on appelle une «erreur de troncation» (ou
erreur de méthode). Cette erreur est souvent assez facile à borner, à condition de savoir que la
variable indépendante est contenue dans un intervalle défini.
Pour montrer les avantages et inconvénients de cette approche, je choisis l’exemple simple de
la fonction e−x , que je voudrais approcher par son développement en série tronqué, avec une
erreur absolue inférieure au millième, sur l’intervalle [0,10]. Le terme général du développement est
k
uk = (−1)k xk! . La série est absolument convergente quelque soit x, ce qui, malheureusement, n’est
pas synonyme de rapidement convergente. Je peux estimer le nombre de termes nécessaires à partir
du rapport |uk+1 /uk | = x/(k + 1). Ce rapport est plus grand que un (les termes de la série sont
croissants en valeur absolue) tant que k + 1 < |x|. Cela implique qu’au bord de l’intervalle choisi,
il faudra bien plus de 10 termes pour approcher la fonction exponentielle. En fait, pour x = 10,
j’ai trouvé v9 ' −2755, 7 et v10 ' 2755, 7. Plus ennuyeux encore, sachant que e3 ' 20, j’estime que
e−10 ' 5 10−5 . Ceci signifie que pour atteindre une précision absolue du millième, le premier terme
négligé devra être inférieur à 5 10−8 . Le premier terme qui réponde à ce critère est le 39ième ; on
trouve alors e−10 ' 0, 0000454. Il faut remarquer que chacun des 39 termes doit être calculé avec
une précision absolue de 510−8 , soit 12 (douze) chiffres significatifs pour les plus grands d’entre
eux, sous peine de perdre toute précision à cause des erreurs d’arrondi pendant l’addition de termes
11
2.4. Fraction continue
Fig. 2.1 – Le polynôme de Legendre d’ordre 9.
1.0
0.8
0.6
0.4
0.2
0
−0.2
−0.4
−0.6
−0.8
−1.0
−1.0
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
1.0
de signes différents. Cet exemple est certes caricatural ; en pratique, on s’arrangerait pour réduire
l’intervalle de définition de x. Il montre cependant que le calcul à l’aide de développements tronqués
doit faire l’objet d’une attention certaine.
Sans me laisser abattre par les remarques précédentes, j’ai rédigé un programme de calcul de
e−x sous Scilab, que je reproduis ci-dessous. Je calcule chaque terme à partir du précédent (ligne
Listing 2.2 – Développement limité de l’exponentielle
1
2
3
4
5
6
7
8
9
10
11
12
//mon_exp , d e c r o i s s a n t e .
e p s = 1E−8; kmax = 4 0 ;
terme = 1 ; somme = 1 ; k = 1 ;
x = input ( " v a l e u r de x : " ) ;
while ( k<kmax ) & ( abs ( terme ) > e p s )
terme = −x∗ terme /k ;
somme = somme + terme ;
[ r e s ] = [ k , terme , somme ] ;
write(% i o ( 2 ) , r e s ) ;
k = k+1;
end
somme , exp(−x )
6), en évitant soigneusement de former des factorielles ou des puissances de x : ce serait beaucoup
plus long et surtout les résultats intermédiaires déborderaient de la capacité de l’ordinateur. Les
lignes (8,9) affichent, de façon plutôt malcommode, des résultats intermédiaires (il y a bien d’autres
façon de faire).
2.4
Fraction continue
L’objet mathématique représenté ci-dessous est une «fraction continue» :
f = b0 +
a1
b1 +
b2 +
12
a2
b3 +
a3
a4
b4 + · · ·
Chapitre 2. Calcul de Fonctions
Pour simplifier le travail des imprimeurs, j’écrirais plutôt
f = b0 +
a1 a2 a3 a4
···
b1 + b2 + b3 + b4 +
Une expression de ce genre n’a d’intérêt que si les ai et les bi sont des constantes ou des fonctions
simples de x, comme dans la représentation de la fonction tangente :
tg x =
x x2 x2 x2
.
1− 3− 5− 7−
Cette expression converge rapidement et nécessite moins d’opérations que le développement en série
tronqué de la même fonction. Elle souffre cependant d’un inconvénient pratique sérieux : il n’y a
pas moyen de déterminer a priori le nombre de termes à conserver pour obtenir une précision fixée
à l’avance. Il existe en fait un algorithme itératif qui permet le calcul de f «de gauche à droite»
à partir des ai et des bi et que l’on peut interrompre lorsque deux approximations successives
ont suffisamment proches (algorithme de Clenshaw). Sans faire appel à ce perfectionnement, on
peut apprécier ce type d’approximation sur l’exemple de tg x ; si je tronque la fraction continue
précédente après le terme x2 /9, j’obtient, après réduction au même dénominateur
tg x =
x 943 − 105x2 + x4
.
15 63 − 28x2 + x3
Les premiers zéros de numérateur sont ±1,57080 et ceux du dénominateur ±3,153, ce qui est proche
des valeurs exactes.
En fait, une fonction comme tg x, avec ses asymptotes verticales, a un comportement très éloigné
de celui d’un polynôme ; il sera donc malaisé de trouver un développement limité convenable.
Au contraire, une fraction rationnelle peut présenter des branches asymptotiques et pourra plus
facilement approcher tg x.
2.5
Approximant de Padé
D’après la remarque faite à la fin du paragraphe précédent, j’aurais intérêt, pour approcher
une fonction qui n’a pas un comportement polynômial, à essayer une fraction rationnelle. Si la
théorie générale de telles approximations existe, je ne la décrirais pas, mais je présenterais un
cas particulier, connu sous le nom d’approximant de Padé. On peut décrire un approximant de
Padé comme une fraction rationnelle qui obéit à des contraintes très semblables à celles d’un
développement en série.
2.5.1
définition
Dans la suite, je considère une fraction rationnelle Rm,k , quotient d’un polynôme Pm (le numérateur), de degré m et de coefficients aj , 0 ≤ j ≤ m par un polynôme Qm (le dénominateur),
de degré n et de coefficients bj , 0 ≤ j ≤ k. Comme je peux, sans changer la valeur de la fraction,
diviser haut et bas par une même constante, j’impose, sans restreindre la généralité, la condition
b0 = 1. La fraction Rm,k contient donc m + k + 1 coefficients à déterminer.
Rm,k sera, par définition, l’approximant de Padé d’ordre n + 1 de la fonction f (x), au voisinage
du point x = x0 , si Rm,k (x0 ) et ses n premières dérivées coïncident respectivement avec f (x0 ) et
ses n premières dérivées :
(p)
[Rm,k (x)]
≡ f (p) (x0 ), p = 0, 1, 2 . . . , n.
en posant f (0) = f . Je peux toujours, à l’aide d’une translation, me ramener au cas x0 = 0, ce que
je supposerai dans la suite. Comme je dispose de m + n + 1 coefficients inconnus, il me faut, pour
déterminer entièrement la fraction rationnelle, autant de conditions ; il faut donc que m + k = n.
13
2.5. Approximant de Padé
2.5.2
construction
Il est hors de question de calculer les dérivées successives de R et de f pour les identifier, ce
qui serait en général impossible ; plus simplement, je vais identifier les développements limités de
ces deux expressions, au voisinage de l’origine, jusqu’aux termes de rang n + k + 1 (ce qui assure
l’égalité des dérivées). On peut économiser encore des calculs en imposant, ce qui revient au même,
que le développement limité de la quantité R − f commence par un terme en xx+k+1 . Je suppose
que la fonction f admet un développement de MacLaurin
f (x) =
∞
X
cj xj .
j=0
R − f s’écrit
Pm (x) − Qk (x)f (x)
.
Qk (x)
Le développement limité de ce rapport est le quotient des développements du numérateur et du
dénominateur ; ce dernier ne va pas intervenir pour les premières puissances de x, puisqu’il vaut 1
près de l’origine. Le développement du numérateur doit commencer par le terme en xn+1 , ce qui
revient à dire que les coefficients des termes en x0 , x1 · · · xn sont tous nuls. J’en déduis les relations
a0 = b0 c0
a1 = b0 c1 + b1 c0
aj =
s=j
X
(x0 ),
(x1 ),
(xj , j ≤ m).
cs bj−s
s=0
Lorsque tous les coefficients aj disponibles ont été utilisés, je continue sans eux
0=
s=j
X
(xj , j = m + 1, m + 2 . . . , n).
cs bj−s
s=0
Il est commode d’utiliser d’abord la dernière série d’équations, plus simples, pour déterminer
certains des coefficients bi , puis la première série pour les coefficients restants.
On a constaté empiriquement que le choix m = k ± 1 était souvent meilleur que d’autres. Le
raisonnement précédent ne permet pas d’estimer l’erreur d’approximation, mais, là encore, l’expérience montre que l’approximation selon Padé est très bonne.
2.5.3
Exemple
Je cherche l’approximant de Padé R2,2 de ex au voisinage de l’origine. Ici, m = k = 2, n = 4 ; je
dois donc connaître, pour commencer, les 5 premiers termes du développement de l’exponentielle.
Les coefficients correspondants sont
c0 = 1;
c1 = 1;
c2 =
D’autre part, R2,2 s’écrit
R2,2 (x) =
1
;
2
c3 =
1
;
6
c4 =
1
.
24
a0 + a1 x + a2 x2
.
1 + b1 x + b2 x2
0
Je forme maintenant le numérateur de R−ex et j’identifie à zéro les coefficients de x2 , x1 , x2 , x3 , x4 ,
ce qui donne
a0 = 1;
a1 = b1 + 1;
0 = b2 + b1 /2 + 1/6;
a2 = b1 + b2 + 1/2;
0 = b1 /6 + b2 /2 + 1/24.
14
Chapitre 2. Calcul de Fonctions
Fig. 2.2 – Erreur d’approximation de ex par son développement limité (en noir) et par l’approximant de Padé R2,2 (en bleu)
0
−1e−3
−2e−3
−3e−3
−4e−3
−5e−3
−6e−3
−7e−3
−8e−3
−9e−3
−10e−3
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
Je trouve, en résolvant ce système :
b1 = −1/2;
b2 = 1/12;
et donc
R2,2 =
a0 = 1;
a1 = 1/2;
a2 = 1/12
12 + 6x + x2
(x + 6)x + 12
=
.
2
12 − 6x + x
(x − 6)x + 12
Le petit programme Scilab a produit le tracé suivant
1
2
3
4
5
6
x = linspace ( 0 , 1 , 1 0 0 ) ;
p = 1+x+x.^2/2+ x .^3/6+ x . ^ 4 / 2 4 ;
r = ( ( x +6).∗ x + 1 2 ) . / ( ( x −6).∗ x +12);
xset ( "window" , 0 ) , xbasc ( 0 )
x t i t l e ( " a p p r o x i m a t i o n s de exp ( x ) " )
plot2d ( x ’ , [ ( p−exp ( x ) ) ’ , ( r−exp ( x ) ) ’ ] ) ;
Vous constatez que pour x ' 1 l’approximant de Padé est presque trois fois plus précis que le
développement de Taylor.
2.6
Approximation de fonction
J’ai présenté, dans les paragraphes précédents, un certain nombre de recettes ou de procédés destinés à fournir des approximations de fonctions, sans aucunement me soucier de rigueur
mathématique. En réalité,l’approximation des fonctions est un domaine bien établi des mathématiques, qui a connu un grand développement à partir de la fin du 19ème siècle. Dans les lignes qui
suivent, je donne quelques idées générales sur l’approximation, considérée d’un point de vue plus
mathématique.
Le problème se pose en ces termes. Je m’intéresse à une fonction f (x) de la variable réelle x. Soit
je désire connaître ses valeurs en certains points, soit, plus ambitieux, je voudrais pouvoir calculer
les valeurs numériques de sa dérivée ou de son intégrale sur un certain intervalle. Seulement voila, f
est compliquée et longue à calculer et je n’ai pas le temps d’accumuler toutes les valeurs nécessaires
de f . Je décide alors de remplacer f par une approximation f ∗ qui se calcule facilement. Pour savoir
15
2.7. Développement asymptotique
si cette substitution peut avoir un sens, je dois répondre à plusieurs questions : dans quelle catégorie
de fonctions vais-je choisir f ∗ ? Selon quel critère vais-je m’assurer que l’approximation est «bonne»
ou «mauvaise» ? Sur quel intervalle les propriétés précédentes doivent-elles être vérifiées ?
Je me limiterai ici au cas de l’approximation polynômiale, c’est-à-dire que f ∗ sera un polynôme
de degré au plus égal à n (une combinaison linéaire de xk , k = 0, 1, 2, . . . , n). Le théorème suivant,
dû à Weierstrass, affirme l’existence de f ∗ sous des conditions assez générales.
Théorème. Si f (x) est continue sur l’intervalle fini I = [a, b] et si ² est un
nombre positif donné, alors il existe un polynôme f ∗ (x) tel que
sup |f (x) − f ∗ (x)| < ².
x∈I
Remarquez que le théorème ne donne aucune indication sur la construction de f ∗ . Ici, la «distance»
entre f et f ∗ est la «norme infinie» ; on pourrait imaginer d’autre types d’approximation où la
définition de la «distance» serait différenteR ; on pourrait penser par exemple à l’écart quadratique
moyen, qui est défini comme k f − f ∗ k= I |f − f ∗ |2 dx.
Tschebychef et de la Vallée-Poussin ont prolongé les travaux de Weierstrass. Grâce à eux, on
sait qu’un «bon» polynôme f ∗ est tel que l’erreur d’approximation, |f − f ∗ |, présente une série de
maximums assez régulièrement répartis sur I, d’amplitudes identiques et alternativement positifs
et négatifs. Ces polynômes étaient déterminés à l’époque par essais et erreurs, mais on dispose
maintenant d’un algorithme puissant d’approximations successives (second algorithme de Remes).
2.7
Développement asymptotique
Lorsque la variable indépendante devient très grande, il devient évidemment désespéré d’approcher une fonction par un développement construit au voisinage de 0 ; on peut bien sûr faire une
translation d’origine pour chaque valeur particulière, mais cela complique notablement les calculs.
Dans certains cas, on peut avoir recours à une approximation valable lorsque 1/x est petit, ce que
l’on appelle un développement asymptotique et dont voici la définition.
2.7.1
définition
Soit la série infinie
c0 +
c1
c1
+ 2 + ···
x
x
J’appelle Sn la somme partielle des n premiers termes
Sn = c0 +
c1
cn−1
c1
+ 2 + · · · + n−1 .
x
x
x
Habituellement, on s’intéresse à la convergence de la série ou à la limite de la quantité Sn quand
n tend vers l’infini. Ici, je procède différemment ; gardant n fixe, je fait croître x au delà de toute
limite. Je suppose qu’il existe une fonction f (x) telle que la différence |f (x) − Sn (x)| tende vers
1
zéro plus vite que xn−1
quand x −→ ∞. En d’autres termes
lim xn−1 |f (x) − Sn (x)| = 0.
x−→∞
Si ces conditions sont remplies, je dis que la série est un développement asymptotique de la fonction
f.
16
Chapitre 2. Calcul de Fonctions
2.7.2
Exemple
Je considère la fonction définie pour x > 0 par l’intégrale
Z ∞
1 x−t
f (x) =
e dt
t
x
Des intégrations par partie répétées me permettent de transformer cette expression en
1
1
2
(−1)n−1 (n − 1)!
f (x) = − 2 + 3 + · · · +
+ (−1)n n!
x x
x
xn
Z
∞
x
ex−t
dt.
tn+1
Ceci me laisse supposer que la série
1
1
2!
4!
−
+ 3 − 4 ···
x x2
x
x
pourrait représenter le développement asymptotique de f . Pour le prouver, je forme
Z
f (x) − Sn+1 (x) = (−1)n n!
∞
x
ex−t
dt.
tn+1
Dans l’intégrale, l’exponentielle est comprise entre 0 et 1, d’où la majoration
Z ∞
1
1
|f (x) − Sn+1 (x)| < n!
dt = (n − 1)! n ,
n+1
t
x
x
une quantité qui tend évidemment vers zéro lorsque x croit, à n constant. On écrit souvent
Z ∞
1
2!
4!
1 x−t ∼ 1
e dt = − 2 + 3 − 4 · · · .
t
x x
x
x
x
2.8
Représentation des nombres en machine
L’arithmétique des ordinateurs présente des propriétés plus compliquées qu’il n’y parait à première vue. Ces complications sont dues à ce qu’un ordinateur (tout comme un humain) ne manipule
qu’un nombre limité de chiffres ; il s’en suit que beaucoup de nombres concevables ne sont pas ou
sont mal représentés en machine. Les choses se présentent différemment pour les entiers et pour
les nombres fractionnaires. Je commence par examiner les entiers.
2.8.1
Les nombres entiers
J’ai choisi, pour fixer les idées, le compilateur TurboPascal de Borland, mais des considérations
presque identiques s’appliquent à tous les compilateurs. TurboPascal définit cinq types d’entiers,
dont je reproduit ci-dessous les caractéristiques
types entiers
byte
shortint
integer
word
longint
représentation
(nombre d’octets)
1
1
2
2
4
17
intervalle de définition
0 :255
-128 :127
-32768 :32767
0 :65535
-2147483648 :2147483647
2.8. Représentation des nombres en machine
Dans tous les cas, le chiffre binaire le plus à gauche (le plus significatif, de poids le plus grand)
indique le signe : 0 pour les nombres positifs, 1 pour les entiers négatifs.
Ainsi, dans le type shortint, le plus grand nombre positif s’écrit 01111111 ; il vaut 26 + 25 +
4
2 + 23 + 22 + 21 + 20 = 127. Les nombres négatifs sont représentés selon la méthode dite «du
complément à deux», qui prescrit que, si x est négatif (et plus petit en valeur absolue que 27 , sa
représentation, que je note (x), est x+28 . La recette suivante permet de construire facilement (−x)
à partir de (x) : changer tous les «1» en «0» et réciproquement, sauf pour le chiffre le plus à droite.
Si x = 23, (x) = 00010111 et (−23) = 11101001. Vous pouvez vérifier, en appliquant les règles
de l’arithmétique binaire, que (23)+(23) = 100000000 ; la dernière retenue est perdue, puisque les
nombres n’ont que 8 chiffres.
L’ordinateur ne prévient pas lorsque le résultat d’une addition entre entiers est trop grand.
On a par exemple (127)+ (3) = 01111111 + 00000011 = 10000010 = (-124). Cette représentation
fonctionne un peu comme un compteur kilométrique de voiture qui après avoir atteint 99999 repart
de zéro.
La conséquence pratique est que l’amplitude des entiers est très limitée (sauf pour longint). Un
piège classique dans lequel chacun se fait prendre au moins une fois est le calcul de la factorielle.
Avec le type int, 7 ! est calculé correctement, 8 ! est trouvé négatif. Le problème ne se pose pas avec
Scilab qui ne connaît que des nombres fractionnaires, ni avec Maple, qui peut manipuler autant de
chiffres que la mémoire de l’ordinateur le permet.
2.8.2
Nombres fractionnaires
Les nombres décimaux (on dit aussi fractionnaires, flottants, à virgule flottante) sont représentés par une partie fractionnaire et un exposant, comme par exemple 23 −→ 0,23E2. Le nombre
précédent peut aussi bien s’écrire 23E0 ou 0,023E3. Pour éviter ces ambiguïtés, on invoque une
convention de normalisation : la partie fractionnaire devra être comprise entre 0 et 1 par exemple.
Les nombres décimaux définis en Pascal peuvent appartenir à l’un des 4 types ci-dessous.
type
real
single
double
extended
nb équivalent
de chiffres décimaux
11-12
7-8
15-16
19-20
intervalle de définition
taille (octets)
2,910−39 :1.71038
1,510−45 :3.41038
510−324 :1.710308
1.910−4551 :1.1 104932
6
4
8
10
Il est clair que l’intervalle de définition (ou le nombre de chiffres significatifs) dépend du nombre
de chiffres binaires affectés respectivement à la représentation de la partie fractionnaire et de
l’exposant. Les 32 chiffres du type single sont répartis ainsi : 1(signe)+ 8 (exposant) + 23(partie
fractionnaire). Sous Scilab, les nombres sont uniformément du type double. C et C++ calcule
toutes les fonctions élémentaires en double précision.
Les nombres compris entre 0 et la borne inférieure de l’intervalle de définition, de même que
ceux plus grands que la borne supérieure, ne pourront pas être représentés. Tout calcul produisant un nombre répondant à l’une de ces conditions provoquera en principe un message d’erreur ;
en fait, les nombres trop petits sont pris égaux à zéro, ce qui peut être sans conséquence ; les
nombres trop grands interrompent l’exécution du programme et l’apparition du message d’erreur
arithmetic overflow.
Même si un nombre a une taille correcte, son calcul est souvent souvent entaché d’une erreur
d’arrondi. Je suppose que j’utilise un ordinateur fictif fonctionnant en numération décimale. Je
forme 27/13,1 = 2,06106870229..., un nombre fractionnaire dont la représentation décimale ne se
termine jamais et que l’unité centrale calcule avec 20 chiffres significatifs. Si j’ai déclaré que la
variable correspondante était du type «single», lorsque l’ordinateur range cette valeur en mémoire,
il le fait selon la norme du type, soit avec 7 chiffres. Sur certaines machines on conserve la valeur
18
Chapitre 2. Calcul de Fonctions
2,061068 (troncation), sur d’autres, on retient 2,061069 (arrondi). L’erreur est ici minime (inférieure
à 10−7 en valeur absolue), mais il faut être conscient qu’elle peut se répéter des milliards de fois au
cours d’un calcul. Heureusement, le signe de chaque erreur est pratiquement aléatoire, si bien que
celles-ci ne s’ajoutent pas de façon cohérente.
L’erreur relative devient importante lorsque l’on forme la différence de deux nombres voisins. On
ne remarque rien en général, sauf si, par hasard, ce premier résultat est immédiatement multiplié
par un nombre très grand.
Je remarque enfin que l’utilisation, en Pascal, des types single et real, correspond à une
économie de mémoire, mais à une perte de temps. Il en est de même pour le type float en C. En
effet, l’unité centrale calcule avec une très grande précision (80 chiffres binaires pour les Pentiums) ;
les résultats sont ensuite mis aux normes avant d’être rangés en mémoire et cette transformation
prend du temps (une fraction de microseconde). Du point de vue de la vitesse d’exécution, il vaut
mieux travailler avec le type double, qui est très proche du format utilisé par l’unité centrale.
2.9
pour en savoir plus
– FAQ du forum sci.math.num-analysis :
http ://www.mathcom.com/corpdir/techinfo.mdir/scifaq/index.html
– GAMS : http ://gams.nist.org
– histoire des mathématiques, définitions :
http ://www.sciences-en-ligne.com/momo/chronomath/accueil.htm
– histoire des approximations :
http ://www.math.technion.ac.il/hat/papers.html
– : page d’un spécialiste pour des spécialistes : http ://perso.ens-lyon.fr/jean-michel.muller/frenchindex.html
– erreurs d’arrondi (ou autres) catastrophiques http ://www5.in.tum.de/ huckle/bugse.html
19
Chapitre 3
L’interpolation
3.1
Introduction
Dans le chapitre 1, j’ai montré plusieurs méthodes d’approximation d’une fonction. L’interpolation, qui fait l’objet de ce chapitre, poursuit le même but que l’approximation : remplacer une
fonction difficile à calculer par une expression plus simple pour, par exemple, pouvoir la calculer
numériquement vite et souvent, ou pour évaluer sa dérivée ou son intégrale. Le cadre mathématique est aussi assez semblable. Je m’intéresse à une fonction réelle continue f (x) que je vais encore
remplacer par une fonction plus simple f ∗ (x). La différence réside dans la manière d’imposer la
«proximité» de f (x) et de son «substitut» f ∗ (x). Je vais demander que f (x) ≡ f ∗ (x) pour un certain nombre de valeurs de la variable indépendante x. On imposait que l’approximant reste dans
une bande de largeur 2² entourant la fonction ; on impose maintenant que l’interpolant coïncide
avec la fonction pour certaines valeurs de la variable indépendante. On peut ainsi comprendre le
terme «d’approximation exacte» autrefois employé pour désigner l’interpolation.
Dans un passé lointain, alors qu’il n’existait pas d’ordinateur, le calcul d’une fonction compliquée était laborieux. On dressait une table de la fonction pour quelques valeurs de l’argument puis
on interpolait entre ces valeurs. De nos jours, cet usage de l’interpolation a beaucoup régressé, mais
l’interpolation reste un outil théorique important. D’autre part, on a souvent besoin des valeurs
de grandeurs physiques comme la densité, la conductivité électrique ou des chaleurs de réaction,
qui, à leur tour, dépendent de la pression, de la température ou des concentrations. Ces grandeurs
figurent dans des tables, mais seulement pour quelques valeurs des paramètres. Là encore, on est
amené à interpoler pour déterminer les valeurs intéressantes.
L’échelle internationale de température constitue un bon exemple physique d’interpolation. La
température légale est la température thermodynamique, associée à un unique point fixe, le point
triple de l’eau à 273,15 K ; elle se mesure à l’aide d’un thermomètre à gaz à volume constant ou d’un
thermomètre à rayonnement. Ces deux instruments sont malcommodes et impliquent des manipulations longues et compliquées. Aussi, on a choisi une série de «points fixes secondaires» (points
d’ébullition de l’hydrogène, de l’eau, point de fusion du zinc par exemple) dont les températures ont
été mesurées très précisément une fois pour toutes. On a choisi aussi quelques thermomètres «pratiques», comme le thermomètre à résistance de platine. Une fois mesurée la résistance de la sonde
pour chaque point fixe, la valeur d’une température intermédiaire est obtenue par interpolation.
3.2
Définition
J’aborde maintenant le formalisme. Étant donnée une fonction y = f (x) et une fonction
f ∗ (x; a0 , a1 , . . . , an ) dépendant de x et de n + 1 paramètres a0 , a1 , . . . , an , le problème d’inter20
Chapitre 3. L’interpolation
polation consiste à déterminer les ak de telle manière que les n + 1 équations
f (xk ) = f ∗ (xk ; a0 , a1 , . . . , an ),
k = 0, 1, 2, . . . , n
(3.1)
soient vérifiées. Dans la suite, j’utiliserai indifféremment les notations f (xk ) = fk = yk ; chaque
couple de valeurs xk , yk définit un point du plan que l’on appelle un pivot ou un noeud.
Il me faut ensuite décider à quelle classe de fonctions appartient f ∗ ; le critère le plus important
est la façon dont interviennent les paramètres ak . On distingue les cas où f ∗ dépend linéairement
des ak de tous les autres ; l’interpolation polynômiale
f ∗ = a0 + a1 x + a2 x2 + · · · + an xn
et l’interpolation trigonométrique
f ∗ = a0 + a1 eix + a2 e2ix + · · · + an einx
relèvent de ce cas. Par contre, l’interpolation rationnelle
f ∗ (x; a0 , a1 , . . . , am , b0 , b1 . . . , bn ) =
a0 + a1 x + a2 x2 + · · · + am xm
b0 + b1 x + · · · + bn xn
(qui par ailleurs fait appel à m + n + 2 coefficients) dépend non-linéairement des bk . Bien que
l’interpolation rationnelle soit parfois utilisée, je me limiterai ici à l’interpolation polynômiale qui
n’implique que des calculs simples. Les formes trigonométriques seront abordées plus tard.
Vous remarquez qu’à la différence de l’approximation, il ne parait pas urgent de définir un
intervalle dans lequel l’interpolation est valable ; en réalité, cette définition est implicite. Si xmin
est les plus petit des xi et xmax le plus grand, je parle d’interpolation lorsque xmin ≤ x ≤
xmax ; je montrerai comment estimer l’erreur correspondante. Si, au contraire, je m’intéresse à
une valeur de x extérieure à l’intervalle [xmin , xmax ], je pratique une «extrapolation» ; l’examen
de quelques exemples vous montrerait que l’erreur d’extrapolation peut devenir très grande dès
que l’on s’éloigne des pivots. En pratique donc, l’interpolation ne concerne que les valeurs de x
comprises entre la plus petite et la plus grande abscisse des pivots.
3.3
Méthode des coefficients indéterminés
La méthode la plus directe pour trouver les coefficients inconnus ak consiste à identifier, sur
chaque pivot, fonction et polynôme d’interpolation. Je montre le principe de la méthode sur
l’exemple de deux pivots. La fonction f est connue numériquement en deux points, ce qui définit les
deux pivots x0 , f0 , x1 , f1 . La fonction d’interpolation, que je note maintenant p(x), puisqu’il s’agit
d’un polynôme, dépend linéairement de deux paramètres inconnus et s’écrit p = a0 + a1 x. Géométriquement, p(x) représente le droite qui passe par les deux pivots. Les conditions d’interpolation
sont alors
½
a0 + a1 x0 = f0
a0 + a1 x1 = f1
Je dois donc, pour déterminer les {ai }, résoudre un système de deux équations linéaires à deux
inconnues ; la solution est immédiate :
a1 =
f0 − f1
x0 − x1
;
a0 =
x0 f1 − x1 f0
.
x0 − x1
Ce procédé s’étend sans difficulté au cas d’une fonction du second degré, définie par trois paramètres
inconnus ; la courbe représentative de p(x) est une parabole que l’on oblige à passer par trois pivots.
En principe, je peux même considérer le cas d’une fonction d’interpolation polynômiale de degré
21
3.4. Le polynôme d’interpolation de Lagrange
n, dépendant de n + 1 constantes inconnues. Celles-ci seront déterminées en imposant que f et f ∗
coïncident sur n + 1 noeuds :

a0 + a1 x0 + a2 x20 + · · · + an xn0 = y0 ,




 a0 + a1 x1 + a2 x21 + · · · + an xn1 = y1 ,
a0 + a1 x2 + a2 x22 + · · · + an xn2 = y2 ,
(3.2)


·
·
·
=
·
·
·



a0 + a1 xn + a2 x2n + · · · + an xnn = yn .
Il apparaît ici encore un système d’équations linéaires dont les inconnues sont les n + 1 nombres
ai et dont le déterminant s’écrit
¯
¯ 0
¯ x0 x10 x20 · · · xn0 ¯
¯
¯ 0
¯ x1 x11 x21 · · · xn1 ¯
¯
¯ 0
∆ = ¯¯ x2 x12 x22 · · · xn2 ¯¯ .
(3.3)
¯ ··· ··· ··· ··· ··· ¯
¯
¯ 0
¯ xn x1n x2n · · · xnn ¯
∆, que l’on appelle un déterminant de van der Monde, s’annule chaque fois que la condition
xi = xj , i 6= j est remplie ; le développement de ce déterminant contient donc le facteur xi − xj .
En répétant ce raisonnement pour tous les couples possibles de pivots, je montre facilement que
Y
∆=
(xi − xj ).
i<j
Je déduis de ce résultat que ∆ est non nul, et donc que le système admet une solution unique, si
et seulement si les pivots ont des abscisses strictement distinctes. Je ne fait pas d’autre hypothèse
sur les pivots ; en particulier, ceux-ci peuvent être rangés dans un ordre arbitraire.
Je dispose maintenant d’une méthode pour construire le polynôme d’interpolation ; si j’ai pris
soin de choisir des pivots différents, ce polynôme est unique. Dans la pratique, la méthode des
coefficients indéterminés est, en fait, rarement utilisée, car on connaît des algorithmes plus stables
et/ou plus rapides. Ces algorithmes, inventés par des mathématiciens célèbres des siècles passés,
prennent des forment très différentes et produisent des résultats apparemment dissemblables. En
réalité, ils aboutissent tous à former l’unique polynôme d’interpolation à partir des pivots disponibles. La première méthode que je présenterai est due à Lagrange.
3.4
Le polynôme d’interpolation de Lagrange
Dans cette méthode, je fait l’hypothèse (à vérifier) que le polynôme d’interpolation peut s’écrire,
pour n + 1 pivots xi , f (xi )
n
X
p(x) =
Li (x)f (xi ).
(3.4)
i=0
Chaque polynôme élémentaire de Lagrange Li (x) est de degré n et, par conséquent, p est un
polynôme de degré au plus égal à n. Vous voyez que le problème d’interpolation sera résolu si je
peux former des Li répondant aux conditions
Li (xk ) = δi,k ,
i, k = 0, 1, 2, . . . , n.
(3.5)
δi,k est le symbole de Kronecker, qui vaut 1 lorsque ses deux indices sont égaux et qui vaut 0 dans
tous les autres cas. Si, par exemple, x = x2 , alors L0 (x2 ) = L1 (x2 ) = L3 (x2 ) = · · · = Ln (x2 ) = 0
tandis que L2 (x2 ) = 1. Des n+1 termes de p ne subsiste que f2 . Ainsi, pour le pivot x2 , le polynôme
d’interpolation coïncide avec la fonction et il en serait de même pour tout autre noeud.
22
Chapitre 3. L’interpolation
Fig. 3.1 – interpolation polynômiale de Lagrange
11
9
∆
7
∆
5
3
∆
∆
1
−1
−3
−5
−2
−1
0
1
2
3
Le polynôme élémentaire Li s’annule pour tous les pivots sauf xi ; il est donc proportionnel au
polynôme q(x) = (x − x0 )(x − x1 ) · · · (x − xi−1 )(x − xi+1 ) · · · (x − xn ). La constante de proportionnalité s’obtient en formant q(xi ) = (xi − x0 )(xi − x1 ) · · · (xi − xi−1 )(xi − xi+1 ) · · · (xi − xn ) : Li est
égal au polynôme normalisé q(x)/q(xi ). Le polynôme d’interpolation de Lagrange est maintenant
entièrement déterminé ; il s’écrit
p(x) =
n
X
i=0
Li (x)fi =
n
X
i=0
fi
Y
k=0,k6=i
x − xk
.
xi − xk
(3.6)
Le calcul numérique de p(x) se programme aisément à l’aide de deux boucles imbriquées ; il est
bien plus rapide que la résolution du système linéaire du paragraphe précédent. Le fragment de
programme ci-dessous réalise ce calcul. Les deux premières instructions créent deux vecteurs de
Listing 3.1 – construction du polynôme de Lagrange
1
2
3
4
5
6
7
8
9
10
11
12
x = linspace ( xmin , xmax , n p t s ) ;
p l = zeros ( 1 , n p t s ) ;
for i = 1 : 4
L( i , 1 : n p t s ) = ones ( 1 , n p t s ) ;
for k = 1 : 4
i f k <> i
L( i , : ) = L( i , : ) . ∗ ( x−xp ( k ) ) / ( xp ( i )−xp ( k ) ) ;
end
end
L( i , : ) = L( i , : ) ∗ f n ( xp ( i ) ) ;
p l = p l + L( i , : ) ;
end
zéros, qui vont recevoir respectivement les abscisses et les valeurs successives du polynôme d’interpolation. À partir de la ligne 3, je remplis la ligne i de la matrice L par des 1. Le gros du
calcul est fait ligne 7, où je calcule, à l’aide d’une itération, les valeurs du polynôme élémentaire
Li , pour toutes les abscisses simultanément. La figure montre le résultat. J’ai représenté chacune
des quantités Li (x)f (xi ), ainsi que leur somme p(x). Vous pouvez vérifier que les Li (x)f (xi ) passe
par un pivot et un seul, alors que p(x) passe par tous les noeuds. Cependant, il serait pénible de
développer le polynôme de Lagrange et de regrouper les termes pour le mettre sous la forme d’une
23
3.5. le polynôme de Newton
somme ordonnée selon les puissances de x. Si l’on souhaite vraiment obtenir cette forme, il vaut
mieux utiliser un algorithme du à Newton, la méthode des différences divisées.
3.5
3.5.1
le polynôme de Newton
Interpolation linéaire
Il est commode de revenir à l’interpolation linéaire. Lorsque je dis que la fonction f (x) est bien
représentée par une interpolation linéaire dans un certain intervalle, cela signifie que le rapport
f (x1 ) − f (x0 )
x1 − x0
(la pente moyenne de la courbe représentative) est à peu près indépendant de x0 et x1 dans cet
intervalle. Ce rapport s’appelle la différence divisée du premier ordre, relative à x0 et x1 , et se note
généralement
f (x1 ) − f (x0 )
f [x0 , x1 ] ≡
.
(3.7)
x1 − x0
Remarquez que f [x0 , x1 ] = f [x1 , x0 ]. Je peux aussi écrire la relation approchée
ou encore
f [x0 , x] ∼
= f [x0 , x1 ]
(3.8)
f (x) ∼
= f (x0 ) + (x − x0 )f [x0 , x1 ].
(3.9)
Vous reconnaissez, au second membre, le polynôme du premier degré qui interpole f sur les pivots
(x0 , x1 ), une expression que je noterai p0,1 dans la suite. Il est commode d’introduire les notations
p0 (x) ≡ f [x0 ] ≡ f (x0 ),
(3.10)
si bien que f [x0 ] est la différence divisée d’ordre zéro et p0 (x) est le polynôme d’interpolation de
degré zéro qui coïncide avec f en x0 . La formule (3.9) prend alors une forme qu’il sera facile de
généraliser plus tard :
p0,1 = f [x0 ] + (x − x0 )f [x0 , x1 ].
(3.11)
À moins que la fonction f ne soit réellement linéaire en x, la pente de la sécante f [x0 , x1 ] va
dépendre des abscisses x0 et x1 . Si f est du second degré en x, la pente de la sécante joignant les
points d’abscisses x0 et x est elle-même une fonction linéaire de x, à x1 constant. Je m’attend donc
à ce que la quantité
f [x1 , x2 ] − f [x0 , x1 ]
x2 − x0
soit indépendante des trois arguments ; dans le cas général, on appelle ce rapport la différence
divisée d’ordre 2 relative aux abscisses x0 , x1 , x2 et on le note f [x0 , x1 , x2 ]. Cette expression est
encore symétrique par rapport à tous ses arguments. Je peux alors écrire la relation (3.8)
f [x0 , x] − f [x0 , x1 ] = f [x0 , x] − f [x1 , x0 ] = (x − x1 )f [x0 , x1 , x]
d’où je déduis la relation exacte qui remplace (3.11)
f (x) = f (x0 ) + (x − x0 )f [x0 , x1 ] + (x − x0 )(x − x1 )f [x0 , x1 , x].
Telle quelle, cette formule est peu utile, car connaître f [x0 , x1 , x] revient à connaître f (x), ce que
je cherche justement à éviter. Mais l’erreur E(x) commise en remplaçant f (x) par p0,1 est donnée
par
f − p0,1 = (x − x0 )(x − x1 )f [x0 , x1 , x],
un résultat que je généraliserais plus tard.
24
Chapitre 3. L’interpolation
3.5.2
Les différences divisées
Les différences divisées d’ordres 0, 1, 2, . . . , k sont définies par les relations de récurrence
f [x1 , . . . , xk ] − f [x0 , . . . , xk−1 ]
xk − x0
(3.12)
Dans chaque numérateur, les k − 1 premiers arguments du premier terme sont identiques aux k − 1
derniers arguments du deuxième terme et le dénominateur est la différence entre les arguments qui
diffèrent d’un terme à l’autre. Il est possible de démontrer par récurrence que f [x0 , . . . , xk ] est une
fonction totalement symétrique de ses k + 1 arguments ; l’ordre de ceux-ci est donc indifférent. J’en
déduis que f [x0 , x1 , . . . , xk ] peut s’exprimer comme le quotient de la différence de deux différences
divisées d’ordre k − 1 (ayant k − 1 arguments en commun) par la différence entre arguments
différents :
f [x0 ] = f (x0 )
f [x0 , x1 ] =
f [x0 , x1 , x2 , x3 ] =
f [x1 ] − f [x0 ]
x1 − x0
f [x0 , . . . , xk ] =
f [x0 , x1 , x2 ] − f [x1 , x2 , x3 ]
f [x0 , x2 , x3 ] − f [x1 , x2 , x3 ]
=
.
x0 − x3
x0 − x1
Jusqu’à présent, j’ai fait semblant d’ignorer la possibilité que deux abscisses puissent être égales ;
si cela se produit, on peut donner un sens à la différence divisée par passage à la limite :
lim f [x + h, x] = lim
x→0
3.5.3
f (x + h) − f (x)
= f 0 (x).
h
La formule de Newton
D’après la définition (3.12), je peux écrire, en remplaçant à chaque fois un des xi par x
f (x)
f [x0 , x]
···
f [x0 , . . . , xn−1 , x]
=
=
=
=
f [x0 ] + (x − x0 )f [x0 , x],
f [x0 , x1 ] + (x − x1 )f [x0 , x1 , x],
···
f [x0 , . . . , xn ] + (x − xn )f [x0 , . . . , xn , x].
En substituant la première équation dans la seconde, j’obtiens l’expression déjà vue
f (x) = f [x0 ] + (x − x0 )f [x0 , x1 ] + (x − x0 )(x − x1 )f [x0 , x1 , x]
Par des substitutions successives, j’arrive finalement à
f (x) = f [x0 ]
+ (x − x0 )f [x0 , x1 ] + (x − x0 )(x − x1 )f [x0 , x1 , x2 ]
+ (x − x0 )(x − x1 ) · · · (x − xn−1 )f [x0 , x1 , . . . , xn ]
+ (x − x0 )(x − x1 ) · · · (x − xn )f [x0 , x1 , . . . , x].
(3.13)
Je passe de cette expression «formelle» (que je ne peux pas utiliser puisque j’ignore le dernier
terme) à la formule d’interpolation de Newton en négligeant le terme inconnu :
p0,1,2...,n = f [x0 ] + (x − x0 )f [x0 , x1 ] + (x − x0 )(x − x1 )f [x0 , x1 , x2 ]
+ (x − x0 )(x − x1 ) · · · (x − xn−1 )f [x0 , x1 , . . . , xn ]
L’erreur commise en remplaçant f par p vaut
E(x) = (x − x0 )(x − x1 ) · · · (x − xn )f [x0 , x1 , . . . , x].
Je donnerai plus tard une forme plus pratique de cette erreur.
25
(3.14)
3.5. le polynôme de Newton
3.5.4
exemple
Voici un exemple de calcul de différences divisées. J’utilise les mêmes données qu’au paragraphe
précédent ; bien que cela ne soit pas nécessaire, j’ai rangé les abscisses par ordre croissant, ce qui
rend la suite de opérations plus facile à suivre. Les pivots sont numérotés implicitement de 0 à 3.
ordre :
−1
0
0, 367879
1
2
3
1, 280842
1, 5
0, 853895
0, 5
1, 648721
2, 83297
1
1, 5
1, 979073
2, 5
0, 791629
2, 83297
4, 481689
2, 907367
0, 5
5, 814734
2
2, 981766
1, 5
1, 987844
1, 196215
3
0, 398738
7, 389056
La première colonne contient les valeurs de x, la deuxième celles de f , qui sont identiques aux
différences divisées d’ordre zéro. Je donne dans la colonne suivante les valeurs des quantités xi − xj
et fi −fj , dont le quotient fournit la différence divisée d’ordre 1, reportée dans la colonne numérotée
1. Le calcul se poursuit sans difficulté jusqu’à la différence divisée d’ordre 3, la dernière que je puisse
calculer avec les données dont je dispose.
Le polynôme de Newton d’ordre 3 s’écrit alors
p0,1,2,3 = 0, 367879+(x−0, 5)0, 853895+(x−0, 5)(x−1, 5)0, 791629+(x−0, 5)(x−1, 5)(x−2)0, 398738.
Listing 3.2 – construction du polynôme de Newton
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
// d i f f e r e n c e s d i v i s e e s de Newton
// c r e a t i o n d ’ une s e r i e de v a l e u r s
x = [ 0 . 5 , −1.0 , 2 . 0 , 1 . 5 ] ;
y = exp ( x ) ;
n e f f = input ( " o r d r e de l i n t e r p o l a t i o n (<= 3 : " ) ;
// c a l c u l d e s d i f f e r e n c e s
f o r i = 1 : n e f f +1
t ( i ) = y( i );
f o r j = i −1: −1:1
t ( j ) = ( t ( j +1) − t ( j ) ) / ( x ( i ) − x ( j ) ) ;
end
a( i ) = t (1);
end
a
z = input ( " v a l e u r de l argument : " ) ;
// c a l c u l du polynome
p o l = a ( n e f f +1);
z = linspace ( − 2 , 3 ) ;
f o r i = n e f f : −1:1
p o l = p o l . ∗ ( z−x ( i ))+ a ( i ) ;
end
rect = [ −3 ,4 ,0 ,10];
plot2d ( z ’ , [ p o l ’ , exp ( z ) ’ ] )
Sa forme, très semblable à celle de Horner, rend le calcul facile pour toute valeur de x. Le
listing ci-dessus montre un programme Scilab qui accomplit la même tâche. La figure illustre le
26
Chapitre 3. L’interpolation
Fig. 3.2 – interpolation par la méthode de Newton
11
9
∆
7
∆
5
3
∆
∆
1
−1
−3
−5
−2
−1
0
1
2
3
résultat ; comme le polynôme d’interpolation est unique, le résultat final est indiscernable de celui
du paragraphe précédent.
3.6
Erreur d’interpolation
Je cherche à majorer l’erreur commise en remplaçant la fonction f (x) par le polynôme de degré
n p(x), lequel satisfait aux n + 1 conditions d’interpolation
p(xi ) = f (xi ) ≡ fi ,
i = 0, 1, 2 . . . , n.
Je définis tout d’abord le polynôme pi(x) de degré n + 1 :
π(x) ≡ (x − x0 )(x − x1 ) · · · (x − xn ) =
n
Y
(x − xi )
0
puis la fonction auxiliaire
F (x) ≡ f (x) − p(x) − Kπ(x),
où K est une constante. Il est possible de choisir la constante K de telle manière que F (X) = 0, X
étant un point quelconque de l’axe réel. J’appelle I le plus petit intervalle contenant X et tous les
xi . Alors la fonction F admet n+2 zéros sur I. En effet, f −p = 0 lorsque x = xi et, simultanément,
π(xi ) = 0. De plus, F s’annulle en X.
Le théorème de Rolle appliqué à la fonction F me permet d’affirmer que la fonction F 0 (x)
présente au moins n + 1 zéros sur ce même intervalle ; en appliquant ce même théorème aux
dérivées successives de F , je démontre que F 00 admet au moins n zéros dans I, que F (3) en admet
au moins n − 1 et finalement que F (n+1) s’annule au moins une fois dans I, à condition que cette
dérivée existe ; j’appelle ξ ce point. La dérivée d’ordre n + 1 de F se calcule aisément ; p(n+1) = 0
puisque p est de degré n. Le terme de degré le plus élevé de π est xn+1 , si bien que la dérivée
cherchée est π (n+1) = (n + 1)!. Je déduis que
F (n+1) (ξ) = f (n+1) (ξ) − K(n + 1)! = 0
ou encore que
K=
f (n+1) (ξ)
(n + 1)!
27
3.6. Erreur d’interpolation
Fig. 3.3 – interpolation de la fonction de Lorentz
1.5
1.3
1.1
♦
0.9
♦
0.7
0.5
♦
0.3
0.1 ♦
♦
♦
♦
♦
♦
♦
♦
♦
−0.1
−0.3
−0.5
−5
−4
−3
−2
−1
0
1
2
3
4
5
d’où je tire que
f (X) − p(X) = Kπ(X) =
π(X) (n+1)
f
(ξ).
(n + 1)!
Je peut donc énoncer le théorème suivant.
Si une fonction f possède une dérivée d’ordre n + 1, alors, pour toute valeur X
de l’argument, il existe un nombre ξ appartenant au plus petit intervalle qui
contient X et tous les pivots xi et satisfaisant à
π(X)f (n+1) (ξ)
(3.15)
.
(n + 1)!
En pratique, comme je ne connais pas le nombre ξ et que je cherche un résultat valable pour
tout l’intervalle I, j’utiliserai un majorant de la valeur absolue du second membre :
f (X) − p0,1,2,...,n (X) =
|f − p| ≤
1
sup |πf (n+1) |.
(n + 1)! x∈I
Cette relation est souvent assez pessimiste. D’autre part, son utilité pratique est assez faible
parce que si f est compliquée (et c’est pour cela que je souhaite la remplacer par un polynôme),
sa dérivée d’ordre n + 1 a toutes les chances d’être impossible à majorer facilement.
On pourrait penser que l’erreur diminue lorsque le nombre de pivots augmente, ou plutôt,
lorsque ceux-ci deviennent de plus en plus serrés. Il n’en est rien ; le théorème de Faber établit au
contraire l’existence de fonctions pour lesquelles l’erreur augmente avec le nombre de noeuds. La
figure ci-dessous vous présente un exemple de cette propriété paradoxale, connue sous le nom de
phénomène de Runge. J’ai interpolé la fonction 1/(1 + x2 ) en utilisant des pivots régulièrement
espacés ; vous voyez que l’erreur d’interpolation devient très grande aux bords de l’intervalle. Je
peux aussi réaliser une interpolation extrêmement précise en choisissant «bien» les pivots. Les
pivots définis par l’instruction Scilab
for k = 1:npiv, xp(k) = 0.5*(xmax - xmin)*cos( (2*k-1)*%pi/(2*npiv) ); end;
sont particulièrement efficaces, comme le montre la figure ci-dessous. L’explication de ce bon comportement est traitée en exercice. Elle tient à ce que ces abscisses sont proportionnelles aux zéros
du polynôme de Tschebychef d’ordre npiv.
28
Chapitre 3. L’interpolation
Fig. 3.4 – interpolation avec des pivots de Tschebychef
1.5
1.3
1.1
0.9
♦
0.7
♦
0.5
♦
0.3
0.1
♦ ♦
♦
−5
−4
♦
♦
♦
♦
♦ ♦
4
5
−0.1
−0.3
−0.5
3.7
−3
−2
−1
0
1
2
3
Interpolation entre pivots équidistants
Supposons que je dispose d’une table des valeurs d’une fonction f (x) calculées pour des valeurs
entières de x et que j’ai besoin de connaître f (3, 4). Je peux utiliser les connaissances acquises
en lisant les paragraphes précédents et interpoler entre les valeurs f (3) et f (4) par exemple. Les
algorithmes de Lagrange ou de Newton s’appliquent sans difficulté, mais ici les données présentent
une caractéristique intéressante : les pivots sont régulièrement espacés. Une telle situation se rencontre fréquemment lorsque l’on calcule à la main et de nombreuses méthodes ont été développées
pour tirer parti au mieux de ce cas particulier. D’autre part, le même formalisme est utilisé pour
résoudre numériquement les équations différentielles et les équations aux dérivées partielles. Ceci
justifie que je consacre quelques pages à l’interpolation entre pivots équidistants.
3.7.1
Les différences finies
Étant donné une fonction f (x) et une constante positive h, je défini la différence latérale ascendante
∆h f (x) ≡ f (x + h) − f (x).
En général, la constante h est définie par le contexte, ce qui me dispense de la faire figurer en indice.
Comme je ne travaillerai, dans la suite, qu’avec des abscisses équidistantes xi = x0 + ih, i =
0, 1, 2, 3, . . ., j’utiliserai la notation plus concise
∆f (xi ) ≡ ∆fi = f (xi+1 ) − f (xi ) ≡ fi+1 − fi .
(3.16)
h s’appelle le pas ou l’intervalle tabulaire et f (xi+1 ) = f (xi +h). Je défini maintenant par récurrence
les différences latérales d’ordre supérieur
∆p+1 f ≡ ∆p f (x + h) − ∆p f (x),
p ≥ 0.
(3.17)
Par convention, ∆0 f (x) ≡ f (x). Ainsi, ∆2 f = f (x + 2h) − 2f (x + h) + f (x). Le calcul pratique des
différences finies se fait commodément à l’aide d’un tableau (semblable à celui utilisé pour former
29
3.7. Interpolation entre pivots équidistants
les différences divisées, mais sans divisions).
xi
x0
fi
f0
x1
f1
∆fi
∆f0
∆f1
x2
f2
f3
x5
3.7.2
2
2
∆ f2
∆f3
x4
∆2 f0
∆ f1
∆f2
x3
∆2 f i
f4
2
∆3 f i
∆3 f0
∆3 f1
∆3 f2
∆ f3
∆f4
..
.
f5
..
.
La formule d’interpolation de Newton
Il existe une relation simple entre le polynôme de Newton (formé à l’aide de différences divisées)
et les différences latérales : pour tout entier k positif,
f [x0 , x1 , x2 , . . . , xk ] =
1
∆k f0 .
k!hk
(3.18)
Cette formule se démontre par récurrence. Elle est manifestement vraie pour k = 0. J’ai, pour
k = 1,
f1 − f0
1
f [x0 , x1 ] =
= ∆f0 ,
x1 − x0
h
ce qui est conforme au résultat proposé. Je suppose maintenant que la formule est vraie pour tout
ordre k ≤ r. Alors, pour k = r + 1, la propriété (3.12)montre que
f [x0 , x1 , . . . , xk+1 ] =
f [x1 , x1 , . . . , xr+1 ] − f [x0 , . . . , xr ]
.
xr+1 − x0
En remplaçant les différences divisées d’ordre r du second membre par leurs expressions, je trouve
·
¸
1
1
1
1
r
r
∆
f
−
∆
f
∆r+1 f0 ,
1
0 =
r
r
(r + 1)h r!h
r!h
(r + 1)!hr+1
ce qui établit le résultat pour k = r + 1. Il reste à utiliser (3.18) pour transformer le polynôme
d’interpolation de Newton. Je défini une variable réduite
µ=
x − x0
.
h
Je trouve ensuite que x − xj = h(µ − j) et que
(x − x0 )(x − x1 ) · · · (x − xk ) = µ(µ − 1) · · · (µ − k)hk+1 .
Insérant ces résultats dans (3.14), j’obtiens
p0,1,...,n (x) = f0 + µh
∆f0
∆2 f 0
∆n f 0
+ µ(µ − 1)h2
+ · · · + µ(µ − 1) · · · (µ − n + 1)
.
2
h
2!h
n!hn
Je peux donner à cette formule une allure plus compacte en introduisant des analogues fractionnaires des coefficients du binôme
Cµk ≡
µ(µ − 1) · · · (µ − k + 1)
.
k!
30
(3.19)
Chapitre 3. L’interpolation
Avec cette définition, le polynôme d’interpolation s’écrit
p0,1,...,n (x) =
n
X
Cµj ∆j f0 .
(3.20)
j=0
Cette formule générale donne, pour n = 1
p0,1 (x) = f0 + µ∆f0
et, pour n = 2,
3.7.3
1
p0,1,2 = f0 + µ∆f0 + µ(µ − 1)∆2 f0 .
2
exemple
Voici un exemple complet d’interpolation par les différences finies et la formule de Newton. J’ai
préparé un tableau de f et de ses différences latérales.
i
0
xi
1
fi
1
1
1, 1 1, 61051
∆f
∆2 f
∆3 f
∆4 f
∆5 f
0, 61051
0, 26730
0, 87781
2
1, 2 2, 48832
0, 0795
0, 3468
1, 22461
3
1, 3 3, 71293
4
1, 4 5, 37824
5
1, 5 7, 59375
0, 0144
0, 0939
0, 4407
1, 66531
0, 0012
0, 0156
0, 1095
0, 5502
2, 21551
Pour cette fonction assez régulière, les différences diminuent lorsque l’ordre croît, mais le nombre
de chiffres significatifs diminue aussi.
Je cherche la valeur de f (1, 25). Je décide d’utiliser toutes les valeurs disponibles, à commencer
par f0 . J’ai donc µ = (1, 25 − 1)/0, 1 = 2, 5. Les termes successifs du polynôme d’interpolation
s’écrivent
f0
1
(2, 5)∆1 f0
1, 526275
(2, 5)(1, 5) 2
∆ f0
2
(2, 5)(1, 5)(0, 5) 3
∆ f0
6
(2, 5)(1, 5)(0, 5)(−0, 5) 4
∆ f0
24
(2, 5)(1, 5)(0, 5)(−0, 5)(−1, 5) 5
∆ f0
120
p(1, 25)
0, 501187
0, 024844
−0, 000563
0, 000014
3, 051758
Il est facile, avec cette méthode, de suivre les «progrès» de l’interpolation : je m’arrête dès que je
rencontre une contribution assez petite.
31
3.8. Interpolation de Hermite
Il existe bien d’autres formules d’interpolation, associées aux noms de Gauss, Bessel et autres ;
certaines seront présentées en exercices.
3.8
Interpolation de Hermite
Dans le but de construire une fonction d’interpolation f ∗ encore plus précise, je peux imposer
à celle-ci des conditions supplémentaires. Hermite a proposé que les dérivées de f ∗ coïncident avec
les dérivées correspondantes de f pour certains pivots. Je vais suivre cette idée, en me limitant
à l’interpolation polynômiale et en ne considérant que la dérivée première. Pour tous les pivots,
j’impose donc que
p(xi ) ≡ fi
p0 (xi ) ≡ f 0 (xi ) = fi0 ,
;
i = 0, 1, 2, . . . , n.
(3.21)
En d’autre termes, p(x) interpole f et p0 (x) interpole f 0 , sur les mêmes pivots. Je suppose que le
polynôme d’interpolation de Hermite, ainsi défini, peut s’écrire sous une forme analogue à celle de
Lagrange
n
n
X
X
¯ i (x)fi0 ,
p(x) =
Hi (x)fi +
H
(3.22)
i=0
i=0
¯ i sont des polynômes réels distincts. Quel en est le degré ? Le polynôme p doit satisfaire
où les Hi , H
aux 2n + 2 conditions (3.21) : il comporte donc 2n + 2 coefficients ajustables et est de degré 2n + 1.
¯ ont donc un degré au plus égal à 2n + 1.
Les polynômes élémentaires H et H
Les polynômes Hi sont tels que p interpole f ; ils obéissent donc à des conditions identiques à
celles que j’ai écrites pour les polynômes élémentaires de Lagrange. Il parait de même raisonnable
¯ 0 soient choisis de façon à ce que p0 interpole f 0 , d’où une nouvelle série
que les polynômes dérivés H
i
de conditions. Mais cela ne suffit pas : il ne faut pas qe les Hi0 viennent perturber l’interpolation
¯ i détruisent l’interpolation de f : ces polynômes doivent être nuls sur les pivots.
de f 0 , ni que les H
J’obtiens ainsi quatre séries de conditions
Hi (xk ) = δi,k
Hi0 (xk ) = 0
¯ i (xk ) = 0
H
¯ i0 (xk ) = δi,k
H
i, k = 0, 1, 2, . . . , n,
i, k = 0, 1, 2, . . . , n,
i, k = 0, 1, 2, . . . , n,
i, k = 0, 1, 2, . . . , n.
(a)
(b)
(c)
(d)
(3.23)
Chaque polynôme élémentaire obéit à 2n + 2 conditions et peut donc être de degré 2n + 1 au plus.
¯ i . Il s’annulle ainsi que sa dérivée sur tous les pivots
Je commence par construire le polynôme H
k 6= i ; il admet donc des racines doubles en ces points et aussi une racine simple en xi . Il s’exprime
facilement à l’aide du polynôme élémentaire de Lagrange Li (x) construit sur les mêmes pivots et
du facteur x − xi :
¯ i (x) = C[Li (x)]2 (x − xi ).
H
¯ 0 (xi ) vaut 1 (condition 3.23(d)), ce qui impose C ≡ 1.
La dérivée H
i
Le polynôme Hi (x) admet tous les pivots sauf xi comme racines doubles. Il peut donc s’écrire
Hi (x) = [Li (x)]2 ti (x),
en désignant par ti un polynôme du premier degré tel que Hi respecte les conditions (3.23a,b) en
xi :
Hi (xi ) = [Li (xi )]2 ti (xi ) = ti (xi ) = 1
Hi0 (xi ) = 2Li (xi )L0i (xi ) + L2i (xi )t0i (xi ) = 0.
;
Un calcul sans difficulté montre que
ti (x) = 1 − 2(x − xi )L0i (xi ).
32
Chapitre 3. L’interpolation
L’erreur d’interpolation s’obtient par un raisonnement calqué sur celui de $3 ; elle s’écrit
f (X) − p(X) =
[π(X)]2 (2n+2
f
(ξ),
(2n + 2)!
(3.24)
l’abscisse ξ appartenant au plus petit intervalle qui contient X et tous les pivots xi .
3.9
Interpolation inverse
Lorsque je dispose d’une table de valeurs d’une fonction f , c’est à dire d’un ensemble de couples
xi , fi , et que je cherche la valeur de l’argument x correspondant à une valeur de f qui ne figure
pas dans la table, je dois effectuer une interpolation inverse. Il s’agit en fait d’interpoler la fonction
inverse f −1 à partir de pivots qui ne sont généralement pas équidistants.
La recherche d’une racine de l’équation f (x) = 0 peut relever de ce formalisme. Si je connais les
valeurs de f pour des abscisses encadrant la racine, j’obtiens une bonne approximation de celle-ci
par interpolation.
Exemple. Je cherche la solution de cos x = x, sachant qu’elle est voisine de 0,7 radian. Je
forme la table suivante
x
cos x − x
0, 5 0, 377583
0, 6 0, 225336
0, 7 0, 064842
0, 8 −0, 103293
0, 9 −0, 278390
La racine est telle que 0, 7 > f −1 (0) > 0, 8 ; j’en trouve une approximation par interpolation linéaire
selon Lagrange :
x∗ = 0, 7
0 − (−0, 103293)
0 − 00, 64842
+ 0, 8
0, 064842 − (−0, 103293)
−0, 103293 − 0, 064842
soit x∗ = 0, 738565 et f (x∗ ) = 0, 00087.
3.10
Interpolation par intervalle
Cherchant à améliorer la qualité de l’interpolation d’une fonction donnée, je suis tenté d’augmenter le nombre n de pivots (ou de noeuds). Comme vous le savez, cette solution est souvent
vouée à l’échec, parce que le terme d’erreur contient deux facteurs, le polynôme π(x) et la dérivée
d’ordre n (ou 2n) de la fonction qui sont vraisemblablement rapidement croissants avec n. Je peux
cependant augmenter à volonté le nombre de pivots, sans faire croître l’ordre d’interpolation. La
figure montre le principe de ce tout petit miracle. Pour interpoler la fonction représentée par la
courbe en noir, j’ai défini 5 pivots (d’abscisses -1,8, -0,5, 0, 0,5, 1,4) et, ce faisant, 4 intervalles. Je
pratique une interpolation du premier degré dans chaque intervalle ; la fonction linéaire correspondante est définie pour tout x : elle est représentée par une ligne pointillée. Cependant, je n’utilise
que la restriction de cette fonction à l’intervalle considéré, c’est-à-dire que j’assimile l’arc de courbe
par le segment représenté en trait épais.
La fonction d’interpolation f ∗ est maintenant plus compliquée : elle admet une définition différente dans chaque intervalle. De plus, sa dérivée n’est plus continue. Ce type d’interpolation peut
être rendu aussi précis que l’on veut en multipliant le nombre d’intervalles. On peut aussi le perfectionner en choisissant une méthode plus précise dans chaque intervalle, interpolation parabolique
ou interpolation de Hermite.
33
3.11. Interpolation «spline»
Fig. 3.5 – principe de l’interpolation par intervalle
×
× ×
×
×
× ×
× ×
×
× ×
× ×
× ×
× ×
×
× ×
× ×
×
× ×
× ×
× ×
×
×
×
×
× ×
×
× ×
× ×
× ×
×
× ×
× ×
× ×
×
× ×
× ×
× ∆
× ×
× ×
× ∆
× ×
∆
× ×
×
× × × ×
×
× ×
×
× ×
× ×
×
× ×
×
× ×
× ×
× ×
×
× ×
× ×
×
×
× ×
×
× ×
× ×
×
×
× ×
×
×
× ×
×
× ×
×
×
∆
×
×
×
×
×
×
×
×
×
×
×
×
×
×
×
×
×
×
×
×
×
×
×
×
4
3
2
1
0
×
×
−1
∆
×
×
×
−2
−2
−1
0
1
2
3
Cependant, dans certaines applications, la disparition de la continuité de la dérivée pose problème : imagine-t-on un bureau d’étude qui calcule une coque de bateau formée d’une série de
facettes raccordées par des angles vifs ? Il existe un formalisme qui combine l’avantage d’une interpolation «par morceaux» et la continuité des dérivées de la fonction d’interpolation : c’est la
méthode des splines, que j’explique dans le paragraphe suivant.
3.11
Interpolation «spline»
Le mot «spline» désigne en anglais une règle souple et élastique (une baguette de bois ou une
latte) dont les dessinateurs se servaient pour tracer des courbes lisses (ou régulières) passant par
des points imposés. Le calcul du profil d’un pont ou d’une aile d’avion fournit les coordonnées
d’un ensemble de points ; il appartient ensuite au dessinateur de produire une courbe esthétique
ou aérodynamique mais passant par les points calculés. La forme de la règle souple était ajustée en
y suspendant des poids ou en y attachant des ressorts en des points bien choisis. L’interpolation
spline est la traduction algébriques de ce savoir-faire.
3.11.1
définition d’une spline cubique
Je vais détailler un type particulier de fonctions spline, les splines cubiques, qui sont fréquemment utilisées et sont représentatives de cette catégorie de fonctions. Je me propose d’interpoler la
fonction f (x) sur l’intervalle I = [a, b]. Pour cela, je choisis une partition de I
a ≡ x0 < x1 < x2 < · · · < xn−1 < xn ≡ b.
(3.25)
Ces n + 1 abscisses définissent n sous-intervalles [xi−1 , xi ]. La fonction spline s(x) répond alors aux
contraintes suivantes
– Dans chaque intervalle [xi−1 , xi ], la fonction d’interpolation est un polynôme de degré trois.
– La fonction s, sa dérivée première s0 et sa dérivée seconde s00 sont continues dans I.
– s(x) interpole la fonction f sur [a, b], s(xi ) = fi , i = 0, 1, . . . , n.
Pour que le problème de la détermination de la fonction s soit soluble, il faut au moins que le
nombre d’équations soit égal au nombre d’inconnues. Cela est-il le cas ? Je peux poser
s(x) = ai + bi x + ci x2 + di x3
xi−1 ≤ x ≤ xi
i = 1, 2, . . . , n.
(3.26)
Les inconnues sont les 4n coefficients ai , bi , ci , di . Les conditions d’interpolation fournissent n + 1
contraintes. Les conditions de continuité s’appliquent à chaque frontière entre sous-intervalles ; il
34
Chapitre 3. L’interpolation
y a n − 1 points communs à deux intervalles et 3 séries de conditions, ce qui engendre 3n − 3
contraintes. Je dispose donc en tout de 4n − 2 relations pour déterminer 4n inconnues. Ce léger
déficit n’est pas gênant et j’introduirai bientôt deux conditions supplémentaires qui me permettront
de résoudre entièrement le problème.
3.11.2
construction d’une spline cubique
Plutôt que de faire intervenir directement les coefficients du polynôme s, il est commode d’utiliser, pour la mise en équations, les quantités mi ≡ s00 (xi ), i = 0, 1, 2, . . . , n. Comme s doit être du
troisième degré sur [xi , xi+1 ], sa dérivée seconde est une fonction linéaire de x que j’écris sous une
forme qui minimise les calculs à venir et assure la continuité de s00 :
s00 (x) ≡
1
[(xi+1 − x)mi + (x − xi )mi+1 ],
hi
hi ≡ xi+1 − xi ,
i = 0, 1, 2, . . . , n − 1.
(3.27)
J’intègre maintenant deux fois par rapport à x, ce qui fait apparaître deux constantes arbitraires
Ci et Di
(xi+1 − x)3 mi + (x − xi )3 mi+1
s(x) =
+ Ci (xi+1 − x) + Di (x − xi ).
6hi
J’impose maintenant les conditions d’interpolation pour obtenir les expressions suivantes des
constantes d’intégration
Ci =
fi
hi m i
−
hi
6
Di =
fi+1
hi mi+1
−
.
hi
6
Le polynôme s prend alors une forme assez symétrique
(xi+1 − x)3 mi + (x − xi )3 mi+1
(x
− x)fi + (x − xi )fi+1
+ i+1
6hi
hi
− h6i [(xi+1 − x)mi + (x − xi )mi+1 ],
xi ≤ x ≤ xi+1 , i = 0, 1, 2, . . . , n − 1.
s(x) =
(3.28)
Vous pouvez vérifier que s est bien continue sur [a, b]. Il me reste à prendre en compte la continuité
de s0 ; pour cela, j’exprime cette dérivée dans deux intervalles successifs. Dans [xi , xi+1 ]
s0 =
−(xi+1 − x)2 mi + (x − xi )2 mi+1
fi+1 − fi
(mi+1 − mi )hi
+
−
2hi
hi
6
alors que dans l’intervalle précédent [xi−1 , xi ] : :
s0 =
−(xi − x)2 mi−1 + (x − xi−1 )2 mi
fi − fi−1
(mi − mi−1 )hi−1
+
−
.
2hi−1
hi−1
6
Ces deux expressions doivent vérifier
lim = lim−
x→x+
i
i = 1, 2, . . . , n − 1.
x→xi
Après un peu d’algèbre, je trouve l’équation assez simple suivante
hi−1
hi−1 + hi
hi+1
yi+1 − fi
fi − fi−1
mi−1 +
mi +
mi+1 =
−
,
6
3
6
hi
hi−1
i = 1, 2, . . . , n − 1.
(3.29)
Je viens d’obtenir n − 1 équations linéaires pour les n + 1 inconnues mi . De plus, ces équations ont
une structure simple : chacune ne fait intervenir que trois inconnues.
35
3.11. Interpolation «spline»
3.11.3
conditions aux limites
Je dois maintenant imaginer deux équations supplémentaires. Il est d’usage d’imposer une
condition raisonnable à chaque extrémité (a, b) de l’intervalle. Je peux, par exemple, supposer
connues les pentes du polynôme d’interpolation en ces points :
s0 (x0 ) = f00
s0 (xn ) = fn0 ,
(3.30)
où f00 , fn0 sont des constantes. En utilisant les expressions de s0 vues précédemment, pour i = 0 et
pour i = n − 1, j’obtiens les deux équations manquantes
h0
h0
f1 − f0
m0 + m1 =
− f00 ,
3
6
h0
hn−1
hn−1
fn − fn−1
mn−1 +
mn = fn0 −
.
6
3
hn−1
3.11.4
système linéaire équivalent
L’ensemble des équations définissant les mi peut être mis sous forme matricielle
AM = B
en définissant
·
¸
f1 − f0
f1 − f0
fn − fn−1
fn−1 − fn−2 0
fn − fn−1
T
0 f2 − f1
B ≡
− f0 ,
−
,...,
−
, fn −
,
h0
h1
h0
hn−1
hn−2
hn−1
M T ≡ [m0 , m1 , . . . , mn ],





A=




h0
3
h0
6
0
h0
6
h0 +h1
3
h1
6
0
h1
6
h1 +h2
3
0
..
.
0
···
0
h2
6
..
.
hn−2
6
···
hn−2 +hn−1
3
hn−1
6
hn−1
6
hn−1
3










Ces équations définissent ce que l’on appelle parfois l’interpolant spline «complet». Je suis parvenu
à concilier nombre de pivots arbitraire et continuité des deux premières dérivées, mais il y a un prix
à payer : je dois maintenant résoudre un problème global (représenté par un système d’équations)
et toute modification locale d’une donnée (par exemple de f2 ) se répercutera sur toutes les valeurs
de la fonction spline. Je n’aborderai pas ici l’étude de l’erreur d’interpolation, qui nécessite de trop
longs développements et que l’on trouvera dans les ouvrages spécialisés.
3.11.5
exemple
Le formalisme assez touffu qui précède est entièrement masqué à l’intérieur des deux fonctions de
Scilab splin et interp. Je remarque tout d’abord que Scilab utilise, pour déterminer complètement
les mi , deux conditions qui ne font intervenir aucune donnée supplémentaire. Dans ce logiciel, on
impose en effet la continuité de la dérivée troisième de s pour le deuxième et l’avant-dernier pivot.
Cela revient à dire que s est un interpolant spline pour les noeuds x0 , x2 , x3 , . . . , xn−2 , xn , mais
interpole cependant sur tous les pivots x0 , x1 , x2 , . . . , xn−1 , xn .
Je reprend l’exemple du §3, l’interpolation de la fonction 1/(1 + x2 ). Voici le programme Scilab,
suivi du graphe correspondant.
Le phénomène de Runge a disparu et l’interpolation est parfaitement régulière.
36
Chapitre 3. L’interpolation
Listing 3.3 – construction d’un interpolant spline
1
2
3
4
5
6
7
8
9
10
11
d e f f ( "y = f n ( x ) " , "y = ( 1 . 0 ) . / ( 1 + x . ∗ x ) " ) ;
npts = 200;
np iv = input ( "nombre de p i v o t s : " ) ;
xmin = −5; xmax = 5 ;
x = linspace ( xmin , xmax , n p t s ) ;
xp = linspace ( xmin , xmax , npiv ) ;
xset ( "window" , 0 ) , xbasc ( 0 ) , xset ( "mark s i z e " , 3 )
plot2d ( xp , f n ( xp ) , −4 , r e c t = [ xmin , −0.5 ,xmax , 1 . 5 ] )
s p l 1 = s p l i n ( xp , f n ( xp ) ) ;
s p l 2 = interp ( x , xp , f n ( xp ) , s p l 1 ) ;
plot2d ( x , s p l 2 , 2 , " 000 " )
Fig. 3.6 – interpolation spline
1.5
1.3
1.1
♦
♦
0.9
♦
0.7
0.5
♦
♦
0.3
0.1 ♦
♦
♦
♦
♦
♦
♦
♦
♦
♦
♦
♦
♦
♦
♦
−0.1
−0.3
−0.5
−5
3.12
−4
−3
−2
−1
0
1
2
3
4
5
Interpolation à deux ou plusieurs dimensions
Les algorithmes exposés ci-dessus se généralisent de façon plus ou moins laborieuse à deux
ou plusieurs dimensions. La méthode des éléments finis, utilisée pour résoudre les équations aux
dérivées partielles, fait un usage intensif de l’interpolation à plusieurs variables ; vous trouverez
les meilleures introductions à l’interpolation à plusieurs dimensions dans les livres traitant des
éléments finis. Le graphisme sur ordinateur (CAO, DAO) est un autre «consommateur» important
d’algorithmes d’interpolation.
Je mentionne pour terminer une application classique de l’interpolation à deux variables : le
tracé de courbes de niveau. Soit f (x, y) une fonction définie dans une région du plan. Je peux
représenter cette fonction comme une surface z = f (x, y) (en fait comme une projection sur le
papier ou l’écran de cette surface). Je peux aussi dessiner la courbe du plan xOy définie par
l’équation f (x, y) = C. Les bulletins météo comportent souvent des cartes avec des isobares, lieux
des points où la pression atmosphérique prend une valeur donnée. Pour dessiner automatiquement
une courbe de niveau, je dois d’abord construire un tableau de valeurs de f correspondant à tous les
couples possibles d’abscisses [xi ] et d’ordonnées [yj ], donc en tous points d’un quadrillage couvrant
la région qui m’intéresse. Je repère ensuite, sur les droites horizontales x = xi et sur les verticales
y = yj les points pour lesquels f = C. Enfin, je relie ces points entre eux par une interpolation
bidimensionnelle.
37
Chapitre 4
Résolution d’équations non linéaires
4.1
Introduction
J’expose, dans ce chapitre, quelques méthodes de recherche des racines d’une équation nonlinéaire. Cette équation sera toujours écrite sous la forme conventionnelle
f (x) = 0.
Résoudre l’équation f = 0, chercher les zéros de f ou les pôles de 1/f sont des expressions équivalentes. Ce genre de problème se rencontre souvent, qu’il s’agisse de déterminer le point de fonctionnement d’une diode d’après sa caractéristique, la concentration d’une espèce chimique dans
un mélange réactionnel ou la fréquence de coupure d’un filtre électrique. Je n’envisagerai ici que
des fonctions réelles. On peut être amené à chercher toutes les solutions de f = 0, ou seulement
quelques unes ou une seule, la plus petite par exemple. Un cas particulier important est celui où f
est un polynôme ; on sait alors que les racines sont réelles ou deux à deux complexes conjuguées,
en nombre égal au degré du polynôme.
Il est rare que je puisse écrire une solution analytique de l’équation f = 0 ; en fait, cela ne se
produira que pour les polynômes de degré inférieur ou égal à 4 ou pour quelques fonctions simples.
En conséquence, toutes les méthodes générales de recherche de racine sont des méthodes itératives ;
partant d’une solution approchée, j’obtiendrai une suite d’approximations de plus en plus précises.
Je devrai donc me préoccuper de la convergence de la méthode et de la vitesse de convergence, je
devrai définir un critère d’arrêt des itérations et prévoir le rôle des erreurs d’arrondi inévitables
dans tout calcul numérique. J’insiste sur le fait qu’aucune méthode connue ne fonctionne «en
aveugle» : on doit toujours avoir une connaissance au moins approximative de l’emplacement de
la racine. Je vous recommande vivement de tracer le graphe de la fonction pour avoir une idée du
nombre et de la position des zéros.
4.2
Méthode de bissection ou de dichotomie
Je m’intéresse à une fonction f (x) continue sur l’intervalle I = [a, b] et telle que f (a)f (b) < 0.
Il découle de ces hypothèses que f s’annule au moins une fois dans I et c’est ce zéro que je souhaite
localiser précisément. Le pseudo-code correspondant à l’algorithme de bissection s’écrit
38
Chapitre 4. Résolution d’équations non linéaires
poser xg := a, xd := b, nit := 0 ;
tant que |xg − xd | > T OL et que nit < N IT M AX
faire
poser xm := (xg + xd )/2
si f (xg )f (xm ) < 0 alors xd := xm
sinon xg := xm
incrémenter nit
afficher nit, x∗ = (xg + xm )/2, f (x∗ )
Le principe de la méthode est facile à comprendre. Je calcule la valeur de la fonction au milieu de
l’intervalle [xg , xd ] et j’observe le changement de signe : s’il se produit entre xg et xm , c’est que
la racine se trouve dans cet intervalle ; dans ce cas, je redéfinis la borne droite de l’intervalle et je
recommence ; le raisonnement est semblable si le changement de signe se produit entre xm et xd .
A chaque itération, l’intervalle qui contient la racine voit sa longueur divisée par 2.
Comme dans toute méthode itérative, j’ai du définir un critère d’arrêt, ici le fait que la longueur
du segment [xg , xd ] devienne inférieur à la constante T OL. Il se pourrait que cette condition ne
soit jamais remplie : c’est pourquoi je surveille aussi le nombre d’itérations et j’arrête le calcul si
nit dépasse N IT M AX. J’aurais pu aussi bien choisir la condition f (xm ) < SEU IL comme critère
d’arrêt.
Cette ébauche est incomplète : outre le fait que les constantes T OL et N IT M AX ne sont pas
définies, je n’ai rien prévu pour le cas où f (xm ) = 0. De plus, il est nécessaire que a < b et que
l’intervalle I ne contienne qu’une racine.
Cependant, une fois amélioré, l’algorithme de dichotomie présente de nombreux avantages. La
convergence est certaine dès lors que les conditions précédentes sont remplies ; la programmation
est très simple ; le calcul de f n’a pas besoin d’être très précis, parce que j’utilise en fait le signe de la
fonction et non sa valeur. Le désavantage est que la convergence est assez lente ; comme l’intervalle
où peut se trouver la solution est divisé par deux à chaque itération, je dis que la convergence est
approximativement linéaire.
La figure montre un exemple de recherche de racine de l’équation x2 = cos x réalisé sous Scilab.
4.3
Méthode «Regula falsi»
Ces mots latins (règle des fausses positions, une expression qui date du 17ième siècle) désignent
une variante de la méthode de dichotomie qui utilise une meilleure estimation de la nouvelle abscisse
(xm pour la bissection).
À chaque itération de l’algorithme précédent, je connais deux abscisses, xg et xd , qui encadrent
la racine inconnue x∗ . Les nombres yg = f (xg ) et yd = f (xd ) sont donc de signes contraires si bien
que les deux points G(xg , yg ) et D(xd , yd )sont situés de part et d’autre de l’axe des x. La corde
GD coupe donc cet axe en un point M, lequel sera «assez proche» de x∗ ; je choisirai xm comme
nouvelle borne de l’intervalle contenant la racine, borne gauche si le changement de signe de f se
produit entre xm et xd , borne droite dans le cas contraire. Il me reste à déterminer l’abscisse xm :
xm = xg − yg
xg − xd
xg − xd
= xd − yd
.
yg − yd
yg − yd
La convergence est souvent plus rapide qu’avec la méthode de bissection. J’ai choisi comme exemple
la même équation qu’au paragraphe précédent, qui fait intervenir une fonction à variation régulière
pour laquelle la convergence est très rapide. J’en ai profité pour modifier le critère d’arrêt : le calcul
s’arrête dès que deux estimations successives de la racine sont «assez voisines» : |x(n) − x(n−1) | <
T OL.
39
4.3. Méthode «Regula falsi»
Fig. 4.1 – résolution de x2 = cos x par bissection
0.8
0.6
⊕
0.4
⊕
0.2
⊕
⊕
⊕⊕
0
⊕
−0.2
−0.4
⊕
−0.6
−0.8
−1.0
0.5
0.6
0.7
0.8
0.9
1.0
1.1
Fig. 4.2 – solution de x2 = cos x par regula falsi
0.8
0.6
⊕
0.4
0.2
⊕
0
⊕
⊕
−0.2
−0.4
⊕
−0.6
−0.8
−1.0
0.5
0.6
0.7
0.8
0.9
40
1.0
1.1
Chapitre 4. Résolution d’équations non linéaires
Fig. 4.3 – itération convergente
1.4
1.2
1.0
0.8
0.6
0.4
0.2
0
0
x0
0.2
0.4
x1
0.6
x2
0.8
x3
1.0
1.2
1.4
Fig. 4.4 – itération divergente
1.4
1.2
1.0
0.8
0.6
0.4
0.2
0
0
4.4
0.2
0.4
x3
0.6
0.8
1.0
x2
x1
1.2
x0
1.4
Méthode du point fixe ou d’itération
Je me propose de résoudre l’équation
x = f (x).
(4.1)
Toute solution de cette équation s’appelle un point fixe de l’application f (l’image de x est x
lui-même). Je vais procéder par itérations successives à partir d’une estimation x(0) de la solution :
x(n+1) = f (x(n) ).
(4.2)
L’équation (4.2) admet une interprétation géométrique simple. La solution x∗ de (4.1) est le point
d’intersection de la première bissectrice (droite d’équation y = x) et de la courbe d’équation
y = f (x). L’ordonnée f (x(0) ) est la nouvelle abscisse x(1) ; le point (0,x(1) ) se déduit du point
(x(0) , f (x(0) )) par une symétrie orthogonale par rapport à la droite y = x. Cette construction
se répète pour x(2) , x(3) , · · · En essayant de résoudre (4.1) pour diverses fonctions f , vous verrez
que l’on peut rencontrer deux dispositions de la suite x(0) x(1) , · · ·, correspondant soit à un point
fixe attractif, soit à un point fixe répulsif, comme le montre les figures. D’où la question : à
quelle(s) condition(s) la suite des x(n) converge-t-elle, et vers quelle valeur ? Le raisonnement est
41
4.5. Méthode de Newton
simple et il est représentatif de nombreuses études de convergence. Je suppose que la fonction f
et sa dérivée f 0 sont continues dans un intervalle I = [a, b] entourant la racine x∗ . De plus, f est
telle que a ≤ f (x) ≤ b si x ∈ I. Cette condition implique que tous les x(k) appartiennent à I si
l’approximation initiale x(0) appartient à cet intervalle.
La racine vérifie (4.1) :
x∗ = f (x∗ ).
Je défini l’erreur à l’itération k
ek ≡ x(k) − x∗ .
Je commence par exprimer l’erreur à l’étape k + 1 en fonction de ek
ek+1 = x(k+1) − x∗ = f (x(k) ) − f (x∗ ).
D’après le théorème des accroissements finis, le second membre s’écrit
f (x(k) ) − f (x∗ ) = (x(k) − x∗ )f 0 (ξk )
où ξk est compris entre x∗ et x(k) . La relation cherchée s’écrit
ek+1 = f 0 (ξk )ek .
(4.3)
Pour que l’itération converge, il faut que l’erreur diminue en valeur absolue à chaque tour, ce qui
sera assuré si |f 0 (ξk )| < 1 quelque soit k. D’où le théorème
Théorème. Soit une fonction f continûment dérivable sur [a, b]
et telle que f (x) ∈ [a, b] si x ∈ [a, b]. Soit encore M telle que
M = sup |f 0 (x)| < 1.
a≤x≤b
Pour tout x(0) ∈ [a, b], la suite des itérés x(0) , x(1) , . . . , x(n) , . . .
converge vers la solution de l’équation x = f (x). On a de plus
x∗ − x(n+1)
= f 0 (x∗ ).
n→∞ x∗ − x(n)
lim
Vous voyez que l’erreur est multipliée par un facteur inférieur à un à chaque itération : on dit
que la convergence est linéaire.
La méthode du point fixe est d’application assez générale car beaucoup d’équations peuvent se
mettre sous la forme x = f (x). L’exemple suivant remonte à l’Antiquité. L’équation x2 = a peut
√se
a.
pour
approcher
mettre sous l’une des formes x = a/x ou x = 12 (x + a/x) qui ont été utilisées
√
La figure montre l’application de la méthode du point fixe à l’équation x = cos x ; les conditions
de convergence sont remplies dans [0,1] et, effectivement, la méthode converge vers x∗ = 0, 824132.
4.5
Méthode de Newton
La méthode de Newton s’applique à la résolution d’une équation de la forme f (x) = 0. Son
interprétation géométrique est donnée sur la figure suivante.
42
Chapitre 4. Résolution d’équations non linéaires
Fig. 4.5 – résolution de x2 = cos x par itération
1.4
1.2
1.0
0.8
0.6
0.4
0.2
0
0
0.2
0.4
0.6
0.8
1.0
1.2
1.4
1.7
1.9
4
3
2
1
0
x3
−1
0.5
0.7
x2
x1
0.9
1.1
x0
1.3
1.5
Je dispose d’une approximation x(0) de la racine ; je construit la tangente à la courbe d’équation
y = f (x) au point d’abscisse x(0) ; cette droite coupe l’axe horizontal en x(1) ; je construit une
nouvelle tangente en cette abscisse, dont l’intersection avec l’axe des x me donne x(2) . Ce procédé
est itéré jusqu”à convergence.
L’équation de la droite de pente f 0 (x(k) ) passant par le point x(k) , f (x(k) ) s’écrit y − f (x(k) ) =
0 (k)
f (x )(x − x(k) ). Cette droite coupe l’axe des x au point d’abscisse
x(k+1) = x(k) −
f (x(k) )
.
f 0 (x(k) )
(4.4)
Cette équation définit l’algorithme de Newton pour la résolution des équations non-linéaires. Vous
constatez immédiatement que la méthode va diverger lorsque que f 0 sera nulle ou même petite. En
effet, si la pente de la courbe est faible, le point d’intersection x(k+1) de la tangente avec l’axe sera
très éloigné du point d’abscisse x(k) et l’algorithme a toutes chances de se perdre.
Je vais maintenant établir la condition de convergence de façon précise ; la théorie devient très
simple si l’on remarque qu’en posant
φ(x) ≡ x −
f (x)
,
f 0 (x)
je mets l’équation (4.4) sous la forme d’une itération vers un point fixe
x(k+1) = φ(x(k) ).
43
4.6. Méthode de la sécante
Cette fonction s’appelle parfois la fonction d’itération de la méthode de Newton. D’après le paragraphe précédent, je sais que la convergence dépend de φ0 (x) ; or
φ0 (x) =
f (x)f 00 (x)
[f 0 (x)]2 2
.
J’appelle encore x∗ la racine que je cherche ; elle vérifie f (x∗ ) = 0 et par conséquent
φ0 (x∗) = 0.
Comme je suppose que f, f 0 , f 00 sont définies et continues dans la région qui m’intéresse, il existe
un intervalle I = [x∗ − δ, x∗ + δ] tel que
|φ0 (x)| ≤ C < 1.
Il me suffit donc de choisir x(0) ∈ I pour assurer la convergence de l’algorithme de Newton.
Pour estimer la vitesse de convergence, je fait un développement de Taylor de φ autour de x∗ :
φ(x(k) ) − φ(x∗ ) =
1 (k)
(x − x∗ )2 φ00 (ηk )
2
où ηk est compris entre x∗ et x(k) . J’en déduis
e(k+1) =
1 (k) 2 00
[e ] φ (ηk ).
2
Lorsque k croit, x(k) et ηk se rapprochent de x∗ , ce que je traduis par l’expression
e(k+1)
1
= φ00 (x∗ ).
(k)
2
k→∞ [e
2
]
lim
Je calcule φ00 (x∗ ) = f 00 (x∗ )/f 0 (x∗ ) d’où le résultat
e(k+1)
f 00 (x∗ )
=
.
k→∞ [e(k) ]2
2f 0 (x∗ )
lim
(4.5)
Je peux donc énoncer le théorème suivant.
Théorème. Si f, f 0 et f 00 sont continues dans un voisinage de
x∗ et si f (x∗ ) = 0 et f 0 (x∗ ) 6= 0, si x(0) est choisi assez près
de x∗ , alors la suite définie par (4.4) converge vers x∗ , avec une
vitesse de convergence donnée par (4.5) ; la convergence est dite
quadratique.
4.6
Méthode de la sécante
La méthode de la sécante est une méthode «à deux points» : connaissant les approximations
x(k−1) et x(k) de la racine, je vais calculer une meilleure approximation x(k+1) . Le principe en est
simple. La corde qui joint les points de coordonnées [x(k−1) , f (x(k−1) )] et [x(k) , f (x(k) )] coupe l’axe
des x en un point d’abscisse x(k+1) . Je trouve facilement l’expression de cette abscisse
x(k+1) = x(k) − f (x(k) )
x(k) − x(k−1)
.
f (x(k) ) − f (x(k−1) )
Ce procédé n’est pas très différent de la méthode de Newton. En effet, la fraction au second
membre peut être considérée comme une approximation de 1/f 0 (x(k) ). L’analyse de la convergence
est cependant un peu plus compliquée et pourra être abordée en exercice.
44
Chapitre 4. Résolution d’équations non linéaires
4.7
Résolution de systèmes d’équations
Je ne ferais qu’effleurer le sujet vaste et compliqué des systèmes d’équations non linéaires à
plusieurs variables. Dans le cas de deux dimensions, je cherche les solutions du système :
½
f (x, y) = 0,
(4.6)
g(x, y) = 0.
Chaque équation définit une courbe du plan (x,y) ; résoudre le système équivaut donc à chercher les points d’intersection de ces deux courbes. Je recommande vivement une étude graphique
sommaire de ces deux équations avant toute recherche de racine par le calcul ; en effet, quelque soit
l’algorithme utilisé, la convergence dépendra fortement de la qualité de l’approximation initiale.
Je vais présenter une généralisation de la méthode de Newton. Je suppose que f , g et leurs
dérivées sont continues dans la région du plan qui m’intéresse. Je suppose connue une approximation
de la solution, soit (x0 , y0 ). Je peux toujours poser :
x = x0 + u ;
y = y0 + v.
Je substitue dans (9.1) et j’effectue un développement de Taylor du premier ordre à deux
variables :
f (x0 + u, y0 + v) = f (x0 , y0 ) + ufx + vfy + · · · = 0,
g(x0 + u, y0 + v) = g(x0 , y0 ) + ugx + vgy + · · · = 0,
où les dérivées partielles fx , fy , gx et gy sont calculées au point (x0 , y0 ). Je suppose que les
variations de f et g soient assez lentes pour que je puisse négliger les termes d’ordre supérieur. En
isolant les termes en u et v, je trouve
½
ufx + vfy = −f (x0 , y0 ),
(4.7)
ugx + vgy = −g(x0 , y0 ).
Les équations (4.7) constituent un système de deux équations linéaires à deux inconnues, u et v,
dont la solution est immédiate. Il est maintenant facile d’imaginer l’algorithme de Newton à deux
dimensions. J’obtiendrais une approximation encore meilleure de la solution en itérant ce procédé
x1 = x0 + u ;
y1 = y0 + v.
À l’étape suivante de l’itération, je remplace (x0 , y0 ) par (x1 ,y1 ) et ainsi de suite, jusqu’à satisfaire
à un critère de convergence.
Ce formalisme se généralise facilement à un nombre quelconque d’équations ; il est alors commode d’utiliser une notation matricielle. Soit f ∈ <n un vecteur de coordonnées fi (r) ; je suppose
aussi que r ∈ <n . Le système d’équations à résoudre s’écrit :
f = 0.
Si r0 est une approximation de la solution, je pose r = r0 + u. La correction u est alors définie
par l’équation
n
X
∂f
=0
f (r0 ) +
ui
∂
ui
1
ou encore, en définissant la "matrice jacobienne" J, d’éléments Jij = ∂fi /∂uj :
u = −J−1 f (r0 )
r1 = r0 + u
45
4.7. Résolution de systèmes d’équations
rn+1 = rn −J−1 f (rn )
La convergence est rapide si le point de départ est proche de la solution ; dans le cas contraire,
nous ne sommes pas assurés de voir l’algorithme converger.
Exemple. Soit le système de deux équations :
f (x, y) = x2 + y 2 − 4 = 0,
g(x, y) = ex + y − 1 = 0.
Il est très simple de construire les deux courbes représentant les équations f = 0 et g = 0 ;
elles se coupent en deux points voisins de (1,-2) et (-2,1) ; il n’y a pas d’autre solution. J’ai écrit
un programme de résolution par la méthode de Newton à deux dimensions, que vous trouverez
ci-dessous.
Listing 4.1 – Méthode de Newton
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
// a l g o r i t h m e de newton a deux v a r i a b l e s
function u = f ( x , y )
u = x∗x + y∗y − 4
endfunction
function u = dfdx ( x , y )
u = 2∗ x ;
endfunction
function u = dfdy ( x , y )
u = 2∗ y
endfunction
function u = g ( x , y )
u = exp ( x ) + y − 1 ;
endfunction
function u = dgdx ( x , y )
u = exp ( x )
endfunction
function u = dgdy ( x , y )
u = 1;
endfunction
t o l = 1 e −6; nitmax = 2 0 ;
xmin = −4; xmax = 4 ; ymin = −3; ymax = 3 ;
xset ( "window" , 0 ) , xbasc ( 0 )
xt = − 3 : 0 . 1 : 3 ;
yt1 = 1 − exp ( xt ) ;
plot2d ( xt , yt1 , r e c t =[xmin , ymin , xmax , ymax ] , s t y l e =2)
xpoly ( [ xmin , xmax ] , [ 0 , 0 ] ) , xpoly ( [ 0 , 0 ] , [ ymin , ymax ] )
xt = − 2 : 0 . 0 2 : 2 ;
yt2 = sqrt ( 4 − xt . ^ 2 ) ;
plot2d ( xt , yt2 , 3 , " 000 " ) ;
yt2 = −sqrt ( 4 − xt . ^ 2 ) ;
plot2d ( xt , yt2 , 3 , " 000 " ) ;
for j = 1 : 3
a = input ( " a b s c i s s e i n i t i a l e : " ) ; b = input ( " ordonnee i n i t i a l e : " ) ;
n i t = 1 ; xx ( 1 ) = a ; x = a ; yy ( 1 ) = b ; y = b ;
xset ( "mark s i z e " , 2 ) , plot2d ( a , b , −4)
u = 1; v = 1;
while ( ( ( abs ( u ) > t o l ) | ( abs ( v ) > t o l ) ) & n i t < nitmax )
d e l t a = dfdx ( x , y ) ∗ dgdy ( x , y)− dfdy ( x , y ) ∗ dgdx ( x , y ) ;
u = ( g ( x , y ) ∗ dfdy ( x , y)− f ( x , y ) ∗ dgdy ( x , y ) ) / d e l t a ;
46
Chapitre 4. Résolution d’équations non linéaires
42
43
44
45
46
47
48
v = ( f ( x , y ) ∗ dgdx ( x , y)−g ( x , y ) ∗ dfdx ( x , y ) ) / d e l t a ;
nit = nit + 1
x = x + u, y = y + v,
xx ( n i t ) = x ; yy ( n i t ) = y ;
xarrows ( [ xx ( n i t −1) , xx ( n i t ) ] , [ yy ( n i t −1) , yy ( n i t ) ] , 0 . 0 5 , j )
end
end
La figure montre les itérations successives. La convergence est rapide, bien que le point de
coordonnées(xi , yi ) ait tendance à «explorer» une assez grande région du plan. Comme toujours
avec la méthode de Newton, le comportement dépend très fortement du point de départ. Pour
certains systèmes, on peut montrer que les valeurs initiales qui conduisent à la convergence sont
contenues dans une région du plan dont la frontière est une belle courbe fractale.
Fig. 4.6 – recherche des solutions d’un système non-linéaire
3
♦
2
1
0
♦
−1
−2
♦
−3
−4
4.8
−3
−2
−1
0
1
2
3
4
Racines des polynômes
Soit p(x) un polynôme de degré n à coefficients réels. On désigne parfois une équation comme
p(x) = 0 sous le nom d’équation algébrique. Le théorème fondamental de l’algèbre énonce que p(x)
a n racines, réelles ou complexes conjuguées deux à deux. Pour de nombreuses applications, il est
nécessaire de déterminer toutes les racines de p(x).
4.8.1
Séparation des racines
Avant de chercher les valeurs numériques des zéros d’un polynôme, il est commode d’avoir une
idée de leur localisation. Si [a0 , a1 , . . . , an ] est la suite des coefficients de p(x) supposés réels (certains pouvant être nuls), j’appelle ν le nombre de changements de signe dans la suite des {ai } (en
ignorant les coefficients nuls). Je désigne par k le nombre de zéros réels positifs de p(x), comptés
selon leur multiplicité (une racine double compte pour 2, etc.). Je peux alors énoncer la règle de
Descartes :
k ≤ ν et de plus ν − k doit être pair.
Exemple. Les coefficients de x6 − x − 1 présentent un changement de signe (ν = 1) ; k vaut
donc 0 ou 1, mais la valeur 0 est à rejeter puisqu’alors ν − k = 1. Ce polynôme a donc une racine
réelle positive.
47
4.8. Racines des polynômes
Je peux aussi trouver le nombre de racines réelles négatives : il suffit d’appliquer la règle de
Descartes au polynôme q(x) = p(−x). Le polynôme de l’exemple précédent admet un zéro réel
négatif.
4.8.2
Suites de Sturm
Une localisation plus précise des racines d’un polynôme p(x) de degré n peut être obtenue en
construisant une «suite de Sturm» basée sur p. Je commence donc par définir ce qu’est une suite
de Sturm.
Soit p0 (x), p1 (x), . . . , pm (x) une séquence de polynômes ; elle constitue une suite de Sturm si
–
–
–
–
Les zéros réels de p0 (x) sont simples.
p1 (α)p00 (α) < 0 si α est un zéro réel de p0 .
Pour k = 1, 2 . . . , m − 1, pk−1 (α)pk+1 (α) < 0 si α est un zéro réel de pk (x).
Le dernier polynôme, pm (x) n’a pas de zéros réels.
Comment construire cette suite ? À l’aide de la relation de récurrence assez simple que j’expose
maintenant. Je pose
p0 (x) ≡ p(x)
;
p1 (x) ≡ −p00 (x)
et
pk−1 (x) = qk (x)pk (x) − pk+1 (x) avec deg pk > deg pk+1 .
(4.8)
Si les pk étaient des nombres, vous auriez sûrement reconnu l’algorithme d’Euclide pour la construction du PGCD. Le concept de PGCD se transpose facilement aux polynômes. Comme le degré des
polynômes décroît, l’algorithme s’arrête au bout de m ≤ n étapes :
pm−1 (x) = qm (x)pm (x),
pm (x) 6= 0.
Le dernier polynôme, pm est un plus grand commun diviseur de p0 et p1 . Comme p = p0 n’a
que des zéros simples, p0 et p1 = −p00 n’ont pas de diviseurs communs (ne sont jamais nuls
simultanément) et, par conséquent, pm n’a pas de zéros réels. Si pk (α) = 0, la relation (4.8)
implique que pk−1 (α) = −pk+1 (α). Il pourrait se faire que pk+1 (α) soit nul ; mais alors, toujours
d’après la relation de récurrence, tous les pk (α) seraient nuls, y compris pm , ce qui est contraire
au résultat précédent. En tenant compte des définitions de p0 et p1 , vous vous apercevez que les
{pk } satisfont à toutes les propriétés qui définissent une suite de Sturm.
J’énonce maintenant le théorème de Sturm :
Théorème. Le nombre de racines réelles de p(x) ≡ p0 (x) dans
l’intervalle a ≤ x < b est égal à w(b) − w(a) où w(x) est le nombre
de changements de signe dans la suite p0 (x), p1 (x), . . . , pm (x) au
point x.
Je ne donnerai pas ici la démonstration, simple mais assez longue : il faut examiner en détail
les changements de signe de chaque polynôme au voisinage d’un zéro de l’un d’eux.
Exemple. Soit p(x) = x5 − x3 − x − 1. La suite de Sturm de p est
p0 (x) =
x5 − x3 − x − 1,
p1 (x) =
−5x4 − 3x2 + 1,
2 3 4
x + x + 1,
5
5
25
−13x2 − x − 1,
2
174
385
x−
,
−
338
169
47827
.
148225
p2 (x) =
p3 (x) =
p4 (x) =
p5 (x) =
48
Chapitre 4. Résolution d’équations non linéaires
Ici, m = 5. Je ne considère que les cas x = −∞, 0, ∞ ; je construis un tableau de signes
x
p0
p1
p2
p3
p4
p5
w(x)
−∞
+
+
1
0
+
+
+
3
∞
+
+
+
4
La suite présente un seul changement de signe lorsque x est très grand négatif, trois changements
pour x = 0 et 4 pour x grand positif. Il y a donc deux zéros dans l’intervalle [−∞, 0[ et un dans
[0, ∞[.
4.8.3
Division des polynômes
Je reviens plus en détail, dans ce paragraphe, sur la division des polynômes, qui a été considérée comme bien connue au paragraphe précédent. Étant donné un polynôme p(x) de degré n (le
dividende) et un polynôme b(x) de degré m < n (le diviseur), on sait trouver deux polynômes, le
quotient q(x) et le reste r(x) tels que
p(x) = b(x)q(x) + r(x), avec deg r < deg b.
(4.9)
Remarquez que le degré de q(x) est imposé (n − m) mais ne joue aucun rôle dans la suite. Avec
cette définition, la division des polynômes est très semblable à celle des nombres, pour laquelle le
reste doit être inférieur au diviseur. Je considère maintenant un cas particulier, celui où le diviseur
est de la forme b(x) = x − α. Le reste est alors une constante (polynôme de degré < 1). Je peux
écrire
p(x) = (x − α)q(x) + r
d’où je tire, en faisant x = α,
p(α) = r.
(4.10)
en d’autres termes, la valeur numérique de p en x = α est le reste de la division de p par x − α. Ce
résultat a une conséquence importante. Si a est un zéro de p, donc si p(α) = 0, alors r = 0, ce qui
signifie qu’un polynôme qui s’annule en x = α est divisible par x − α. J’ai déjà expliqué (chapitre
1) comment calculer r ou p(a), mais je reprendrai ce calcul plus bas. Je peux aussi obtenir une
expression simple de la valeur numérique de la dérivée de p. Je sais que
p0 (x) = q(x) + (x − α)q 0 (x)
et, en faisant à nouveau x = α,
p0 (α) = q(α).
(4.11)
Comme vous le verrez, il est facile de calculer q(α). Des équations analogues existent pour les
dérivées d’ordre supérieur.
Je vais maintenant construire le polynôme q(x) par identification. Je note c0 , c1 , . . . , cn−1 les
coefficients des puissances croissantes de x dans q. Ces nombres doivent satisfaire, quelque soit x,
à la relation
an xn + an−1 xn−1 + · · · + a1 x + a0 = (x − α)(cn−1 xn−1 + cn−2 xn−2 + · · · + c1 x + c0 ).
En identifiant les coefficients des puissances successives de x, j’obtiens
an = cn−1
;
an−1 = cn−2 − αcn−1 ; . . .
49
4.8. Racines des polynômes
a1 = c0 − αc1
;
a0 = r − αc0
soit encore :
cn−1
cn−2
···
c0
r
= an
= an−1 + αcn−1 ,
···
= a1 + αc1 ,
= a0 + αc0 .
(4.12)
Vous voyez que r, qui est aussi la valeur numérique de p(α), s’obtient au moyen de n − 1 multiplications. En fait la relation de récurrence précédente est équivalente à la règle suivante. J’écris le
polynôme p(x) sous la forme :
p = (((...(an x + an−1 )x + an−2 )x + .... + a1 )x + a0 ,
(4.13)
puis je fais x = α avant d’effectuer les calculs. La parenthèse intérieure contient alors cn−2 , la
suivante cn−3 , jusqu’à r. Vous avez reconnu la méthode de Horner. Je donne un exemple, qui fait
un peu double emploi avec celui du chapitre 1.
Exemple. Je vais calculer la valeur de p = 2x5 − 71x3 − 8x2 + 12x + 3 pour x = 6, ce qui revient
à diviser p par x − 6.Il est commode de disposer le calcul comme ci-dessous. Seuls les coefficients
des puissances décroissantes de x sont nécessaires, mais il faut les faire figurer tous, mêmes ceux
qui sont nuls.
p 2
q 2
0
6 × 2 + 0 = 12
−71
6 × 12 − 71 = 1
−8
6 × 1 − 8 = −2
12
6 × −2 + 12 = 0
3
6×0+3=3
Le reste est r = 3, le quotient est q = 2x4 + 12x3 + x2 − 2x. La valeur numérique de p0 (6) est q(6)
qui s’obtient par le même procédé.
q
2
12
2 6 × 2 + 12 = 24
1
6 × 24 + 1 = 145
−2
870 − 2 = 868
0
6 × 868 = 5208
ce que vous pouvez vérifier par un calcul direct.
Lorsque l’on traite à la main un seul polynôme, les formes (4.12) et (4.13) sont équivalentes
mais, lorsque l’on doit faire de nombreux calculs, il devient intéressant d’écrire un programme
général. Je donne ci-dessous le squelette d’un programme qui calcule p et p0 à partir du tableau a
des coefficients de p et de la valeur de x.
p = a[n], dp = 0.0;
for i de n-1 à 0
dp = dp*x + p;
p = p*x+a[i];
Lorsque la boucle se termine, p contient la valeur numérique du polynôme (accumulée selon la
méthode de Horner) et dp celle de la dérivée.
4.8.4
La méthode de Newton pour les polynômes
Je dispose maintenant d’un algorithme pratique de calcul des valeurs numériques d’un polynôme et de sa dérivée : c’est tout ce qu’il faut pour mettre en oeuvre la méthode de Newton. En
voici un exemple : la recherche du zéro de p = x3 − x2 + 2x + 5 voisin de -1. Les coefficients ont
été rangés en colonne pour gagner de la place.
50
Chapitre 4. Résolution d’équations non linéaires
x
-1
p
1
-1
2
5
q
1
-2
4
1
p0
1
-3
7
-1,142857
1
-1
2
5
1
-2,142857
4.448979
-0,084546
1
-3,285714
8,204081
-1,132552
1
-1
2
5
1
-2,132552
4,415226
-0.000473
1
-3,265104
8,113126
p/p0
0,142857
-0,010305
-0.000058
-1,132494
Les nombres soulignés sont les valeurs de p, alors que les valeurs de p0 figurent en caractères gras.
On voit que la convergence (caractérisée par le terme correctif (p/p0 ) est très rapide. Il est possible
d’étendre cet algorithme aux racines complexes ou aux polynômes à coefficients complexes.
p est de degré 3 et admet donc 3 zéros ; comment pourrais-je les trouver ? Très simplement :
il suffit de diviser le polynôme de départ par x + 1, 132494. La division doit se faire exactement,
puisque -1,132494 est racine de p(x) ; le polynôme quotient est ici du second degré et ses zéros
s’obtiennent sans problème. Ce procédé s’appelle la déflation. Dans le cas général d’un polynôme
p(x) de degré n, dès que j’ai déterminé une racine x∗ (par la méthode de Newton par exemple),
je divise p(x) par x − x∗ pour obtenir un polynôme de degré n − 1. Je répète ce procédé jusqu’au
degré 2 ou 1. Si n est un tant soit peu grand, les erreurs d’arrondi risquent, en s’accumulant, de
gâcher ce programme : le calcul doit être mené avec toute la précision possible.
51
Chapitre 5
Polynômes orthogonaux
5.1
Introduction
Les suites de polynômes orthogonaux apparaissent fréquemment en physique mathématique en
particulier au cours de la résolution d’équations aux dérivées partielles (Laplace, Schrödinger) par
la méthode de séparation des variables. Elles sont aussi très utilisées en analyse numérique. On
connaît de nombreuses familles de polynômes orthogonaux, qui ont en commun un certain nombre
de propriétés simples, que je vais décrire succinctement.
5.2
Définition, Existence
Soit [a, b] un intervalle (qui peut être fini ou infini) et w(x) une fonction strictement positive
et intégrable sur cet intervalle. On appelle polynômes orthogonaux sur [a, b], par rapport à la
"fonction de poids" w(x), une suite de polynômes G0 (x), G1 (x),. . ., Gn (x),. . .(où Gk est de degré
k) tels que :
Z b
(Gk , Gn ) =
w(x)Gk (x)Gn (x)dx = 0 si k 6= n.
(5.1)
a
Le nombre
Z
(f, g) =
f (x)g(x)w(x)dx
(5.2)
est souvent appelé «produit scalaire» de f par g ; lorsqu’il est nul, on dit que les fonctions f et g
sont «orthogonales». En faisant f = g dans la relation précédente, on obtient le carré de la norme
de f :
Z
k f k2 = (f, f ) =
[f (x)]2 w(x)dx.
(5.3)
On montre facilement que ce produit scalaire est linéaire en f et g, symétrique et qu’il vérifie
l’inégalité de Cauchy-Schwartz :
(f, g) ≤k f kk g k .
Les formules (5.1,5.2) ne définissent pas entièrement les Gn ; il est commode d’imposer les conditions
supplémentaires :
Z b
Z b
2
(Gn , Gn ) =
w[Gn ] dx = 1;
xwGn Gn+1 dx > 1
a
On a alors :
a
Z
(Gk , Gn ) =
b
w(x)Gk (x)Gn (x)dx = δk,n
a
52
Chapitre 5. Polynômes orthogonaux
Les polynômes sont ainsi orthonormés.
Pour prouver l’existence de ces polynômes, je vais les construire par le procédé de GramSchmidt, appliqué à l’ensemble des puissances successives de x. G0 est une constante positive, telle
que (G0 , G0 ) = 1. g1 est une fonction linéaire que je définis comme :
g1 = x − (x, G0 )G0 .
g1 est manifestement orthogonal à G0 . G1 est défini comme g1 normé :
G1 = g1 / k g1 k .
Je procède ensuite par itération de ces relations ; g2 est une fonction quadratique définie par :
g2 = x2 − (x2 , G0 )G0 − (x2 , G1 )G1 ,
G2 = g2 / k g2 k .
En faisant le produit scalaire de g2 successivement par G0 et G1 , je vérifie que cette fonction est
bien orthogonale à G0 et G1 . Je construis ainsi la suite des polynômes Gk , à partir des nombres
(x, G0 ), (x2 , G0 ), . . . , (xk , Gl ). . .
5.3
Relation avec les polynômes habituels
Théorème Tout polynôme de degré n est représentable comme combinaison linéaire de polynômes Gk , avec k ≤ n.
J’ai construit les Gk comme combinaisons linéaires des xp ; un polynôme quelconque Φ(x),
lui-même combinaison linéaire des xp , peut donc s’exprimer comme :
Φ(x) = a0 G0 + a1 G1 + · · · + an Gn .
La détermination des ai est facile : j’effectue en effet le produit scalaire de l’égalité précédente
par Gp (p ≤ n). Il vient :
ap = (Φ, Gp ).
J’ai au contraire (Φ, Gn+1 ) = 0, quelque soit Φ(x) de degré n, puisque Gn+1 est orthogonal
à tous les Gk d’indice inférieur. Par ailleurs, Φ(x) sera identiquement nul si et seulement si :
(Φ, Gp ) = ap ≡ 0; p = 0, 1, . . . , n. J’en déduis le :
Théorème. Le polynôme Gk est orthogonal à tout polynôme de degré inférieur.
Remarque. Le produit scalaire (xGn−1 , Gn ) est encore le produit d’un polynôme de degré n,
xGn−1 , par Gn ; si bn dénote le coefficient de Gn dans le développement de xGn−1 , le produit
scalaire considéré se réduit à :
(xGn−1 , Gn ) = bn (Gn , Gn )
5.4
6= 0.
Zéros de Gn
Les zéros de Gn appartiennent à I et sont tous simples. Pour le prouver, je suppose que Gn
n’admette dans I que p < n racines, toutes simples et je montre que j’aboutis à une contradiction.
Je forme le polynôme Φ de degré p < n qui admet ces mêmes racines. Le produit scalaire (Gn , Φ)
doit être nul puisque deg(Φ) < n ; or ce produit scalaire est en fait l’intégrale :
Z
(Gn , Φ) = w(x)Φ(x)Gn (x)dx
53
5.5. Relation de récurrence
qui ne peut être nulle, puisque l’intégrant garde un signe constant dans I. En effet, le produit ΦGn
admet les racines de Gn (ou de Φ) comme racines doubles et ne peut changer de signe lorsque x
traverse l’une de ces racines ; de plus w(x) > 0 sur I. Il faut donc que p = n.
Je montre maintenant que Gn ne peut avoir de racines multiples. Dans un raisonnement par
l’absurde calqué sur le précédent, je suppose, au contraire, que Gn admet, dans I, n − 2 racines
simples et une racine double. Je prends alors pour Φ le polynôme de degré n−2 qui admet les mêmes
racines simples que Gn . L’intégrale qui exprime le produit scalaire (Φ, Gn ) ≡ 0 ne peut s’annuler,
parce que l’intégrant garde un signe constant dans I. Je pourrais généraliser ce raisonnement en
définissant Φ comme le polynôme de degré < n, qui admet comme racines tous les zéros d’ordre
impair de Gn .
5.5
Relation de récurrence
Je vais montrer l’existence d’une relation de récurrence, de la forme :
αn Gn+1 (x) = (βn x + γn )Gn (x) − δn Gn−1 (x).
où les αn , βn , γn , δn sont des constantes. Soit ck le coefficient de xk dans Gk (terme de plus haut
degré) ; on pose an = cn+1 /cn . Je considère le polynôme F = Gn+1 − an xGn : il est de degré n au
plus et peut donc s’exprimer comme une combinaison linéaire des Gi , i < n + 1 :
F =
n
X
bj Gj .
0
Formons le produit scalaire (F, Gp ) = (Gn+1 , Gp ) − an (xGn , Gp ) = −an (xGn , Gp ), à condition
que p < n + 1. De plus, l’examen de l’intégrale qui définit (xGn , Gp ) montre que : (xGn , Gp ) =
(Gn , xGp ). Comme xGp est de degré au plus p + 1, il est orthogonal à Gn tant que p < n − 1. J’ai
ainsi montré que F était orthogonal à Gp , 0 ≤ p ≤ n − 2. Le développement de F s’écrit alors :
F = Gn+1 − an xGn = bn Gn + bn−1 Gn−1
et
Gn+1 = (an x + bn )Gn + bn−1 Gn−1 .
Cette relation est bien de la forme annoncée, à condition de choisir αn = 1 et δn = −bn . En
manipulant cette relation à l’aide des propriétés d’orthogonalité, on montre que an > 0 et bn > 0.
En posant G−1 = 0, je définis complètement les Gn .
5.6
Disposition des zéros de Gn
Théorème. Les zéros de Gk séparent ceux de Gk+1 .
Ce résultat est vrai pour G0 et G1 ; il se démontre par récurrence dans le cas général. On peut
dire aussi que la suite de Gn forme une suite de Sturm.
5.7
Équation différentielle pour Gn
On peut montrer que chaque Gk obéit à une équation différentielle du second ordre. Il est plus
facile de démontrer une réciproque partielle. Soit l’équation différentielle :
A(x)y 00 + B(x)y 0 + Cn y = 0,
54
Chapitre 5. Polynômes orthogonaux
où Cn est une constante (avec Cn 6= Cp si n 6= p), A(x) et B(x) deux fonctions régulières de x.
Supposons que l’équation admette une solution polynômiale y = Gn (x) de degré n pour chaque
valeur de n.
On peut alors trouver un intervalle [a, b] et une fonction de poids w(x) tels que la suite des Gn
soit orthogonale par rapport à ces éléments. En effet, Gn et Gp satisfont séparément à l’équation
proposée :
AG00n + BG0n + Cn Gn = 0,
AG00p + BG0p + Cp Gp = 0.
Je multiplie la première relation par wGp , la seconde par wGn et je retranche membre à membre ;
il vient
Aw(Gn G00p − Gp G00n ) + Bw(Gn G0p − Gp G0n ) + w(Cp − Cn )Gn Gp = 0
équation qui s’écrit encore :
[Aw(Gn G0p − Gp G0n )]0 + [wB − (wA)0 ](Gn G0p − Gp G0n ) + w(Cp − Cn )Gn Gp = 0.
Je considère l’équation différentielle u(x)B(x) − (u(x)A(x))0 = 0 ; j’appelle encore w(x) la solution
qui obéit aux conditions aux limites Aw|a = Aw|b = 0, ce qui définit la fonction inconnue w(x).
En intégrant terme à terme l’équation (1), avec cette définition de w, j’obtiens :
Z
b
(Cp − Cn )
wGn Gp dx = 0,
a
ce qui signifie que les polynômes Gn sont orthogonaux sur l’intervalle I par rapport à la fonction
de poids w.
5.8
Fonction génératrice
On peut en général trouver une fonction g(u, x) telle que l’on puisse écrire :
g(u, x) =
∞
X
Ck Gk (x)uk
k=0
les Ck étant des constantes et u une variable réelle auxiliaire. Si la fonction g a une forme analytique
«simple» par rapport à u et à x, on l’appelle la fonction génératrice de la suite des Gk .
5.9
Formule d’Olinde Rodrigues
Les Gk sont proportionnels à la dérivée d’ordre k d’une fonction Uk (x) (formule d’Olinde
Rodrigues) :
1 dn
Gn (x) =
Un (x)
w dxn
laquelle est solution d’un problème différentiel :
dn+1 1 dn Un
[
]=0
dxn+1 W dxn
avec les conditions aux limites U = U 0 = U 00 = ..... = U (n−1) = 0 en x = a et x = b.
55
5.10. Identité de Darboux-Christofel
5.10
Identité de Darboux-Christofel
Une démonstration plutôt laborieuse permet d’établir l’identité de Darboux-Christofel :
n
X
Gk (x)Gk (y) =
k=0
1
[Gn+1 (x)Gn (y) − Gn (x)Gn+1 (y)]
(x − y)an
souvent utilisée pour simplifier des expressions impliquant les Gn (la constante an a été définie au
5).
5.11
Polynômes de Legendre
Les polynômes de Legendre (déjà rencontrés dans le premier chapitre) sont orthogonaux sur
[-1,1] par rapport à la fonction de poids w = 1. A partir de P0 = 1, on peut orthogonaliser les
puissances successives de x pour obtenir
P0 = 1
;
P1 = x ;
P2 = (3x2 − 1)/2
P4 = (35x4 − 30x2 + 3)/8 ;
;
P3 = (5x3 − 3x)/2,
P5 = (63x5 − 70x3 + 15x)/8.
Le polynôme Pk a le degré et la parité de k. En intégrant par partie dans la relation d’orthogonalité (Pk , Pl ) = 0, on démontre une relation d’Olinde Rodrigues :
Pn (x) =
1
2n n!
dn 2
(x − 1)n
dxn
avec Pn (1) = 1. Avec ces définitions, les Pn ne sont pas normalisés à 1 mais à (Pn , Pn ) = 2/(2n+1).
Ils admettent la fonction génératrice :
∞
g(ux) = √
X
1
=
Pk (x)uk
2
1 − 2ux + u
k=0
d’où l’on tire la relation de récurrence :
(n + 1)Pn+1 − (2n + 1)xPn + nPn−1 = 0.
Les polynômes de Legendre obéissent à l’équation différentielle :
(x2 − 1)Pn00 + 2xPn0 − n(n + 1)Pn = 0.
56
Chapitre 5. Polynômes orthogonaux
5.12
Polynômes de Hermite
170
130
polynomes de Hermite, n = 1,2,3,4
90
50
10
−30
−70
−110
−150
−2.0
−1.6
−1.2
−0.8
−0.4
0
0.4
0.8
1.2
1.6
2.0
Les polynômes de Hermite sont orthogonaux sur l’intervalle : [−∞, +∞], par rapport à la
fonction de poids : w(x) = exp(−x2 ). Ils satisfont à la relation de récurrence :
Hn+1 − 2xHn + 2nHn−1 = 0
et à l’équation différentielle :
Hn00 − 2xHn0 + 2nHn = 0.
Ils peuvent se déduire de la fonction génératrice :
g(u, x) = exp(2ux − u2 ) =
X
Hk (x)uk /k!
k
On connaît aussi une formule de Rodrigues :
Hn = (−1)n exp(x2 )
dn
exp(−x2 ).
dxn
Les polynômes d’Hermite admette une représentation générale assez simple :
Hn =
n/2
X
0
1
1 1
(2x)n−2p
(− )p
2 p! (n − 2p)!
et les premiers représentants de l’espèce s’écrivent
H0 = 1 ;
H1 = 2x ;
H4 = 16x4 − 48x2 + 12
H2 = 4x2 − 2 ;
;
H3 = 8x3 − 12x;
H5 = 32x5 − 160x3 + 120x.
Vous pouvez constater que Hk a la parité de k.
57
5.13. Polynômes de Laguerre
5.13
Polynômes de Laguerre
On peut les définir à partir d’une formule d’Olinde Rodrigues :
Ln (x) =
1 −x dn ¡ −x n ¢
e
e x ,
n!
dxn
qui me permet d’écrire les premiers membres de la suite :
L0 = 1
;
L1 = −x + 1
;
L2 =
1 2
(x − 4x + 2)
2
;
L3 =
1
(−x3 + 9x2 − 18x + 6).
6
Ces polynômes admettent la fonction génératrice :
µ
¶ X
∞
1
xt
exp −
=
Lk (x)tk .
1−t
1−t
k=0
et la relation de récurrence :
(n + 1)Ln+1 + (x − 2n − 1)Ln + nLn−1 = 0.
Ils satisfont à l’équation différentielle :
xL00n + (1 − x)L0n + nLn = 0.
Ces polynômes sont orthogonaux sur [0, ∞] par rapport à la fonction de poids w = e−x ; ils sont
normalisés à un : (Ln , Ln ) = 1. Grâce au programme ci-dessous, j’ai calculé et tracé les premiers
polynômes de Laguerre.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
// polynomes de L a g u e r r e
// ( n+1)L_{n+1} + ( x −2n −1)L_n + nL_{n−1} = 0
function f n = L( n , x )
i f n == 0 , f n = 1 , end
i f n == 1 , f n = 1 − x , end
if n > 1
k = 1 ; Lavder = 1 ; Lder = 1 − x ;
while k < n
L = ( ( 2 ∗ k + 1 − x ) . ∗ Lder − k∗ Lavder ) / ( k +1);
Lavder = Lder ;
Lder = L ;
k = k+1;
end
fn = L ;
end
endfunction
x = 0:0.1:6;
xset ( "window" , 0 ) , xbasc ( 0 )
plot2d ( x , [ L ( 2 , x ) ’ ,L ( 3 , x ) ’ ,L ( 4 , x ) ’ ,L ( 5 , x ) ’ ] )
xsegs ( [ 0 , 6 ] , [ 0 , 0 ] )
xset ( " f o n t s i z e " , 3 )
xstring ( 2 , 6 , " polynomes de Laguerre , n = 1 , 2 , 3 , 4 " )
58
Chapitre 5. Polynômes orthogonaux
7
polynomes de Laguerre, n = 1,2,3,4
5
3
1
−1
−3
−5
0
5.14
1
2
3
4
5
6
Polynômes de Tschebychef
Ces polynômes admettent la définition simple :
Tn (x) = cos[narccos(x)].
On obtient une relation de récurrence entre Tn−1 , Tn et Tn+1 en calculant cos[(n ± 1)x] :
Tn+1 (x) + Tn−1 (x) = 2xTn (x).
J’en déduis les expressions des premiers polynômes
T0 = 1 ;
T1 = x ;
T2 = 2x2 − 1 ;
T3 = 4x3 − 3x;
T4 = 8x4 − 8x2 + 1.
Les Tn obéissent à l’équation différentielle
(1 − x2 )Tn00 − xTn0 + n2 Tn = 0.
Ils sont orthogonaux sur l’intervalle [-1,1] par rapport à la fonction de poids
w= √
1
.
1 − x2
Leur fonction génératrice s’écrit
∞
g(x, u) =
X
1 − ux
uk Tk (x)
=
1 − 2ux + u2
k=0
5.15
Autres polynômes classiques
Voici les définitions de certaines suites moins fréquemment rencontrées.
59
5.15. Autres polynômes classiques
5.15.1
Jacobi
I = [−1, 1] ; w = (1 − x)α (1 − x)β ; α, β > -1
Les polynômes de Jacobi recouvrent plusieurs cas particuliers intéressants : polynômes de Legendre, pour α = β = 0, polynômes de Tschebychef de première espèce (α = β = - 1/2), de
deuxième espèce ( α = β = 1/2), de troisième espèce (α = - β = -1/2), de quatrième espèce (α =
- β = 1/2) et polynômes de Gegenbauer (α = β = λ - 1/2).
5.15.2
Laguerre généralisé
I = [0, ∞] ; w = xα e−t ; α > −1.
Les polynômes de Laguerre habituels sont obtenus en faisant α = 0 dans la définition des
polynômes généralisés.
5.15.3
Fonctions de Legendre associées
Elles sont régies par l’équation différentielle suivante, où m est un entier inférieur ou égal à n
·
¸
m2
(1 − x2 )u00 − 2xu0 + n(n + 1) −
u=0
1 − x2
qui se réduit à l’équation différentielle définissant les polynômes de Legendre habituels quand
m = 0. La solution régulière est u(x) = Pnm (x) et on peut montrer que
Pnm (x) = (1 − x2 )m/2
dm
Pn (x).
dxm
Pnp est un polynôme en x lorsque m est pair. En posant x = cos θ, je met l’équation différentielle
sous une forme qui apparaît souvent dans les problèmes à symétrie sphérique
µ
¶ ·
¸
1 d
dv
m2
sin θ
+ n(n + 1) −
v = 0.
sin θ dθ
dθ
sin2 θ
Les premières fonctions de Legendre associés s’écrivent
p
p
P11 = 1 − x2 = sin θ ; P21 = 3x 1 − x2
P31 =
p
3
(5x2 − 1) 1 − x2
2
;
;
P32 = 15x(1 − x2 )
60
P22 = 3(1 − x2 ) = 3 sin2 θ
;
P33 = 15x(1 − x2 )3/2 .
Chapitre 6
Dérivation et Intégration numériques
6.1
Introduction
Dans ce chapitre, je m’intéresse au calcul numérique de la dérivée en un point d’une fonction et
au calcul (numérique) de l’intégrale d’une fonction sur un intervalle donné. Pour l’une ou l’autre
tâche, il est bon de traiter séparément le cas d’une fonction définie analytiquement (par une formule)
et le cas d’une fonction définie numériquement (par une table de valeurs).
6.2
6.2.1
Dérivée d’une fonction analytique
Théorème de Taylor
Je considère une fonction f définie par une formule ou un algorithme, dérivable dans un intervalle. Cette fonction est trop compliquée pour que le calcul analytique de sa dérivée soit pratique,
mais je souhaite pourtant connaître la valeur numérique de f 0 (x). Le procédé le plus simple s’inspire
de la définition même de la dérivée. Soit f(x) la fonction à dériver, je sais que :
f (x + h) − f (x)
f0 ∼
.
=
h
Comment faut-il choisir h ? Ce paramètre doit être plus grand que le plus petit réel représentable
(environ 10−38 en simple précision), sinon le calcul s’arrête et la machine affiche «Division par
Zéro !». h doit aussi être assez grand pour que f (x) et f (x + h) soit reconnus comme différents
(10−7 en simple précision). Je suppose que h est assez grand pour être à l’abri des erreurs d’arrondi.
Il faut maintenant éviter de tomber de Charybde en Scylla, et garder h assez petit pour que les
erreurs de troncation soient négligeables. Ces dernières sont faciles à estimer. Je peux écrire une
version exacte de la formule précédente, d’après le théorème de Taylor :
f0 =
f (x + h) − f (x) h
+ f ”(x + θh); 0 ≤ θ ≤ 1.
h
2
Vous voyez que l’erreur est O(h), ou encore que la formule est du premier ordre : elle est exacte
pour une fonction linéaire.
En faisant un petit effort d’imagination, je peux construire une formule plus précise, mais
qui ne me coûtera aucun travail supplémentaire (même nombre d’évaluations de la fonction f ).
Appliquons deux fois le théorème de Taylor, pour les points x − h et x + h :
f (x + h) = f (x) + hf 0 (x) +
f (x − h) = f (x) − hf 0 (x) +
61
h2 00
2 f (x)
h2 00
2 f (x)
+ O(h3 )
+ O(h3 )
6.2. Dérivée d’une fonction analytique
Grâce à la parité des termes en h2 , ceux-ci disparaissent de la différence terme à terme des deux
lignes précédentes :
f (x + h) − f (x − h)
f 0 (x) =
+ O(h2 ).
2h
Les erreurs d’arrondi sont les mêmes que précédemment, mais l’erreur de troncation est maintenant
en h2 , la formule est exacte pour les fonctions quadratiques.
Exemple. On a extrait d’une table les valeurs suivantes :
x
0.159
0.160
0.161
ln x
-1.83885
-1.83258
-1.82635
et on demande de calculer la dérivée de ln x en 0.160. J’ai trouvé
f (0.161) − f (0.160)
= 6.23 ;
0.001
f (0.161) − f (0.159)
= 6.25.
0.002
Quelle est la valeur exacte ?
6.2.2
Méthode des coefficients indéterminés
La méthode des coefficients indéterminés permet de retrouver très facilement les formules d’approximation des dérivées, sans toutefois donner d’indications sur le terme d’erreur. Je cherche trois
nombres a− , a0 et a+ tels que l’expression suivante soit «aussi exacte que possible» :
f 0 (x) = a+ f (x + h) + a0 f (x) + a− f (x − h).
Je vais imposer trois conditions : la relation devra être vérifiée pour f = x0 , x1 , et x2 (les trois
premières puissances de x). Ceci s’écrit :
0 = a+ + a0 + a− , 1 = a+ (x + h) + a0 x + a− (x − h), 2x = a+ (x + h)2 + a0 x2 + a− (x − h)2 .
Ce système de trois équations linéaires à trois inconnues se résout facilement. Compte tenu de la
première équation, la deuxième s’écrit :
1/h = a+ + a0 − a− .
Tenant compte de deux premières, la dernière équation devient :
0 = a+ + a− .
D’où je tire facilement
a0 = 0,
a+ = −a− = 1/2h.
L’heureuse disparition de certains termes dans les équations précédentes ne doit rien au hasard.
Ces relations doivent être vérifiées quel que soit x : il faut donc que x ne figure pas dans le système
qui détermine les coefficients a. J’aurais donc pu partir d’une valeur particulièrement commode de
x, comme x = 0. Avec l’habitude, on peut gagner encore un peu de temps en posant h = 1 et en
restaurant h à la fin : f 0 a les dimensions de f /h.
Vous pourrez établir d’autres formules, en nombre limité uniquement par votre patience. Certaines impliqueront un grand nombre de valeurs de f , pour une erreur de troncation moindre,
d’autres pourront être dissymétriques, pour s’approcher sans danger d’une discontinuité : on peut,
par exemple, calculer f00 en fonction de f0 , f1 et f2 . Elles s’obtiennent par la méthode des coefficients indéterminés, par le théorème de Taylor ou à partir des différences latérales (voir plus
loin).
62
Chapitre 6. Dérivation et Intégration numériques
De façon analogue, j’obtiens une approximation de la dérivée seconde en appliquant deux fois
les règles précédentes. Ainsi :
f (x + h) − 2f (x) + f (x − h)
hf 00 (x) ∼
.
= f 0 (x) − f 0 (x − h) =
h
Le terme d’erreur s’obtient aisément à l’aide du théorème de McLaurin : il dépend de h2 f 000 .
Exemple. La dérivée seconde de ln x, au point 0.160, vaut, d’après les données précédentes, -40.
6.2.3
Polynôme d’interpolation
Il existe une autre méthode systématique pour construire des formules d’approximation de f 0 :
il suffit de dériver un polynôme d’interpolation de f . Je vous rappelle la formule de Newton impliquant les différences latérales :
P (x0 + hm) = f0 + m∆f0 +
m(m − 1) 2
∆ f0 + · · ·
2
dont la dérivée (par rapport à x = x0 + hm) est :
P 0 (x0 + hm) =
·
¸
1
1
∆f0 + (2m − 1)∆2 f0 + · · · .
h
2
Au point x0 (m = 0), je trouve :
P00 =
·
¸
1
1
∆f0 − ∆2 f0 + (1/3)∆3 f0 − · · · .
h
2
On peut obtenir les dérivées d’ordre supérieur par cette méthode et pas mal d’algèbre.
6.2.4
Accélération de la convergence
L’extrapolation de Richardson permet d’améliorer la précision d’une approximation en n’utilisant qu’une connaissance qualitative du terme d’erreur. Je commence par estimer la dérivée de f
avec un pas h :
2
∼ f (x + h) − f (x − h) + h f 000 (ξ1 ) ≡ f 0 + C1 h2 ,
f 0 (x) =
1
2h
3
puis avec un pas 2h :
f 0 (x) ∼
=
h2
f (x + 2h) − f (x − 2h)
+ 4 f 000 (ξ2 ) ≡ f20 + 4C2 h2 .
4h
3
À une certaine approximation, je peux considérer que C1 = C2 , si bien qu’en ajoutant 4 fois la
première équation à l’opposée de la seconde, j’obtiens :
f0 ∼
= (4f10 − f20 )/3 = f10 + (f10 − f20 )/3
apparemment sans terme d’erreur. En réalité, l’erreur de troncation n’ôa pas disparue, mais elle est
maintenant d’un ordre plus élevé (lequel ?). L’extrapolation de Richardson peut s’appliquer chaque
fois que l’on utilise une approximation dépendant d’un paramètre lequel tend de façon continue
vers zéro et à condition de connaître l’expression du terme principal de l’erreur.
63
6.3. Dérivée d’une fonction empirique
6.3
Dérivée d’une fonction empirique
Je peux avoir à calculer la dérivée d’une fonction définie par une table de valeurs, soit qu’elle
ait été calculée par quelqu’un d’autre, soit qu’elle résulte de mesures expérimentales. Les méthodes
précédentes se révèlent être malcommodes dans ce cas. D’une part, le pas h est maintenant imposé
et n’est pas forcément adapté au but que je poursuis. De plus, les entrées dans la table ne sont pas
forcément équidistantes. D’autre part (et là, je pense surtout à des résultats expérimentaux), les
inévitables erreurs de mesures vont être amplifiées par la division par h (qui est «petit»). Considérez en effet deux entrées successives prises dans une table de résultats expérimentaux :
variable indépendante
xk
xk+1
variable dépendante
yk + bk
yk+1 + bk+1
J’ai supposé que les valeurs de x étaient connues sans erreur, alors que les valeurs de y étaient
entachées d’une erreur aléatoire (un bruit) b. Une valeur approchée de la dérivée est alors :
yk+1 − yk
bk+1 − bk
y0 ∼
+
.
=
xk+1 − xk
xk+1 − xk
La première fraction est la dérivée cherchée ; sa valeur dépend peu de la différence xk+1 − xk (tant
que l’on respecte les contraintes exposées au début de ce chapitre). La deuxième fraction est une
fluctuation aléatoire d’autant plus grande que l’intervalle tabulaire est petit, tant que les valeurs
succesives de b ne sont pas corrélées.
Une première manière d’éviter ces difficultés consiste à construire un polynôme d’interpolation
s’appuyant sur les points x−m , x−m+1 , . . . , x0 , . . . , xm . En supposant que c’est f00 qui m’intéresse, je
n’ai plus qu’à dériver ce polynôme. Le polynôme de Lagrange ou la fonction spline, avec 2 à 4 pivots,
donnent de bons résultats. Une autre méthode consiste à construire un polynôme d’approximation
au sens des moindres carrés, puis à dériver cette expression. Pour des abscisses équidistantes, le
polynôme et ses dérivées ont des expressions simples (on parle souvent de polynômes de Golay).
C’est la méthode que je recommande.
6.4
Intégration numérique : généralités
Je regarde maintenant vers le calcul numérique d’intégrales (on dit aussi quadrature numérique).
Il importe de distinguer le cas de l’intégrale définie :
Z b
I=
f (x)dx
a
où je cherche un nombre I connaissant un intervalle [a, b] et la fonction f , de celui de l’intégrale
indéfinie :
Z x
J(x) =
f (x)dx
a
où je calcule en fait une suite de nombres, représentant la fonction J(x). Ce dernier cas est généralement abordé comme un problème différentiel :
J 0 = f (x); J(a) = 0.
et ceux-ci seront traités au chapitre suivant.
Je vais donc chercher à approcher numériquement une intégrale définie. Toutes les méthodes
que j’envisagerai peuvent s’écrire sous la forme la forme :
Z b
n
X
I=
f (x)dx =
Hj f (xj ) + E
a
1
64
Chapitre 6. Dérivation et Intégration numériques
où E est l’erreur de troncation, les xj des abscisses (pivots ou noeuds) et les Hj des «poids». Je
décrirai deux sortes d’algorithmes. Pour une première classe (Newton-Cotes), les pivots sont équidistants et les poids sont les seuls paramètres ajustables ; comme il y en a n, je pourrai satisfaire n
contraintes et rendre la méthode exacte pour un polynôme de degré n−1. Dans une deuxième classe
(Gauss), les pivots et les poids seront considérés comme ajustables ; le choix de ces 2n paramètres
nous permettra de rendre la méthode exacte pour un polynôme de degré 2n − 1. Évidemment, les
méthodes de Gauss sont plus performantes que celles de Newton-Cotes, puisqu’elles permettent
une précision plus grande pour un même temps de calcul, au pris d’une théorie plus compliquée et
d’une programmation un peu plus lourde.
6.5
Méthodes de Newton-Cotes
Comme je ne sais pas intégrer analytiquement la fonction f , je la remplace par un polynôme
d’interpolation dont l’intégration est banale. J’appelle h l’intervalle entre pivots. Les diverses méthodes de ce groupe se distinguent par le choix des pivots dans l’intervalle d’intégration, supposé
fini.
6.5.1
Intervalle fermé
Je vais calculer l’intégrale de f (x) sur le segment [a, b], divisé en n intervalles de taille h ; je
pose donc
h = (b − a)/n,
x0 = a,
xn = b,
xj = a + jh.
Le polynôme d’interpolation de Lagrange construit sur les pivots xj , 0 ≤ j ≤ n, s’écrit :
p(x) =
n
X
Lj (x)f (xj )
0
où Lj (x) représente un polynôme élémentaire de Lagrange. L’intégrale de p(x) est une approximation de I :
Z b
n
X
I=
f (x)dx ∼
Hj f j + E
=
a
0
Rb
où j’ai posé fj = f (xj ), Hj = a Lj (x)dx. Une démonstration trop longue pour être exposée
ici permet d’aboutir aux formules ci-dessous pour l’erreur de troncation. Elles proviennent de
l’intégrale du terme d’erreur de la formule de Lagrange. Celle-ci contient un facteur f(n+1) (ξ) ou
f(n+2) (ξ), où ξ est une fonction inconnue de x.
Z
f (n+1) (ξ) n
E=
u(u − 1)(u − 2) · · · (u − n)du, n impair,
(n + 1)! Z0
n
(n+2)
f
(ξ)
E=
u2 (u − 1)(u − 2) · · · (u − n)du, n pair.
(n + 2)! 0
Les «nombres de Cotes» Hj ont été calculés une fois pour toutes pour n ≤ 10. Les formules de
Newton-Cotes les plus courantes sont résumées ci-dessous, avec la notation : Hj = hAWj . C est le
coefficient de hk+1 f (k) dans le terme d’erreur, où k = n + 1 si n est impair et k = n + 2 si n est pair.
n
1
2
3
4
A
1/2
1/3
3/8
2/45
W0
1
1
1
7
W1
1
4
3
32
W2
1
3
12
W3
1
32
W4
7
C
-1/12
-1/90
-3/80
-8/945
65
trapèzes
Simpson
Simpson
Villarceau
6.5. Méthodes de Newton-Cotes
Ces formules se démontrent très facilement par la méthode des coefficients indéterminés, à
condition de ne pas demander l’expression de l’erreur. Je prends l’exemple de la première formule
de Simpson. Je cherche trois nombres W0 , W1 et W2 tels que :
Z
b
f (x)dx = W0 f (a) + W1 f (a + h) + W2 f (a + 2h)
a
où b = a + 2h. Cette relation doit être exacte pour f = x0 , x1 et x2 , ce qui conduit au système :

 2h = W0 + W1 + W2 ,
2ah + 2h2 = aW0 + (a + h)W1 + (a + 2h)W2 ,

(1/3)[6a2 h + 12ah2 + 8h3 ] = W0 a2 + W1 (a + h)2 + W2 (a + 2h)2 .
En substituant la première équation dans la seconde, puis les deux premières dans la troisième, je
trouve :

 2h = W0 + W1 + W2 ,
2h = W1 + 2W2 ,

(8/3)h = W1 + 4W2 .
système dont la solution est : W0 = W2 = h/3, W1 = 4h/3. Ici encore, j’aurais pu poser a = 0 dès
le début, puisque les coefficients doivent être indépendants de l’abscisse initiale.
6.5.2
Intervalles ouverts
Il peut arriver que la fonction à intégrer ne soit pas définie pour l’une des bornes de l’intervalle
d’intégration (ou pour les deux) ou qu’elle y présente une singularité quelconque. Il est alors
souhaitable de ne pas s’approcher «trop» de cette limite, ce qui est impossible avec le découpage
de l’intervalle d’intégration que j’ai choisi (x0 = a, xn = b). Il existe des formules de quadrature
dites «ouvertes» (parce qu’elles impliquent des intervalles ouverts) qui n’utilisent pas les valeurs
de la fonction aux bornes. Elles s’écrivent en général :
Z
b
I=
f (x)dx =
n−1
X
a
Hj f (xj ) + E
1
où les bornes x0 et xn ne figurent pas. La formule «ouvertes» la plus courante, que j’appellerai «formule du point milieu», par analogie avec le terme anglais, est définie (avec les notations
précédentes) par n = 2, A = 2 et W1 = 1, soit encore :
Z
a+2h
I=
f (x)dx = 2hf [(a + b)/2] + (h3 /24)f 00 (ξ).
a
6.5.3
Formules composées
Que faire si la précision d’une intégrale numérique me paraît insuffisante ? Une première possibilité consiste à choisir une formule d’intégration d’ordre plus élevé. Comme dans le cas de l’interpolation polynômiale, cette solution est à rejeter, et pour les mêmes raisons : lorsque l’ordre n devient
grand (quand le degré du polynôme que l’on intègre en lieu et place de la fonction devient grand),
le terme d’erreur peut avoir un comportement anarchique en fonction de ξ. La bonne méthode est
semblable à celle utilisée pour l’interpolation spline : découper l’intervalle d’intégration en plusieurs
«sous-intervalles» et utiliser une méthode d’ordre peu élevé dans chaque sous-intervalle. Comme la
borne droite du sous-intervalle de rang p coïncide avec la limite gauche du sous-intervalle de rang
p + 1, je vais économiser un certain nombre d’évaluations de la fonction.
66
Chapitre 6. Dérivation et Intégration numériques
Je divise par exemple l’intervalle global [a, b] en m sous intervalles et j’applique la méthode de
Newton «fermée» d’ordre un dans chaque sous-intervalle. Il vient :
Z
b
I=
f (x)dx = (h/2)[f0 + f1 + f1 + f2 + · · · + fm−2 + fm−1 + fm−1 + fm ].
a
J’aboutis ainsi à la formule composée (ou composite ou encore étendue) de Newton-Cotes d’ordre
1 (souvent appelée encore méthode des trapèzes) :
Z
b
I=
f (x) = h[f0 /2 + f1 + f2 + · · · + fm−2 + fm−1 + fm /2] + E
a
où tous les termes «intérieurs» ont doublé. L’application du théorème de la moyenne montrerait
que
E = −(h2 /12)(b − a)f 00 (ξ),
x0 ≤ ξ ≤ xm .
Dans la pratique, on programme ce calcul de façon itérative. Supposez que je connaisse I(m),
calculée avec m sous-intervalles, mais que la précision me paraisse encore insuffisante. Je calcule
alors I(2m) à partir de I(m) et des seules nouvelles valeurs de f , aux points intermédiaires,
d’abscisses (i + 1/2)h. Je recommence tant que le critère de convergence n’est pas atteint. Quel
critère d’arrêt vais-je choisir ? Ce peut être la condition que la variation relative de l’intégrale d’une
étape à l’autre est inférieure à un seuil choisi à l’avance : |[I(m + 1) − I(m)]/I(m)| ≤ ε.
On opère de la même manière avec les formules de Newton-Cotes «ouvertes». Cependant,
doubler le nombre d’intervalles n’apporte aucune économie, puisque ceux-ci ne comportent aucun
pivot commun. Je vous suggère de vérifier qu’il faut tripler le nombre d’intervalles à chaque itération
pour économiser des calculs. Il est possible de combiner une formule de Newton-Cotes ouverte avec
m − 1 formules fermées : ceci pourrait servir à éviter une région «dangereuse» autour de x = a.
Comme les termes d’erreur de toutes les méthode de Newton-Cotes sont connus, il est tentant
d’améliorer la précision d’une quadrature, sans trop d’effort, par l’extrapolation de Richardson.
En réalité, cela se fait rarement, car on connaît une généralisation puissante de l’extrapolation de
Richardson : c’est la méthode de Romberg que je vais décrire dans le paragraphe suivant.
Exemple. On demande de calculer l’intégrale de 1/x de 1 à 3 avec deux puis quatre sousintervalles, par la méthode des trapèzes. Je trouve :
·
¸
1
1
∼
m = 2 : I2 = (1) (1) + 1/2 + (1/3) = 7/6 = 1, 166666...;
2
2
m=4:
¸
·
1
1
I4 ∼
= (1/2) (1) + 2/3 + 1/2 + 2/5 + (1/3) = 67/60 = 1, 116666...
2
2
La formule de Richardson donne : I ∼
= I4 +(1/3)(I4 −I2 ) = 11/10 = 1, 1, soit une erreur relative
un peu supérieure à 1/1000.
6.6
Méthode de Romberg
J’utilise la notation Ik,0 = valeur approchée de I, calculée par la méthode des trapèzes en
utilisant m = 2k sous-intervalles. En utilisant une expression du terme d’erreur plus précise que
celle mentionnée (et non démontrée) au paragraphe précédent, je pourrais écrire
Ik,0 = I −
∞
X
·
αj
j=1
67
b−a
2k
¸2j
.
6.6. Méthode de Romberg
Si je répète le même calcul avec des intervalles deux fois plus nombreux et deux fois plus petits,
j’ai
·
¸2j
∞
X
b−a
Ik+1,0 = I −
αj k+1
.
2
j=1
Comme pour une extrapolation de Richardson, je forme :
¸2j
·
∞
X
£
¤
b−a
−1 + 4/22j .
Ik,1 = 4Ik+1,0 − Ik,0 = 3I −
αj
k
2
j=2
Je viens de gagner un ordre dans le développement de l’erreur en fonction des puissances de (b − a).
Le procédé se généralise aisément. Je construis un tableau triangulaire dont la première colonne
est formée des Ik,0 , la deuxième des Ik,1 et dont le terme général s’écrit :
4m Ik+1,m − Ik,m
.
4m − 1
Le gros du travail est effectué lors du calcul des Ik,0 , puisque c’est à ce moment-là que je calcule
la fonction compliquée f ; la suite n’est qu’une série de combinaison linéaires. Si k ≤ K, alors
le dernier élément de la diagonale principale, IK,K , est la meilleure approximation de I que l’on
puisse obtenir en évaluant 2K fois f .
J’ai écrit le programme présenté ci-dessous pour mettre en oeuvre l’algorithme de Romberg. Je
commence par remplir la première colonne d’un tableau J(l,c) par des valeurs calculées selon la
méthode des trapèzes. Vous pouvez constater qu’à chaque étape je ne calcule que les valeurs strictement nécessaires de la fonction. Je garnis ensuite les autres colonnes selon la formule de Romberg.
Ik,m+1 =
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
// romberg
function y = f n ( x )
y = exp ( x ) . ∗ cos ( x )
endfunction
lmax = 5 ;
a = 0 ; b = %p i ;
h = b − a;
J ( 1 ,1 ) = 0.5∗ h∗( fn ( a ) + fn (b ) ) ;
f o r l = 2 : lmax
h = h/2;
x = a+h : 2 ∗ h : b−h ;
d i = h∗sum( f n ( x ) )
J ( l , 1 ) = 0 . 5 ∗ J ( l −1) + d i ;
end
f o r c = 2 : lmax
f o r l = c : lmax
J ( l , c ) = ( ( 4 ^ ( c −1))∗ J ( l , c −1)−J ( l −1 , c −1))/(4^( c −1) −1);
end
end
J
Jex = −(exp(% p i )+1)/2
La valeur exacte est −(eπ + 1)/2 = −12.070346 ; voici les résultats obtenus :
-
34.778519
17.389259
13.336023
12.382162
12.148004
0.
- 11.59284
- 11.984944
- 12.064209
- 12.069951
0.
0.
- 12.011084
- 12.069493
- 12.070334
0.
0.
0.
- 12.07042
- 12.070347
68
0.
0.
0.
0.
- 12.070347
Chapitre 6. Dérivation et Intégration numériques
Au prix de quelques opérations arithmétiques, l’erreur finale est passée de 7 10−2 à 10−6 .
6.7
Intégration de Gauss
J’abandonne maintenant l’hypothèse que les pivots sont régulièrement répartis sur l’axe ; je
cherche au contraire à les répartir «au mieux» pour avoir un algorithme aussi exact que possible.
J’aurais toujours
Z b
n
X
f (x)dx =
I=
pj f (aj ) + E.
a
1
Ici, la méthode des coefficients indéterminés est assez malcommode ; lorsque j’impose que la formule
ci-dessus soit exacte pour x0 , x1 , . . . , xk , . . ., j’obtiens un système d’équations non-linéaires ( en aj )
dès que k > 1, système dont la solution est en général inaccessible.
Je vais plutôt utiliser un raisonnement indirect, à partir du polynôme d’interpolation de Hermite. La formule d’interpolation de Hermite s’écrit :
f (x) =
n
X
hj (x)f (aj ) +
1
n
X
h∗j (x)f 0 (aj ) + [π(x)]2
1
f 2n (ξ)
.
(2n)!
Le terme d’erreur disparaît si f est un polynôme de degré 2n − 1 au plus. J’intègre terme à terme
cette relation entre les abscisses a et b :
Z b
n
n
X
X
I=
f (x)dx =
Hj f (aj ) +
Hj∗ f 0 (aj ) + E
a
1
1
où Hj et Hj∗ sont respectivement les intégrales de hj (x) et de h∗j (x) entre les mêmes bornes. Cette
formule d’intégration est exacte pour tout polynôme de degré inférieur à 2n : c’est le mieux que je
puisse faire avec les 2n paramètres Hj , aj .
Pour obtenir la forme annoncée, il faut que les Hj∗ soient tous nuls. Comment parvenir à ce
résultat ? Les seuls paramètres dont je dispose sont les aj . Je dois donc choisir ces nombres de telle
manière que l’intégrale de h∗j soit nulle. Je vous rappelle la forme de ce polynôme (établie dans le
chapitre 2) : h∗j (x) = (x − aj )[Lj (x)]2 , si Lj est le polynôme élémentaire de Lagrange construit sur
les {aj }. En utilisant une fois la relation Lj = π(x)/((x − aj )π 0 (aj )), j’obtiens
Z b
Z b
Lj (x)
Hj∗ =
(x − aj )[Lj (x)]2 =
π(x) 0
dx.
π (aj )
a
a
Je veux que cette intégrale soit nulle ; autrement dit, je veux que les polynômes π(x) et Lj (x)
soient orthogonaux sur le segment [a, b] par rapport à la fonction de poids w ≡ 1.
Vous savez que π(x) (défini en 2.5) est le produit de tous les termes de la forme x − aj : π(x)
est défini (implicitement) par l’ensemble de ses zéros. Il doit être orthogonal aux Lj , polynômes
élémentaires de Lagrange pour n pivots, donc de degré n − 1. Plutôt que d’imposer cette condition
particulière, je vais imposer une condition plus générale : π devra être orthogonal à tout polynôme
de degré n − 1 ou inférieur. Je vous laisse le soin de démontrer la proposition réciproque et j’admets
que la condition nécessaire et suffisante pour que la formule de Gauss soit valable est que π(x) soit
orthogonal à tout polynôme de degré inférieur, pour une fonction de poids égale à l’unité, sur [a, b].
A quelques détails près, vous connaissez des polynômes répondant à cette définition : ce sont
les polynômes de Legendre. Pour que l’identification soit parfaite, il faut ramener l’intervalle d’intégration à [-1, 1] et, si l’on veut être très soigneux, normaliser correctement π(x). Le changement
de variable x = 12 (a + b) − 12 (a − b)t permet d’intégrer sur [-1,1] :
Z
I=
b
f (x)dx =
a
1
(b − a)
2
69
Z
1
f (t)dt.
−1
6.8. Généralisations
Si maintenant je choisis comme pivots aj les zéros du polynôme de Legendre de degré n,
π(x) coïncidera, à un facteur constant près, avec ce polynôme ; sur le segment [-1, 1] il sera donc
orthogonal à tout polynôme de degré inférieur, et en particulier aux Lj (x).
Il reste à calculer les poids, à partir de l’expression des hj (x). On montre assez facilement que
Z
1
Hk =
[Lk (x)]2 .
−1
d’où l’on déduit que
Z
1
Hk =
Lk (x)dx.
−1
Il existe des tables des arguments et des poids pour l’intégration de Gauss, pour n jusqu’à 128.
Pour éviter les erreurs de transcription, il vaut mieux écrire un sous-programme pour les recalculer.
Exemple. Je calcule la même intégrale qu’au paragraphe précédent, avec trois pivots. Les tables
donnent :
aj
0 ±0.774597
Hj 8/9
5/9
Le changement de variable y = x−2 transforme l’intervalle [1,3] en [-1,1] et l’intégrant en 1/(y +2).
Un calcul élémentaire donne alors I ∼
= 1.098039, pour une erreur relative un peu supérieure à
5.10−4 .
6.8
Généralisations
En choisissant un autre intervalle d’intégration et une autre fonction de poids, on peut construire
de nouvelles formules d’intégration de type gaussien. Je sais par exemple que les polynômes de
Laguerre sont orthogonaux sur [0, ∞ ] par rapport à la fonction de poids e−x . Je peux donc écrire :
Z
∞
e−x f (x)dx =
n
X
0
Wj f (aj ) + E,
1
où les aj sont les zéros du polynôme de Laguerre d’ordre n et les Wj des poids calculables facilement.
Chaque famille de polynômes orthogonaux donne ainsi naissance à une formule d’intégration.
Il ne faut pas s’empresser de conclure que l’on peut intégrer n’importe quelle fonction entre
zéro et l’infini, au prix du calcul des valeurs de f en quelques points. Par ailleurs, aucun algorithme
numérique ne pourra transformer une intégrale divergente en intégrale convergente. J’écris quelques
formules pour préciser la question.
Z ∞
Z ∞
Z ∞
−x x
g(x)dx =
e [e g(x)]dx =
e−x f (x)dx
0
0
0
x
où f = e g ; ces relations n’ont rien d’anormal, mais c’est lorsque je tenterai d’appliquer la formule
de Gauss-Laguerre à f que les problèmes apparaîtront. Si g ne décroît pas assez vite à l’infini, le
terme d’erreur, en f (2n) , deviendra rapidement intolérable.
Que faire si la précision sur l’intégrale obtenue par la méthode de Gauss est insuffisante ?
Il existe ici encore deux possibilités : utiliser une formule d’ordre supérieure ou employer une
méthode composée. Comme d’habitude, la première solution est à rejeter. La seconde est assez
simple à mettre en oeuvre. Je divise l’intervalle [a, b] en m sous-intervalles, [xm , xm+1 ]. Pour chaque
sous-intervalle, je fait un changement de variable qui ramène les bornes à -1,1 et j’emploie une
formule de Gauss d’ordre peu élevé. Comme aucun pivot ne coïncide avec les bords des intervalles,
on n’économise aucun calcul, à la différence des méthodes de Newton fermées. Cependant, la
précision est largement supérieure à ce que l’on obtient avec Newton-Cotes ; de plus, l’existence de
discontinuités en a ou b est peu gênante, puisque ces points ne sont pas des pivots.
70
Chapitre 6. Dérivation et Intégration numériques
6.9
Intégrales généralisées
Une intégrale généralisée est mathématiquement bien définie ; l’ennui, c’est que l’ordinateur ne
le sait pas. Par exemple, le calcul analytique de
Z ∞
xn e−x dx
J=
0
est facile, mais, par définition, un algorithme comporte un nombre fini d’opérations. Comment
alors intégrer numériquement jusqu’à +∞ ? Vous connaissez une réponse dans ce cas particulier :
on peut employer la méthode de Gauss-Laguerre.
Pour un intégrant quelconque, je peux calculer certaines intégrales généralisées en faisant un
changement de variable astucieux. Si a > 0, je peux écrire :
Z
Z
∞
1/a
f (x)dx =
a
0
1 1
f ( )dt.
t2 t
Un changement de variable analogue est valable pour a < 0.
Il peut aussi arriver qu’un même changement de variable soit malcommode sur l’ensemble de
l’intervalle d’intégration : il faut alors couper celui-ci en deux ou plusieurs morceaux.
Je suppose maintenant que f (x) est équivalente à (x − a)−1/2 pour x proche de a (a < b). Un
nouveau changement de variable fera disparaître cette singularité intégrable :
Z
√
Z
b
b−a
f (x)dx =
a
6.10
2tf (a + t2 )dt.
0
Intégrales multiples
J’examine, pour fixer les idées, le cas d’une intégrale double ; je cherche l’intégrale de f (x, y)
dans un domaine D. Les valeurs extrêmes de x dans D sont x1 et x2 ; pour une valeur donnée de x,
les valeurs extrêmes de y sont y1 (x) et y2 (x). J’intègre d’abord par rapport à y, puis par rapport
àx:
Z Z
Z
Z
x2
J=
f (x, y)dxdy =
y2 (x)
dx
x1
f (x, y)dy
y1 (x)
Ayant fait le choix d’une méthode numérique pour calculer l’intégrale en y, je peux programmer
une fonction dont la valeur sera :
Z y2
I(x) =
f (x, y)dy
y1
où les bornes y1 et y2 dépendent de x. Je suis maintenant capable de calculer l’intégrale de I(x) :
Z x2
J=
I(x)dx
x1
On remarque que la suite logique des opérations dans l’ordinateur est l’inverse de celle qui vient
d’être décrite. Le programme d’intégration en x «choisit» les pivots dont il a besoin ; pour chaque
pivot, il appelle I(x), qui «décide» pour son propre compte des valeurs de y à utiliser. L’ensemble
est en général plus précis que le calcul a priori de f (x, y) sur un quadrillage régulier de points, suivi
d’intégrations. Dernière remarque : si l’on utilise un sous-programme d’intégration («trapèze» par
exemple), qui sera appelé aussi bien pour calculer I(x) que J, il faut prendre garde à ne pas laisser
croire au programme que l’on utilise une procédure récursive, s’appelant elle-même.
71
Chapitre 7
Problèmes différentiels à conditions
initiales
7.1
Introduction
Beaucoup de phénomènes physiques ou chimiques se traduisent mathématiquement par une ou
plusieurs équations différentielles. D’autre part, les cours de mathématiques sont riches de méthodes
analytiques de résolution des équations différentielles : on pourrait croire que l’analyse numérique
est inutile dans cette partie des mathématiques. La réalité est tout autre : seule une infime minorité
des équations différentielles est analytiquement soluble, particulièrement les équations linéaires. A
mesure que l’on s’écarte des problèmes scolaires pour s’approcher des questions réelles, les équations
différentielles deviennent «de moins en moins» linéaires et de moins en moins solubles. Exemple :
le pendule simple dont le mouvement est décrit, en l’absence de frottement par l’équation exacte :
y 00 + k 2 sin y = 0.
Dans le domaine des équations différentielles, on distingue deux types de problèmes bien différents.
Les problèmes à condition(s) initiale(s) (ou « de Cauchy »), dont un exemple s’écrit :
y 0 = f (x, y) ;
y(a) = Ya
;
x ≥ a,
(7.1)
et les problèmes aux limites, comme par exemple :
y” = g(x, y, y 0 ) ;
y(a) = A ;
y(b) = B
;
a ≤ x ≤ b.
Dans ce chapitre, je ne considère que la première catégorie, les problèmes à condition(s) initiale(s),
que l’on rencontre aussi bien en mécanique qu’en cinétique chimique.
Il est aussi important de bien faire la différence entre équation différentielle et problème différentiel. La première admet diverses solutions, dépendant de paramètres qui sont les conditions
initiales ; on peut parfois la déterminer analytiquement, mais jamais numériquement. Le second
a une seule solution et c’est l’objet de ce chapitre que d’expliquer comment on peut la calculer
numériquement.
Toutes les méthodes de résolution numérique des problèmes différentiels utilisent une discrétisation. Ayant fait choix d’un pas h, on va calculer la solution y pour les valeurs kh de la variable
indépendante, yk = y(kh) et y0 = y(a). Les divers algorithmes se distinguent par les informations
qu’ils utilisent pour calculer yk : certains emploient yk−1 uniquement (on parle de méthode à pas
séparés), d’autres utilisent un certain nombre de valeurs précédentes de y, dont yk−1 (ce sont les
méthodes à pas liés ou à pas multiples).
72
Chapitre 7. Problèmes différentiels à conditions initiales
Je supposerai presque toujours que l’équation différentielle à résoudre est du premier ordre et
qu’elle est résolue en y 0 ; en général, j’appelle x la variable indépendante. Il arrive que l’équation
différentielle ne soit pas résoluble en y 0 : on parle alors de problème algébrodifférentiel, dont l’étude
sort du cadre de ce cours. L’hypothèse d’un problème du premier ordre peut paraître fort éloignée
de la réalité ; c’est tout à fait vrai, mais ce n’est pas trop grave, comme vous allez le voir. Toute
équation différentielle d’ordre supérieur à un peut s’écrire comme un système différentiel d’ordre
un. Soit par exemple l’équation du second ordre :
y” = g(x, y, y 0 ).
(7.2)
J’introduis la variable auxiliaire z = y 0 ; je peux maintenant écrire l’équation précédente sous la
forme équivalente
½ 0
z = g(x, y, z),
(7.3)
y 0 = z.
Je suis maintenant confronté à un système d’équations différentielles (ou système différentiel)
du premier ordre. Plus généralement, un système différentiel du premier ordre à deux fonctions
inconnues s’écrit :
½ 0
z = g(x, y, z),
(7.4)
y 0 = h(x, y, z).
Dans le cas précédent, la fonction h se réduisait à la variable z. Si j’introduis deux vecteurs :
r = {y, z} et s = {h, g}, le système ci-dessus prend la forme :
r0 = s(x, r).
(7.5)
Cette écriture est commode car elle permet d’obtenir sans peine un algorithme de résolution d’un
système différentiel : il suffit de transposer en notation vectorielle l’algorithme valable pour une
équation différentielle (du premier ordre). Les ouvrages classiques d’analyse numérique développent
largement les théories relatives à la résolution des problèmes différentiels à une fonction inconnue,
mais sont discrets quant aux systèmes différentiels ; je suivrai cet exemple et j’admettrai que les
algorithmes développés pour une fonction inconnue sont encore valables pour plusieurs fonctions.
Avant d’aborder les algorithmes purement numériques, je passe en revue quelques méthodes
analytiques qui peuvent servir à des calculs numériques.
7.2
7.2.1
Méthodes analytiques
Développement de Taylor
Je cherche la solution du problème différentiel classique y 0 = f (x, y), y(a) = ya . Le théorème
de Taylor offre, au moins en principe, une solution
1
1
y(x) = y(a) + (x − a)y 0 (a) + (x − a)2 y”(a) + (x − a)3 y 000 (a) + ....
2
6
Je connais y(a) (condition initiale), y 0 (a) (par substitution dans l’équation différentielle), y”(a) et
toutes les dérivées d’ordre supérieur (par dérivation et substitution dans l’équation différentielle !).
Ainsi :
(7.6)
y 00 = [f (x, y)]0 = fx + f fy ,
où fx , fy représentent les dérivées partielles de f par rapport aux variables indiquées. Ensuite :
y 000 = fxx + 2f fxy + f 2 fyy + fx fy + f fy2 .
La méthode est simple mais devient rapidement laborieuse. De plus, j’ai montré (chapitre 1, Calcul et tracé de fonctions) que le développement de Taylor pouvait converger très lentement. En
conséquence, cette méthode ne s’emploie que «localement» : pour calculer yn+1 à partir de yn ou
pour calculer, à l’aide des conditions initiales, les premières valeurs de y dont certains algorithmes
ont besoin pour démarrer et calculer la suite des yk .
73
7.3. Méthode d’Euler et méthodes de Taylor
7.2.2
Méthode des coefficients indéterminés (Frobenius)
Je fais l’hypothèse que y peut s’écrire :
y = c0 + c1 x + c2 x2 + c3 x3 + · · ·
et donc que :
y 0 = c1 + 2c2 x + 3c3 x2 + · · ·
En substituant ces développements dans l’équation différentielle, j’obtiens des relations entre coefficients ci , que je résous de proche en proche, à partir de c0 = ya . Ayant un certain nombre
de coefficients, il est simple de calculer y, à une certaine précision. Cette méthode est aussi assez
laborieuse.
7.2.3
Méthode de Picard, ou d’approximations successives
Je me propose toujours de résoudre le problème de Cauchy (7.1). J’intègre les deux membres
de l’équation différentielle, entre a et x (en renommant u la variable indépendante) :
Z x
Z x
y 0 du = y(x) − y(a) =
f (u, y)du
a
a
Je ne sais bien sûr pas calculer l’intégrale du second membre (ce qui reviendrait à savoir résoudre
l’équation différentielle), aussi vais-je procéder à une approximation brutale : je remplace y par
une «approximation d’ordre zéro», y [0] , que je prends égale à ya ; l’intégrale est alors calculable en
principe ; le résultat me donne l’approximation suivante de y, soit y [1] :
Z x
[1]
y = y(a) +
f (u, y [0] )du
a
J’itère ce procédé, jusqu’à ce qu’un critère de convergence convenable soit atteint :
Z x
[n]
y = y(a) +
f (u, y [n−1] )du.
a
Cette méthode est peut-être encore plus lente que les précédentes !
Depuis quelques années, on trouve dans le commerce des programmes de manipulation algébrique (DERIVE, MAPLE, MATHEMATICA, MACSYMA, MUPAD, etc.) fonctionnant sur
microordinateurs et capables de faire seuls les calculs algébriques des trois méthodes précédentes.
Il est à prévoir que ces algorithmes vont connaître de ce fait une nouvelle jeunesse.
J’aborde maintenant les méthodes véritablement orientées vers l’analyse numérique, en commençant par un cas d’école.
7.3
7.3.1
Méthode d’Euler et méthodes de Taylor
Algorithme d’Euler
La méthode d’Euler n’est jamais employée en pratique (sauf peut-être comme constituant d’une
méthode de résolution d’équations aux dérivées partielles), mais c’est un excellent exemple introductif, généralisable dans plusieurs directions intéressantes. L’algorithme proposé par Euler pour
résoudre (7.1) s’écrit :
yn+1 = yn + hf (xn , yn ) = yn + hfn .
(7.7)
Je peux donner trois interprétations de cette formule.
* Approximation de la dérivée. La dérivée de y au point xn est à peu près yn0 ' (yn+1 − yn )/h ;
en écrivant qu’elle vaut fn , je retrouve la méthode d’Euler.
74
Chapitre 7. Problèmes différentiels à conditions initiales
* Approximation d’une intégrale. J’intègre les deux membres de l’équation (7.1) :
Z xn+1
f [t, , y(t)]dt
y(xn+1 ) − y(xn ) = yn+1 − yn =
xn
Je remplace l’intégrale du second membre par son approximation la plus simple, l’aire d’un rectangle
de base h et de hauteur fn , ce qui donne :
yn+1 − yn = hfn .
* Développement de Taylor. Supposant connu yn , je peux déterminer yn+1 à l’aide du théorème
de Taylor :
y(xn + h) = y(xn ) + hyn0 + O(h2 ).
En négligeant le terme d’erreur et en identifiant y 0 et f , je retrouve la formule d’Euler.
Je termine par un résumé des caractéristiques de la méthode d’Euler. Pour calculer yn+1 ,
j’utilise la valeur de yn et pas celles de yn−1 , yn−2 , ... Il s’agit donc d’une méthode à pas séparés.
Pour passer de yn à yn+1 , je ne calcule f qu’une fois (Les méthodes de Runge-Kutta qui seront
exposées plus loin utilisent plusieurs valeurs de f pour améliorer la précision sur y 0 ). L’algorithme
ne fait appel qu’à f = y 0 et pas à ses dérivées d’ordre supérieur (Certains algorithmes s’appuient
sur un développement de Taylor, et donc sur y [n] , qui dépend des dérivées de f ).
La programmation de l’algorithme d’Euler est des plus simples. Voici une ébauche de programme.
Lire h, x0 , y0 , xmax
Initialiser x à x0 , y à y0
Tant que x < xmax faire :
calculer f = f(x,y)
y := y + hf
x := x + h
imprimer x, y
La généralisation à un système différentiel est immédiate, en principe. La fonction inconnue, sa
valeur initiale et le second membre sont maintenant remplacés par des vecteurs de <n :
Lire h, x0 , xmax , y0
Initialiser x à x0 , y à y0
Tant que x < xmax faire :
calculer :
f = f (x, , y)
y := y + hf
x := x + h
imprimer x, y
Il faut traiter sur un pied d’égalité toutes les coordonnées de chaque vecteur.
Exemple
Le programme ci-dessous résout, par la méthode d’Euler, l’équation différentielle du pendule
simple : y” + sin y = 0. Comme j’ai posé y 0 = z, je résous en fait le système du premier ordre
équivalent
y 0 = z,
z 0 = − sin y.
75
7.3. Méthode d’Euler et méthodes de Taylor
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
// mouvement du p e n d u l e par E u l e r
function F = smy ( t , y , z )
F = z;
endfunction
function F = smz ( t , y , z )
F = −sin ( y ) ;
endfunction
function [ yf , z f , t f ] = e u l e r ( h , t i , y i , z i )
y f = y i + h∗smy ( t i , y i , z i ) ; z f = z i + h∗smz ( t i , y i , z i ) ;
tf = ti + h;
endfunction
np = 6 0 0 ;
t = zeros ( np , 1 ) ;
y = zeros ( t ) ; z = zeros ( t ) ;
y0 = input ( ’ p o s i t i o n i n i t i a l e : ’ ) ;
z0 = input ( ’ v i t e s s e i n i t i a l e : ’ ) ;
pas = input ( ’ l o n g u e u r du pas : ’ ) ;
t ( 1 ) = 0 ; y ( 1 ) = y0 ; z ( 1 ) = z0 ;
f o r i = 2 : np do
[ y ( i ) , z ( i ) , t ( i ) ] = e u l e r ( pas , t ( i −1) , y ( i −1) , z ( i − 1 ) ) ;
end
plot2d ( t , y )
Les deux seconds membres apparaissent dans le programme sous forme de function smy, function smz ;
la function euler calcule la solution en tf=ti+pas. Ces trois sous-programmes sont inutilement
compliqués : ils contiennent par exemple la variable indépendante (t), sans objet ici, mais ils
peuvent s’adapter facilement au cas d’un pendule soumis à un couple dépendant du temps. Vous
pouvez vérifier que yf,zf sont calculés indépendamment l’un de l’autre, avant incrémentation du
temps.Le programme principal ne fait que lire les paramètres et appeler euler à chaque tour dans
la boucle.
0.4
"D:/an/an_poly-6/pdl_eul.dta"
0.3
0.2
0.1
0
-0.1
-0.2
-0.3
-0.4
-0.5
0
5
10
15
20
25
30
Fig. 7.1 – : Mouvement du pendule simple obtenu par l’algorithme d’Euler. Le pas était de 0,05.
76
Chapitre 7. Problèmes différentiels à conditions initiales
La figure montre le résultat de l’exécution. Comme vous pouvez le constater, la qualité de la
méthode laisse à désirer : l’amplitude augmente nettement avec le temps.
Remarque sur la programmation sous Scilab
Scilab n’est pas un langage de programmation très structuré ; en particulier, il n’est pas nécessaire de déclarer les variables avant de les utiliser. Cependant, on gagne un peu de temps à
l’exécution si l’on déclare à l’avance les tableaux, avec leurs dimensions. Si on ne le fait pas, Scilab
agrandit les tableaux chaque fois que nécessaire.
7.3.2
Méthodes de Taylor
Comme je l’ai indiqué au §2.1, la méthode d’Euler peut être considérée comme une application, à l’ordre 1, du développement de Taylor. J’ai aussi montré comment l’on pouvait utiliser un
développement d’ordre supérieur ((7.6). Je rappelle qu’il faut calculer, jusqu’à l’ordre souhaité, les
dérivées de y, par les relations de récurrence :
y 0 = f (x, y) ;
y” = fx (x, y) + fy (x, y)f ≡ f (1) ,
f (k) = fx(k−1) + fy(k−1) f,
puis déduire yi+1 par :
yi+1
·
¸
hp−1 (p−1)
= yi + h f (xi , yi ) + . . . +
f
(xi , yi )
p!
Cet algorithme n’est intéressant que si les f (k) se calculent facilement.
7.3.3
Erreurs, précision, stabilité
Je n’ai pas la prétention de construire la solution exacte du problème différentiel grâce à l’algorithme d’Euler ; le résultat du calcul pratique, soit yn , est en réalité entaché d’erreurs dont il faut
bien comprendre la nature.
Je suppose d’abord que je peux calculer avec un très grand nombre de chiffres significatifs. Le
résultat yn ne serait pas pour autant exact : il a en effet été obtenu à l’aide d’une approximation.
A l’aide de l’une des interprétations données ci-dessus de l’algorithme d’Euler, je pourrais borner
l’erreur commise en passant de yk à yk+1 (erreur locale de troncation), puis estimer l’erreur de
troncation globale qui sépare yn de la solution exacte évaluée en xn :
tn = yn − y(xn ).
J’imagine maintenant que je dispose d’un algorithme exact capable de calculer yn sans erreur de
troncation. Le résultat a cependant été obtenu par une succession d’opérations arithmétiques, sur
une machine comportant un nombre limité de chiffres significatifs : il présente donc une certaine
erreur d’arrondi :
en = yn − y(xn ).
En pratique, les deux sources d’erreur coexistent. Nous ne développerons pas ici l’étude des erreurs.
Le problème traité fournit parfois lui-même le moyen de contrôler la qualité de l’algorithme.
C’est le cas en particulier pour les problèmes de mécanique sans frottement, pour lesquels l’énergie
est conservée. Il suffit alors de calculer périodiquement l’énergie du système : si la variation d’énergie
dépasse le seuil prévu, on rejette les dernières itérations et on reprend le calcul avec un pas plus
petit.
77
7.4. Méthodes de Runge-Kutta
Une autre propriété importante d’un algorithme de résolution d’équations différentielles est la
stabilité. Dans le cas de l’algorithme d’Euler, il est facile d’apprécier la stabilité en étudiant un
«problème modèle». Je considère le problème différentiel :
y 0 = y; y(0) = 1.
Ici, f ≡ y et l’algorithme d’Euler s’énonce :
yn+1 = yn + hyn = (1 + h)yn .
Il s’agit d’une relation de récurrence (on dit aussi une équation aux différences) pour yn+1 . Comme
y0 = 1, je trouve :
yn = (1 + h)n .
Vous voyez que yn croit indéfiniment pour tout h > 0 : on dit qu’il n’y a pas stabilité «absolue».
Par contre, l’algorithme est «relativement stable», c’est à dire que yn /y → 1 pour h → 0. Pour le
montrer, il suffit de remarquer que x = nh et donc que :
yn = [(1 + h)1/h ]x → ex .
Si c < 0, on a encore yn → e−|c|x . Il y a toujours stabilité relative. Mais yn ne sera uniformément
décroissant (comme la solution exacte) que si |1+hc| < 1. Comme c = −|c|, cela implique h < 2/|c|.
7.4
Méthodes de Runge-Kutta
Les méthodes que nous allons décrire dans ce paragraphe peuvent être considérées comme des
généralisations de celle d’Euler, où l’on calcule f (le second membre) plusieurs fois par pas, pour
réduire l’erreur de troncation. Ce sont aussi probablement les méthodes les plus employées dans la
pratique. Nous exposerons la théorie pour une méthode d’ordre 2, bien que les applications fassent
généralement appel à des méthodes d’ordre 4 ou plus.
7.4.1
Méthodes d’ordre 2
Je cherche toujours la solution du problème représenté par (7.1) en supposant connue la solution
numérique approchée yn au point xn = x0 + nh. Pour cela, je vais construire une « fonction
incrément » Φ(xn , yn , h) telle que :
yn+1 − yn = hΦ(xn , yn , h).
Cette fonction dépend aussi du second membre f . Soit d’autre part la solution exacte z(t) du
problème différentiel :
z 0 (t) = f [t, z(t)] ; z(x) = y.
En termes imagés, z(t) est la solution de l’équation différentielle «qui passe par le point de coordonnées x et y» ; x et y sont ici considérés comme arbitraires mais constants. L’incrément exact
est défini par :
z(x + h) − z(x) = h∆(x, y, h).
La quantité τ (x, y, h) = ∆(x, y, h) − Φ(x, y, h) est une indication de la qualité de l’approximation,
c’est l’erreur locale de troncation de la méthode. Je souhaite bien sûr que τ tende vers 0 avec h,
ce qui est équivalent à la condition :
lim Φ(x, y, h) = f (x, y)
h→0
On dit que la méthode est cohérente si cette condition est vérifiée dans tout le domaine de variation
de x. De plus, on dit que la méthode est d’ordre p si τ (x, y, h) = O(hp ).
78
Chapitre 7. Problèmes différentiels à conditions initiales
Je vais chercher, dans le cas d’une méthode d’ordre 2, une expression de Φ qui coïncide avec
∆ jusqu’aux termes en h2 compris. Je suppose (comme l’on fait Runge et Kutta il y a presque un
siècle) que Φ est de la forme :
Φ(x, y, h) = a1 f (x, y) + a2 f [x + p1 h, y + p2 hf (x, y)]
où les quantités a1 , a2 , p1 et p2 sont des constantes à déterminer. Il me suffit d’imposer que le
développement de Taylor de Φ, à l’ordre 2 en h, coïncide avec celui de ∆ au même ordre. Ils
s’écrivent
1
∆ = f (x, y) + h(fx + f fy ) + O(h2 ),
2
Φ
= (a1 + a2 )f + ha2 p1 fx + ha2 p2 f fy + O(h2 ).
D’où trois conditions à remplir :

 a1 + a2 = 1,
a2 p1 = 1/2,

a2 p2 = 1/2.
Je dispose de quatre paramètres inconnus ; il est d’usage de conserver un paramètre libre et de
déterminer les trois autres à l’aide des relations ci-dessus ; la dernière quantité sera ajustée après
pour obtenir une propriété désirable de l’algorithme (bonne stabilité, erreur d’arrondi faible....).
Je choisis de conserver a2 , rebaptisé α pour la circonstance :

 a1 = 1 − α,
a2 = α,

p1 = p2 = α2 .
J’obtiens ainsi une méthode de Runge-Kutta d’ordre 2 caractérisée par la fonction incrément :
Φ(x, y, h) = (1 − α)f (x, y) + αf [x +
h
h
,y +
f (x, y)].
2α
2α
Parmi toutes les valeurs possibles de α, deux cas sont restés dans l’histoire : α = 1/2 (on parle
alors de méthode de Heun ou d’Euler améliorée) et α = 1 (méthode d’Euler modifiée). Vous vérifiez
facilement que ces algorithmes s’écrivent :
α = 1/2 ;
1
yn+1 = yn + hf (xn , yn ) + f [xn + h, yn + hf (xn , yn )]
2
et
α=1
7.4.2
;
1
yn+1 = yn + hf [xn + h/2, yn + hf (xn , yn )].
2
(7.8)
(7.9)
Exemple.
Je reprends le problème du pendule simple. Il me suffit de remplacer, dans le programme
précédent, la «function euler» par une «function rk2».
1
2
3
4
5
6
7
8
9
10
// mouvement du p e n d u l e par RK−2
function F = smy ( t , y , z )
F = z;
endfunction
function F = smz ( t , y , z )
F = −sin ( y ) ;
endfunction
function [ yf , z f , t f ] = rk2 ( h , t i , y i , z i )
y f = y i + 0 . 5 ∗ h ∗ ( smy ( t i , y i , z i )+smy ( t i+h , y i+h∗smy ( t i , y i , z i ) , z i+h∗smz ( t i , y i , z i ) ) ) ;
z f = z i + 0 . 5 ∗ h ∗ ( smz ( t i , y i , z i )+smz ( t i+h , y i+h∗smy ( t i , y i , z i ) , z i+h∗smz ( t i , y i , z i ) ) ) ;
79
7.4. Méthodes de Runge-Kutta
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
tf = ti + h;
endfunction
np = 6 0 0 ;
t = zeros ( np , 1 ) ;
y = zeros ( t ) ; z = zeros ( t ) ;
y0 = input ( ’ p o s i t i o n i n i t i a l e : ’ ) ;
z0 = input ( ’ v i t e s s e i n i t i a l e : ’ ) ;
pas = input ( ’ l o n g u e u r du pas : ’ ) ;
t ( 1 ) = 0 ; y ( 1 ) = y0 ; z ( 1 ) = z0 ;
f o r i = 2 : np do
[ y ( i ) , z ( i ) , t ( i ) ] = rk2 ( pas , t ( i −1) , y ( i −1) , z ( i − 1 ) ) ;
end
xset ( "window" , 0 )
plot2d ( t , y )
xset ( "window" , 1 )
plot2d ( y , z )
ep = 1−cos ( y ) ;
ec = 0.5∗ z . ∗ z ;
xset ( "window" , 2 )
plot2d ( t , [ ep , ec , ( ep+ec−ep (1) − e c ( 1 ) ) ∗ 1 0 0 0 ] )
Il est clair que ce sous-programme est encore inutilement compliqué. Sachant que smy ≡ y, je
pourrais écrire
smy(ti + h, yi + h ∗ smy(ti, yi, zi), zi + h ∗ smz(ti, yi, zi)) = yi + hyi = yi(1 + h)
On évite pourtant des erreurs en partant de la forme générale que l’on simplifie ensuite. La figure
2 montre la loi du mouvement produite par cet algorithme. Vous pouvez constater que, cette
fois, l’amplitude reste constante, malgré une valeur initiale très grande (presqu’égale à π). Dans
ces conditions, le pendule est un système mécanique non-linéaire, dont le mouvement n’est plus
sinusoïdal ni isochrone. J’ai ajouté à la fin du programme une représentation du mouvement dans
le plan de phase (y, z, fenêtre 1) et un graphique des énergies (fenêtre 2).
4
’c:/an_poly-6/pdl_rk2.dta’
3
2
1
0
-1
-2
-3
-4
0
10
20
30
40
50
60
70
80
Fig. 7.2 – : Mouvement du pendule calculé par la méthode RK2. Le pas était de 0,05.
80
Chapitre 7. Problèmes différentiels à conditions initiales
7.5
Méthode d’ordre 4
Je ne vais pas établir ici les formules de Runge-Kutta d’ordre 3 ou 4 ou plus : en effet, la
longueur des calculs croît très rapidement avec n. La méthode d’ordre 4 est la plus connue ; elle
s’écrit
yn+1 = yn +
h
(k1 + 2k2 + 2k3 + k4 ),
6
(7.10)
avec :
h
hk1
k2 = f (xn + , yn +
),
2
2
k1 = f (xn , yn ),
h
hk2
k3 = f (xn + , yn +
),
2
2
k4 = f (xn + h, yn + hk3 ).
Remarque : Certains auteurs incorporent le facteur h dans la définition des ki , ce qui le fait
disparaître des arguments de la fonction f .
7.5.1
Exemple
Je traite à nouveau le pendule, en remplaçant function rk2 par function rk4, selon le listing
ci-dessous
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
// mouvement du p e n d u l e par RK−4
function F = smy ( t , y , z )
F = z;
endfunction
function F = smz ( t , y , z )
F = −sin ( y ) ;
endfunction
function [ yf , z f , t f ] = rk4 ( h , t i , y i , z i )
k1y = smy ( t i , y i , z i ) ;
k1z = smz ( t i , y i , z i ) ;
k2y = smy ( t i+h / 2 , y i+h∗ k1y / 2 , z i+h∗ k1z / 2 ) ;
k2z = smz ( t i+h / 2 , y i+h∗ k1y / 2 , z i+h∗ k1z / 2 ) ;
k3y = smy ( t i+h / 2 , y i+h∗ k2y / 2 , z i+h∗ k2z / 2 ) ;
k3z = smz ( t i+h / 2 , y i+h∗ k2y / 2 , z i+h∗ k2z / 2 ) ;
k4y = smy ( t i+h , y i+h∗ k3y , z i+h∗ k3z ) ;
k4z = smz ( t i+h , y i+h∗ k3y , z i+h∗ k3z ) ;
y f = y i + ( h / 6 ) ∗ ( k1y + 2∗ k2y + 2∗ k3y + k4y ) ;
z f = z i + ( h / 6 ) ∗ ( k1z + 2∗ k2z + 2∗ k3z + k4z ) ;
t f = t i+h ;
endfunction
np = 6 0 0 ;
t = zeros ( np , 1 ) ;
y = zeros ( t ) ; z = zeros ( t ) ;
y0 = input ( ’ p o s i t i o n i n i t i a l e : ’ ) ;
z0 = input ( ’ v i t e s s e i n i t i a l e : ’ ) ;
pas = input ( ’ l o n g u e u r du pas : ’ ) ;
t ( 1 ) = 0 ; y ( 1 ) = y0 ; z ( 1 ) = z0 ;
f o r i = 2 : np do
[ y ( i ) , z ( i ) , t ( i ) ] = rk4 ( pas , t ( i −1) , y ( i −1) , z ( i − 1 ) ) ;
end
plot2d ( t , y )
81
7.6. Algorithme de prédiction-correction
On peut fait les mêmes remarques qu’au paragraphe 7.4 à propos des simplifications possibles de
la fonction smy.
L’espace mémoire disponible avec Scilab est en général confortable, nettement plus grand que
l’espace utilisable sous Pascal. On peut aussi l’augmenter, si la valeur par défaut est trop faible
(fonction stacksize). Si je programmais en Pascal ou en C, j’éviterais de définir des tableaux
t,y,z. J’écrirais au contraire tous les résultats intermédiaires dans un fichier sur disque.
7.5.2
Avantages et inconvénients de méthodes de Runge-Kutta
La méthode RK4 se distingue par sa simplicité de mise en oeuvre ; je la recommande d’ailleurs
pour tous les problèmes courants. Elle ne requiert que quatre évaluations de f par pas. On peut
améliorerP
aisément la précision des calculs (si le langage et le compilateur le permettent) en calculant Φ =
aj kj en double précision, car c’est là que se produisent la plupart des erreurs d’arrondi.
L’algorithme de Runge-Kutta souffre de deux inconvénients liés. On ne dispose d’aucune indication sur l’erreur de troncation en cours de calcul. D’autre part, il y a des problèmes de stabilité
dès que le second membre est grand ou rapidement variable. Une méthode simple (mais coûteuse)
de surveillance de la précision consiste à conduire deux calculs simultanément, l’un avec le pas h,
l’autre avec le pas h/2. Tant que la distance entre les deux résultats reste inférieure à un certain
seuil, on admet que le résultat est valable. Si le seuil est franchi, il faut rejeter la (ou les) dernière(s)
valeur(s) calculée(s) et repartir avec un pas plus petit.
Il existe des algorithmes plus raffinés (qui portent les noms de Runge-Kutta-Fehlberg ou méthodes de Runge-Kutta emboîtées). Dans ce type de méthode, on calcule, par exemple, six fois f
par pas ; on combinant «bien» les résultats, on obtient une estimation précise de yn+1 ; une autre
combinaison des mêmes valeurs fournit une estimation de l’erreur. La seule difficulté réside dans
la forme compliquée des coefficients qui remplacent les aj et bj , mais l’ordinateur n’en a cure.
7.5.3
Organisation d’un programme
Il est commode de construire le programme de résolution sous une forme bien hiérarchisée, qui
permette de changer commodément d’algorithme et d’équation. Le sous-programme de niveau le
plus bas fait avancer la solution de xn à xn+1 ; c’est lui qui renferme les détails de l’algorithme. Ce
«noyau» de niveau zéro est englobé dans un sous-programme qui gère la surveillance de l’erreur
(quand elle existe). Avec un pas h, on calcule yn+1 et une estimation τn+1 de l’erreur locale de
troncation ; si celle-ci est inférieure au seuil, le pas est accepté ; sinon, on rejette le dernier résultat,
on diminue le pas et on recommence. Cet ensemble est à son tour inclus dans un sous-programme
qui conduit l’intégration de xmin à xmax et prend en charge le stockage des résultats intermédiaires.
Celui-ci est un peu délicat si l’on a affaire à des pas de longueur variable : comment concilier cette
démarche avec l’enregistrement des résultats pour des abscisses à peu près régulièrement réparties ?
Il est fréquent, quelque soit l’algorithme d’intégration, que l’on doive utiliser un pas assez petit, ce
qui conduit à calculer de nombreuses valeurs de xn , alors qu’on ne peut ou ne veut conserver qu’un
petit nombre de valeurs (pour les tracés par exemple). On peut concilier ces deux exigences en ne
conservant qu’une valeur de x toutes les p. La couche extérieure du programme est spécifique de
l’application ; elle est destinée à la lecture des paramètres et des valeurs initiales, à l’affichage des
résultats. Les seconds membres sont en général définis dans un sous-programme spécial.
7.6
Algorithme de prédiction-correction
Les méthodes de Runge-Kutta posent parfois des problèmes de stabilité ou de précision. Je vais
maintenant décrire des méthodes plus stables et généralement plus précises ; le prix à payer pour
ces améliorations sera une structure plus compliquée de l’algorithme.
82
Chapitre 7. Problèmes différentiels à conditions initiales
7.6.1
Prédiction
Je vais détailler un algorithme élémentaire de prédiction-correction, en commençant par la partie
la plus simple, l’algorithme de prédiction. Je cherche la solution du problème différentiel (7.1). La
variable indépendante x sera discrétisée avec un pas h. En reprenant l’une des interprétations de
la méthode d’Euler, je remplace y 0 par une forme approchée, mais plus précise que celle utilisée au
§1 :
f (x + h) − f (x − h) h2 000
− f (ξ)
y0 =
2h
6
soit, en reportant dans l’équation différentielle :
yn+1 = yn−1 + 2hfn +
h3 000
f (ξ).
3
À partir de cette relation exacte, j’obtiens une méthode d’intégration en négligeant le terme d’erreur
(qui me fournira l’erreur locale de troncation) :
yn+1 = yn−1 + 2hfn .
(7.11)
Par ailleurs, vous pourrez montrer sans peine que si l’on intègre terme à terme l’équation différentielle et que l’on remplace l’intégrale de f (x, y) par son approximation dite du point milieu, on
retrouve le même algorithme. L’amorçage du calcul suppose connus y0 et y1 , que l’on obtient par
Taylor ou Runge-Kutta d’ordre 2 ou encore par Euler. La figure 3 illustre cet algorithme.
6
5
4
Y^[P]
3
2
1
0
−1.0
−0.6
−0.2
0.2
0.6
1.0
1.4
1.8
2.2
2.6
3.0
3
f[x,y(x)]
2
1
0
x[n−1]
−1
−1.0
−0.6
−0.2
x[n]
0.2
0.6
x[n+1]
1.0
1.4
1.8
2.2
2.6
3.0
Fig. 7.3 – : Étape de prédiction. L’aire du rectangle vert est une approximation de l’aire hachurée ;
[P ]
on l’ajoute à yn−1 pour obtenir yn+1
7.6.2
Correction
La partie « correction » est plus subtile. Cette fois, j’intègre (de façon approchée) l’équation
différentielle entre xn et xn+1 (remarquez les nouvelles limites) par la méthode des trapèzes et je
trouve
h3
1
yn+1 = yn + h(fn + fn+1 ) − y 000 (ξ).
2
12
83
7.6. Algorithme de prédiction-correction
Comme précédemment, je néglige le terme d’erreur pour obtenir une méthode d’intégration du
problème différentiel :
1
yn+1 = yn + h(fn+1 + fn ).
(7.12)
2
Cette méthode est stable et précise. Elle souffre cependant d’un petit défaut : elle est inapplicable en l’état. En effet, la relation ci-dessus est une équation implicite en yn+1 , puisque cette
quantité figure dans fn+1 . Il serait dommage d’échouer si près du but ; en réalité, je peux très bien
résoudre l’équation en yn+1 par approximations successives, à condition de connaître une valeur
initiale y [0] . Il suffit d’appliquer la méthode du point fixe
1
[k+1]
[k]
yn+1 = yn + h[f (xn , yn ) + f (xn+1 , yn+1 )]
2
jusqu’à ce qu’un critère de convergence convenable soit atteint. La dernière valeur calculée est
retenue comme valeur de yn+1 .
[0]
Comment vais-je me procurer la valeur yn+1 ? Vous l’avez deviné : par la méthode de prédiction.
Celle-ci est explicite : elle fournit une valeur approchée de la solution, que j’appelle maintenant la
(P )
valeur «prédite», yn+1 et cette valeur prédite servira à amorcer l’itération du correcteur. L’algorithme complet peut donc s’écrire :
[P ]
yn+1 = yn−1 + 2hfn
,
[P ]
[C]
yn+1 = yn + (h/2)[fn + f (xn+1 , yn+1 )].
(7.13)
L’itération du correcteur peut, en principe, être répétée plusieurs fois. Cela s’avère inutile en
[C]
général : en cas de difficultés, il vaut mieux diminuer le pas. Dans tous les cas, yn+1 devient la
valeur définitive yn+1 . La figure 4 est une représentation graphique de ce calcul.
6
5
4
Y^[C]
3
2
1
0
−1.0
−0.6
−0.2
0.2
0.6
1.0
1.4
1.8
2.2
2.6
3.0
2.6
3.0
3
2
f[x,y^P]
1
0
x[n]
−1
−1.0
−0.6
−0.2
0.2
0.6
x[n+1]
1.0
1.4
1.8
2.2
Fig. 7.4 – : Étape de correction. L’aire du trapèze bleu est une approximation de l’aire hachurée ;
[C]
on l’ajoute à yn pour obtenir yn+1
7.6.3
Convergence du correcteur
On montre que si l’équation différentielle obéit à la condition de Lipschitz et si h est assez
petit, l’itération du correcteur converge. Plus précisément, la condition de Lipschitz s’énonce ainsi.
84
Chapitre 7. Problèmes différentiels à conditions initiales
Il existe une constante positive K telle que, pour toutes valeurs de x, y1 , y2 , on ait
|f (x, y1 ) − f (x, y2 )| ≤ K|y1 − y2 |.
Le pas h devra satisfaire à
Kh/2 < 1.
La qualité de l’itération dépend de la valeur initiale y [0] ; il est recommandé de choisir une formule
de prédiction et une formule de correction présentant des erreurs du même ordre. On montre que,
dans ce cas, une seule itération suffit. Si la valeur initiale provient de la méthode d’Euler (erreur
en h2 ), il faudra au moins deux itérations.
7.6.4
Exemple.
Je résous une fois de plus le problème du pendule simple, à l’aide de l’algorithme de prédictioncorrection. La fonction rk2 est remplacé les trois sous-programmes pred, correc, pc. Il faut aussi
modifier le programme principal, pour utiliser les deux valeurs successives yi−1 , yi pour calculer
yi+1 .
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
// mouvement du p e n d u l e par PC−2; z = y ’
// i n s t a b l e à p a r t i r de pas = 0 . 0 4 5
function F = smy ( t , y , z )
F = z;
endfunction
function F = smz ( t , y , z )
F = −sin ( y ) ;
endfunction
function [ yf , z f ] = pred ( t , y i , z i )
y f = y i + 2∗ pas ∗smy ( t , y i , z i ) ;
z f = z i + 2∗ pas ∗smz ( t , y i , z i ) ;
endfunction
function [ yf , z f ] = c o r r e c ( t , y i , z i , yp , zp )
y f = y i+ 0 . 5 ∗ pas ∗ ( smy ( t , y i , z i )+smy ( t , yp , zp ) ) ;
z f = z i + 0 . 5 ∗ pas ∗ ( smz ( t , y i , z i )+smz ( t , yp , zp ) ) ;
endfunction
function [ ynp1 , znp1 , tnp1 ] = pc ( tnm1 , ynm1 , znm1 , tn , yn , zn )
[ yp , zp ] = pred ( tnm1 , ynm1 , znm1 ) ;
[ ynp1 , znp1 ] = c o r r e c ( tn , yn , zn , yp , zp ) ;
tnp1 = tn + pas ;
endfunction
np = 2 0 0 0 ;
t = zeros ( np , 1 ) ;
y = zeros ( t ) ; z = zeros ( t ) ;
y0 = input ( ’ p o s i t i o n i n i t i a l e : ’ ) ;
z0 = input ( ’ v i t e s s e i n i t i a l e : ’ ) ;
pas = input ( ’ l o n g u e u r du pas : ’ ) ;
t ( 1 ) = 0 ; y ( 1 ) = y0 ; z ( 1 ) = z0 ;
t ( 2 ) = pas ; y ( 2 ) = y0+pas ∗ z0 +0.5∗ pas ∗ pas ∗ z0 ;
z ( 2 ) = z0+pas ∗ z0 ;
f o r i = 2 : ( np−1) do
[ y ( i +1) , z ( i +1) , t ( i +1)] = pc ( t ( i −1) , y ( i −1) , z ( i −1) , t ( i ) , y ( i ) , z ( i ) ) ;
end
xset ( "window" , 0 )
plot2d ( t , y )
85
7.6. Algorithme de prédiction-correction
7.6.5
Surveillance de l’erreur
Une qualité importante des méthode de prédiction-correction est qu’elles permettent, sans calculs supplémentaires, une surveillance de l’erreur de troncation. La solution exacte Yn+1 de l’équation différentielle en xn+1 est reliée à la valeur prédite par la relation :
h3 000
y (ξp ).
3
Si le correcteur converge, il diffère de la solution exacte par son erreur de troncation :
[P ]
Yn+1 = yn+1 +
h3 000
y (ξc ).
12
Je dispose ainsi d’un encadrement de Y et d’une majoration de l’erreur. Si je suppose en effet que
ξp ∼
= ξc , je peux écrire y 000 ∼
= (12/5h3 )(y [C] − y [P ] )n+1 , d’où une estimation de l’erreur de troncation
au point n (pour le calcul de yn+1 ) :
[C]
Yn+1 = yn+1 −
1 [P ]
(y − y [C] )n+1
5
L’utilisation de ce résultat est évidente. A chaque pas, je calcule |en | ; si cette quantité est supérieure
à un seuil fixé à l’avance, je rejette ce pas, je diminue h et je repars. Je peux augmenter h si |en |
est « très petit ».
[C]
Je pourrais aussi utiliser ma connaissance (approchée) de l’erreur pour améliorer yn+1 . Il suffit
de calculer :
[c]
modif
= yn+1 + (1/5)(y [P ] − y [C] )n+1 .
yn+1
en =
Ce perfectionnement est peu employé, car il nuit à la stabilité.
7.6.6
Formules d’ordre 4
En pratique, on utilise des méthodes du quatrième ordre. Elles peuvent être obtenues de plusieurs façons : par la recette des coefficients indéterminés ou par intégration approchée de l’équation
différentielle, comme je l’ai expliqué à propos de la méthode d’Euler. Si je remplace la fonction compliquée f par un polynôme d’interpolation du second degré (parabole), j’obtiendrai une méthode
d’ordre 4.
Je vais présenter une catégorie particulière de méthodes, celles d’Adams. L’algorithme d’AdamsBashforth est une méthode explicite d’ordre 4 qui s’écrit :
yn+1 = yn + (h/24)(55fn − 59fn−1 + 37fn−2 − 9fn−3 ),
(7.14)
où, comme d’habitude, fn = f (xn , yn ) est la valeur du second membre au point xn . Cette équation
[
va servir à calculer la valeur prédite yn+1 P ]. Le terme d’erreur correspondant est :
251 5 (5)
h y
720
À cette équation de prédiction, j’associe le correcteur d’Adams-Moulton :
+
yn+1 = yn + (h/24)(9fn+1 + 19fn − 5fn−1 + fn−2 ).
(7.15)
(7.16)
Il s’agit encore une fois d’une équation implicite pour yn+1 (qui figure dans fn+1 ). L’erreur de
troncation s’écrit :
19 5 (5)
h y .
−
(7.17)
720
Il est encore possible d’estimer l’erreur de troncation, et donc de la surveiller, à partir de la différence
y [P ] − y [C] , qui vaut, d’après (7.15) et (7.17) :
3 5 (5)
h y
8
L’algorithme d’Adams admet la représentation graphique présentée page suivante.
[P ]
[C]
yn+1 − yn+1 =
86
Chapitre 7. Problèmes différentiels à conditions initiales
7.6.7
Démarrage des méthodes de prédiction-correction
Tous les algorithmes de prédiction-correction utilisent plusieurs valeurs déjà connues de la
fonction pour calculer yn+1 (méthodes à pas multiples ou liés). Ceci complique l’amorçage du
calcul. Considérons le cas particulier de la méthode d’Adams, qui nécessite quatre valeurs de y.
La première sera fournie par la condition initiale, mais les trois suivantes devront être calculée par
un algorithme indépendant : Taylor ou Runge-Kutta. Il est recommandé d’utiliser des formules du
même ordre que pour l’algorithme principal.
7.6.8
Avantages et inconvénients des méthodes à pas multiples
Les méthodes de prédiction-correction sont très appréciées des spécialistes, qui en ont poussé
très loin l’analyse théorique. Leur principal avantage est qu’elles permettent une estimation aisée
de l’erreur de troncation. Leur stabilité est aussi renommée. Nous n’avons pas examiné ce point,
mais l’étude du système modèle y 0 = −ky, montrerait que l’algorithme de correction est stable
quelque soit h, alors l’équation de prédiction peut être instable (mais sans danger puisque elle ne
sert qu’à fournir une valeur intermédiaire et locale).
Les inconvénients des méthodes «p-c» sont dus à la complexité de l’algorithme. Une méthode
d’ordre 4 requiert, pour démarrer, les 3 premières valeurs de y, lesquelles doivent être obtenues sans
"trop" d’erreur, par exemple par Runge-Kutta d’ordre 4. La modification du pas h n’est pas aussi
simple qu’on pourrait le croire. Si je m’aperçois que l’erreur de troncation lors du calcul de yn+1 est
trop grande, je rejette cette valeur et et je divise h par 2. Le calcul peut-il repartir pour autant ?
Pas tout de suite, car l’évaluation de yn+1 demande la connaissance des 4 valeurs précédentes de
y ; or, je ne les connais que pour le pas h et non pour h/2. Il faut donc interpoler entre valeurs de
y pour trouver les précurseurs de yn+1 avec le pas h/2.
7.7
Méthodes pour les équations du second ordre
La physique fournit souvent des équations différentielles du second ordre où y 0 ne figure pas.
C’est le cas en mécanique classique (au moins pour les systèmes à un seul degré de liberté) en l’absence de frottement ; c’est aussi le cas en mécanique quantique pour les problèmes à une dimension.
Il existe plusieurs algorithmes spécialisés et bien adaptés à ce type de problème. J’en décrirai deux.
7.7.1
Algorithme de Verlet ou de saute-mouton
Je note y(t) la fonction inconnue, solution de l’équation différentielle particulière :
y 00 = f (t, y)
(7.18)
où la variable indépendante peut être le temps. La méthode résulte du remplacement de la dérivée
seconde par une approximation bien connue
1
y 00 |n ∼
= 2 [yn+1 − 2yn + yn−1 ],
h
où l’erreur de troncation est O(h2 ). L’algorithme de Stoermer-Verlet s’écrit donc
yn+1 = 2yn − yn−1 + h2 f (t, x).
(7.19)
Par suite de la symétrie de cette formule, les vitesses (et tous les termes impairs en h) ont disparu.
En cas de besoin, je pourrai estimer les vitesses au moyen de la relation
yn0 = vn =
1
[yn+1 − yn−1 ].
2h
87
7.7. Méthodes pour les équations du second ordre
Cet algorithme jouit de plusieurs avantages. Il est rapide, la seule étape coûteuse en temps étant
le calcul du second membre, qui intervient une fois par pas. Le terme d’erreur est petit et une
analyse plus détaillée montrerait que l’énergie totale est conservée à chaque pas, jusqu’aux termes
en h2 . Il est de ce fait presque universellement employé pour les calculs de dynamique moléculaire
où l’on doit suivre les trajectoires de milliers d’atomes simultanément.
Les bonnes performances de la méthode de Verlet en mécanique classique tiennent à la forme
particulière des équations de la dynamique. Celles-ci s’écrivent, sous la forme donnée par Hamilton
p˙ = −
∂H
∂q
;
q˙ =
∂H
.
∂p
(q est une coordonnée généralisée et p une quantité de mouvement généralisée). Ce système différentiel est particulier : c’est la même fonction (l’énergie totale ou le hamiltonien H) qui figure au
second membre. L’algorithme de Verlet respecte bien cette structure et on le qualifie de «symplectique» (entrelacé en grec).
7.7.2
Algorithme de Numerov
C’est à un astronome russe (publiant vers 1935) que l’on doit une méthode d’intégration spécialement adaptée aux équations de la mécanique céleste et qui porte son nom. Je cherche à résoudre
l’équation (7.18), mais avec une précision bien supérieure à celle permise par la méthode de Verlet.
L’algorithme de Numerov est une méthode de prédiction-correction. Je m’intéresse tous d’abord
à la partie «correction», que je vais traiter par la méthode des coefficients indéterminés. Je fais
l’hypothèse que yn+1 peut s’exprimer comme
yn+1 = a0 yn + a1 yn−1 + a2 yn−2 + h2 b−1 fn+1 + b0 fn + b1 fn−1 + b2 fn−2 ).
Le coefficient h2 est là pour que les bi soient des nombres sans dimensions. La présence d’un
coefficient b−1 non nul indique qu’il s’agit d’une méthode implicite (yn+1 est donné en fonction
de fn+1 qui dépend elle-même de yn+1 ). Je dispose de sept paramètres inconnus {ai , bi } entre
lesquels je vais imposer six relations ; j’utiliserai à la fin les résultats de Numerov pour lever
l’indétermination. J’impose donc que la formule précédente soit exacte pour y = 1, x, x2 , x3 , x4 et
x5 . Comme d’habitude, je peux choisir x = 0, puisque les relations obtenues doivent être vérifiées
quel que soit x. Il vient :

1 = a0 + a1 + a2 ,




h = −h(a1 + 2a2 ),


 2
h = h2 (a1 + 4a2 ) + 2h2 (b−1 + b0 + b1 + b2 ),
h3 = −h3 (a1 + 8a2 ) + 6h3 (b−1 − b1 − 2b2 ),




h4 = h4 (a1 + 16a2 ) + 12h4 (b−1 + b1 + 4b2 ),


 5
h = −h5 (a1 + 32a2 ) + 20h5 (b−1 − b1 − 8b2 ).
J’exprime les coefficients en fonction de a2

 a0 = 2 + a2 , a1 = −1 − 2a2 ,
b−1 = −1/12 , b0 = (10 − a2 )/12,

b1 = (1 − 10a2 )/12 , b2 = −a2 /12.
Selon Numerov, le choix a2 = 0 jouit de qualités intéressantes : c’est celui que je retiendrai. La
formule définitive (avec le terme d’erreur que je pourrais obtenir à partir d’un développement de
Taylor des yi ) s’écrit :
yn+1 = 2yn − yn−1 +
h2
h6 y (6) (ξc )
(fn+1 + 10fn + fn−1 ) −
.
12
240
88
(7.20)
Chapitre 7. Problèmes différentiels à conditions initiales
Pour être complet, je cite la formule de prédiction établie par Numerov, que vous pouvez démontrer
par la même méthode des coefficients indéterminés :
yn+1 = 2yn−1 − yn−3 +
4h2
16h6 y (6) (ξp )
(fn + fn−1 + fn−2 ) +
3
240
Vous pourrez aussi trouver l’erreur de troncation en fonction de y [P ] et de y [C] . Je vais particulariser
la formule de correction (la plus précise et la plus stable) pour le cas d’un problème linéaire, où
l’équation différentielle devient :
y 00 = A(x)y + B(x).
Cette hypothèse entraîne une simplification considérable, car le second membre est résoluble en
y et l’équation de correction n’est plus implicite. Je peux donc abandonner l’étape de prédiction
pour écrire :
yn+1 =
1
h2
[2y
−
y
+
[Bn+1 + 10(An yn + Bn ) + An−1 yn−1 + Bn−1 )].
n
n−1
2
12
1− h
A
n+1
12
(7.21)
Cet algorithme est facile à programmer et donne de très bon résultats.
7.8
Équations «raides»
Avant de terminer ce chapitre, je mentionne une difficulté que l’on rencontre aussi bien en
cinétique chimique qu’en dynamique des structures, sans offrir de solution concrète.
Certains problèmes de cinétique chimique ont pour expression mathématique un système différentiel de la forme :
y0 = Ay + f (t)
où y est un vecteur dont les n coordonnées représentent des concentrations, A une matrice carrée
constante d’ordre n et f le vecteur de seconds membres. Je suppose que les valeurs propres λk de
A soient réelles et distinctes. Je connais alors la forme de la solution :
X
y=
ck exp(λk t)zk + ϕ(t).
Du point de vue numérique, il se posera un problème de stabilité chaque fois qu’une valeur propre
sera négative et le problème sera d’autant plus aigu que les λk seront plus différents les uns des
autres. En termes qualitatifs, il me faudra choisir un pas très petit pour traiter correctement les
décroissances les plus rapides (grand λ) mais, avec ce même pas, il faudra un nombre immense
d’itérations pour voir évoluer les décroissances les plus lentes. On dit que le système d’équations
différentielles est "raide".
Un problème analogue se rencontre pour des systèmes du second ordre
y00 = Ay + f (t)
comme on en trouve en mécanique des vibrations. Ici, l’échelle de temps est en principe définie par
la période du mouvement, mais il y a plusieurs périodes, puisque la matrice A a plusieurs valeurs
propres, lesquelles peuvent être très différentes. Je serai encore une fois obligé de choisir un pas
très petit pour suivre le mouvement le plus rapide et, simultanément, de prolonger le calcul pour
décrire le mouvement le plus lent.
Dans la pratique, la difficulté est souvent accrue par la non-linéarité des seconds membres. Seules
des méthodes implicites sont assez stables pour traiter ce type de problèmes. La convergence de
la méthode d’itération décrite au §6 n’est pas assurée dans ce cas et il faut résoudre l’équation
implicite du «correcteur» par une méthode de Newton.
89
Chapitre 8
Problèmes différentiels à conditions
aux limites et problèmes aux valeurs
propres
8.1
Introduction
La physique fournit de nombreux exemples de problèmes différentiels qui prennent un aspect
assez différent du problème de Cauchy (ou «à conditions initiales») examiné dans le chapitre
précédent. Il s’agit soit de problèmes à conditions aux limites, soit de problèmes aux valeurs
propres, les méthodes employées pour résoudre ces deux types de question étant assez proches.
Voici un exemple du premier type. Une poutre de longueur L, soumise à une charge uniforme
q(N/m) et à une tension S à chaque extrémité, se déforme verticalement ; j’appelle w(x) le déplacement d’un point de la poutre à partir de l’horizontale. w obéit à l’équation différentielle :
w00 −
S
1
w=
qx(x − L),
EI
2EI
où I est le moment d’inertie de la section droite de la poutre et E le module d’élasticité. Si la
poutre repose sur des supports fixes à chaque extrémité, w doit aussi satisfaire aux conditions aux
limites :
w(0) = w(L) = 0.
La résolution est facile si les paramètres sont constants, mais une méthode numérique devient
indispensable dès lors que la charge q ou les propriétés (E, I) de la poutre varient avec x.
L’étude des mouvements périodiques d’une corde vibrante de masse linéïque µ(x), soumise à
une tension T (x) fait apparaître un problème de valeurs propres. La déformation de la corde, y(x),
obéit à l’équation différentielle :
[T (x)y 0 ]0 + (2πν)2 µ(x)y = 0,
où ν est la fréquence. y doit aussi respecter des conditions aux limites en x = 0 et x = L, comme
par exemple y(0) = 0 (extrémité fixe) ou ∂y/∂x|L = 0 (extrémité libre). Le problème ainsi posé n’a
de solution que pour certaines valeurs de ν (les fréquences propres) ; les fonctions y correspondantes
sont les fonctions propres.
Il est facile de généraliser les considérations précédentes. Je suppose avoir affaire à une équation
résolue en y 00 , avec des conditions aux limites séparées sur y (le cas de conditions sur y 0 est très
semblable) :
y 00 = f (x, y, y 0 ) ; y(a) = A ; y(b) = B ; a ≤ x ≤ b.
90
Chapitre 8. Problèmes différentiels à conditions aux limites et problèmes aux valeurs propres
On rencontre rarement des conditions aux limites portant sur y et y 0 :
c0 y(a) + c1 y 0 (a) = A ;
d0 y(b) + d1 y 0 (b) = B.
(Il peut en principe arriver qu’une condition concerne les deux extrémités simultanément : uy(a) +
vy(b) = g, mais je n’examinerai pas ce cas).
Les problèmes à conditions aux limites n’ont pas toujours de solution ; ils peuvent aussi en avoir
plusieurs, un comportement que l’équation différentielle très simple
w00 + w = 0
illustre bien. La solution générale s’écrit w = c1 cos(x) + c2 sin(x). Selon les conditions aux limites
choisies, le problème différentiel a une, une infinité ou zéro solution :
w(0) = 0
w(0) = 0
w(0) = 0
w(π/2) = 1
w(π) = 0
w(π) = 1
w = sin x
une solution
w = c1 sin x infinité de solutions
aucune solution
Il est néanmoins possible, moyennant diverses hypothèses restrictives sur f et sur les conditions
aux limites, de démontrer l’existence et l’unicité de la solution du problème différentiel à conditions
aux limites.
8.2
8.2.1
La méthode du tir
Problème aux limites
Soit à résoudre le problème différentiel à conditions aux limites :
y 00 = f (x, y, y 0 ) ;
y(a) = A ;
y(b) = B.
(8.1)
J’associe à ce premier problème un problème à valeurs initiales :
w00 = f (x, w, w0 )
;
w(a) = A
;
w0 (a) = s
(8.2)
qui admet en général une solution unique, dépendante du paramètre s, w(x, s). Par hypothèse,
ce problème n’est pas soluble analytiquement et je doit donc en déterminer numériquement la
solution pour une valeur donnée de s, par l’une des méthodes exposées au chapitre précédent.
Comme il s’agit d’une équation différentielle du second ordre, il faudra sans doute la remplacer par
un système différentiel du premier ordre équivalent. Pour résoudre ensuite le problème aux limites,
connaissant w(x, s), il me suffit de trouver s tel que :
w(b, s) = B
ce qui revient à résoudre une équation non linéaire en s. Pour les personnes qui n’auraient eu le
bonheur de recevoir une formation militaire, je vais développer l’analogie avec le comportement
d’un artilleur. A l’aide d’un canon situé en x = a, celui-ci veut atteindre une cible en x = b ; il ne
dispose pour cela que d’un seul réglage, la hausse (angle que fait l’axe du canon avec l’horizontale).
Il procède par approximations successives : un coup court, un coup long (il encadre l’objectif)
et, idéalement ( ?), un coup au but. Pour la résolution pratique de problèmes aux limites, il est
recommandé de s’inspirer de l’artilleur, en traçant diverses fonctions w(x, s) pour différentes valeurs
de s et en observant leur comportement. Ce n’est qu’une fois acquise une certaine expérience du
problème que l’on se tournera vers des méthodes plus systématiques.
J’ai présenté de nombreuses méthodes de résolution d’une équation non-linéaire ; la plus simple
est la méthode de bissection (ou dichotomie). Sa mise en oeuvre suppose que je dispose de deux
valeurs de s telles que w(b, s1 ) et w(b, s2 ) encadrent B.
91
8.2. La méthode du tir
D’après un théorème connu sur les équations différentielles, la solution w(x, s) est une fonction
continûment dérivable de s. Je peux donc aussi utiliser la méthode de Newton. Je rappelle que, à
partir d’une valeur initiale s(0) , je calcule de façon itérative des valeurs s(i) à l’aide de la formule :
s(i+1) = s(i) −
F [s(i) ]
F 0 [s(i) ]
;
F (s) ≡ w(b, s) − B.
J’obtiens F [s(i) ] en résolvant le problème différentiel :
w00 = f (x, w, w0 ) ;
w(a) = A ;
w0 (a) = s(i) .
La méthode la plus simple pour calculer F’ consiste à l’approcher par le quotient :
F 0 [s(i) ] ∼
= {F [s(i) + h] − F [s(i) − h]}/(2h)
J’ai implicitement admis que l’algorithme qui détermine w partait de a et progressait vers les x
croissants. Ce n’est pas obligatoire et c’est même suicidaire si w a une discontinuité en x = a ;
dans ce cas, on peut partir de b, avec le même algorithme et un pas négatif. On peut être amené
à construire une morceau de solution à partir de a, un autre à partir de b : il faut alors imposer la
continuité de w ou de w0 au point de rencontre entre a et b. Il est souvent commode d’imposer que
la quantité w0 /w (la «dérivée logarithmique») soit continue ; cette condition a l’avantage d’être
insensible à la normalisation de w.
Le cas d’une équation différentielle linéaire, fréquent en physique, est nettement plus simple. Il
suffit en effet de déterminer deux solutions w(x, s1 ) et w(x, s2 ) du problème à conditions initiales
associé. La bonne valeur de s, soit s0 , pour laquelle w(b, s0 ) = B, s’obtient par interpolation linéaire. En effet, la solution du problème différentiel est une fonction linéaire des conditions initiales.
Exemple
Soit le problème différentiel :
y 00 + y = x ; y(0) = y(1) = 0.
L’équation différentielle du second ordre est équivalente au système :
y 0 = z ; z 0 = y − x,
que j’ai résolu par la méthode RK2, avec les conditions initiales y(0) = 0, y 0 (0) = s. Les deux
premières exécutions ont donné, pour s1 = −0, 3, y(1) = −0, 093915 et pour s2 = 0, 1, y(1) =
0, 242674. Une interpolation inverse linéaire me donne alors s0 = −0, 188392, qui conduit, comme
le montre la figure ci-dessous, à y(1) = 0. La solution analytique est y = x − sin(x)/sin(1) ; la
dérivée à l’origine est y 0 (0) = −0, 188395, très proche de la solution numérique.
8.2.2
Problèmes de valeurs propres
Un problème aux valeurs propres comme
y 00 = f (x, y, y 0 , λ) ;
y(a) = y(b) = 0
(8.3)
peut se ramener à un problème à conditions aux limites en introduisant une fonction inconnue
auxiliaire w ≡ λ et l’équation auxiliaire w0 = 0 ou en considérant la valeur propre comme un
paramètre ajustable, ce qui est d’une mise en oeuvre plus simple. Je me limite à une équation
différentielle linéaire, écrite sous la forme
y 00 + p(x)y 0 + λq(x)y = 0 ;
y(a) = y(b) = 0
92
;
a ≤ x ≤ b.
(8.4)
Chapitre 8. Problèmes différentiels à conditions aux limites et problèmes aux valeurs propres
0.25
’c:/an_poly-7/tir1.dta’
’c:/an_poly-7/tir2.dta’
’c:/an_poly-7/tir3.dta’
0.2
0.15
0.1
0.05
0
-0.05
-0.1
-0.15
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Fig. 8.1 – . La méthode du tir.
Comme l’équation (8.4) et ses conditions aux limites sont homogènes, ky est solution si y l’est.
J’associe à ce problème de valeurs propres un problème auxiliaire à conditions initiales :
v 00 + p(x)v 0 + λq(x) = 0; v(a) = 0; v 0 (a) = p,
où p est une constante arbitraire, la pente initiale. La solution est de la forme v = v(x, λ, p) et je sais
la trouver numériquement à l’aide de l’une des méthodes du chapitre précédent. Pour déterminer
la solution du problème aux valeurs propres, il me faudra déterminer λ tel que :
v(b, λ, p) = 0
Il s’agit encore d’une équation algébrique, mais ici l’inconnue est λ. Le paramètre p ne sert qu’à
fixer la normalisation de y. Il peut être choisi empiriquement avant le début du calcul pour obtenir
des valeurs commodes de y. La méthode de dichotomie se révèle très pratique pour trouver λ.
Exemple
La masse linéïque d’une corde de longueur L varie selon la loi µ = µ0 (1 + αx). Lorsque cette
corde effectue des oscillations sinusoïdales, sa forme est définie par l’équation :
y 00 + (k0 L)2 (1 + αr)y = 0 ; y(0) = y(1) = 0
√
où r = x/L, k0 = 2πν/c0 et c0 = (T /µ0 ), T étant la tension. Les fréquences de vibration sont
les valeurs de ν telles que le problème différentiel admette une solution. Je les ai cherchées par
la méthode du tir et l’algorithme de Runge-Kutta d’ordre 2. La figure montre le résultat de trois
exécutions du programme, pour des fréquences proches du second mode ((k0 L)2 = 10, 11, 532 et
13).
8.3
Méthodes aux différences finies
Dans ce type d’algorithme, je remplace,dans l’équation différentielle, les dérivées y 0 , y 00 , . . . par
des approximations formées à partir de différences latérales. Je me limite aux problèmes linéaires,
comme le problème du second ordre à conditions aux limites
y 00 + q(x)y = g(x); y(a) = A; y(b) = B
93
8.3. Méthodes aux différences finies
0.25
’c:/an_poly-7/valp1.dta’
’c:/an_poly-7/valp2.dta’
’c:/an_poly-7/valp3.dta’
0.2
0.15
0.1
0.05
0
-0.05
-0.1
-0.15
-0.2
0
0.2
0.4
0.6
0.8
1
Fig. 8.2 – : Recherche du 2ième mode d’une corde de densité variable. Le paramètre α vaut 5. La
valeur propre est k0 L = 3, 396.
Pour «discrétiser» ce problème, je subdivise [a, b] en n + 1 sous-intervalles égaux, de longueur
h = (b − a)/(n + 1), séparés par des pivots d’abscisses xi = a + ih, x0 = a, xn+1 = b et je
remplace y 00 (xi ) par [ui+1 − 2ui + ui−1 ]/h2 , en posant ui ' y(xi ). Ce faisant, je commets une
erreur de troncation que le théorème de Taylor appliqué à y(i+1 ) et y(i−1 ) permet d’évaluer à (h2 /12)y (4) (xi + θh), −1 < θ < 1. Il y a n + 2 valeurs de ui , dont deux nous sont déjà connues :
u0 = A, un+1 = B ; les autres sont solutions d’un système linéaire qui s’écrit, sous forme matricielle :
MU = K
avec les définitions U = [u1 , u2 , . . . , un ]T ,k = [g1 + A/h2 , g2 , ....gn−1 , gn + B/h2 ]T et


−2 + q1 h2
1
0 ...
0


1
−2 + q2 h2 1
0
...

M=


...
...
... ...
...
0
...
. . . 1 −2 + qn h2
On a le théorème suivant. Si qi ≥ 0 pour i = 1, 2, ..., n, alors A est définie positive : la solution
du système linéaire précédent est alors facile, les méthodes de Gauss ou de Cholesky s’appliquent
sans permutation de lignes. On montre aussi que l’erreur de troncation est partout d’ordre h2 . Cet
algorithme s’étend facilement aux problèmes contenant la dérivée première de y. Il est important
de représenter y 0 par une expression qui respecte la symétrie de la matrice M.
8.3.1
Exemple
Je reprend le problème déjà résolu par la méthode du tir
y 00 + y = x ; y(0) = y(1) = 0.
Je vais utiliser 20 points, donc 18 valeurs inconnues {uk }. Les éléments de la matrice M sont
Mi,i = h2 − 2, Mi,i+1 = Mi+1,i = 1 tandis que les coordonnées de k sont ki = h2 xi . Voici le
programme pour Scilab. Vous remarquez l’extrême simplicité de la résolution d’un système linéaire
de la forme Ax = b : il suffit d’écrire x = A\b.
94
Chapitre 8. Problèmes différentiels à conditions aux limites et problèmes aux valeurs propres
1 // y ’ ’+ y = x par d i s c r e t i s a t i o n
2 xmin = 0 ; xmax = 1 ;
3 np = input ( "nombre t o t a l de p o i n t s : " ) ;
4 n i = np −1;
5 nx = np −2;
6 M = zeros ( nx , nx ) ;
7 h = ( xmax−xmin ) / n i ;
8 f o r i =2:nx−1
9
M( i , i ) = h∗h−2;
10
M( i , i +1) = 1 ;
11
M( i , i −1) = 1 ;
12 end
13 M( 1 , 2 ) = 1 ; M( nx , nx−1) = 1 ; M( nx , nx ) = h∗h−2; M( 1 , 1 ) = h∗h−2;
14 x = linspace ( xmin+h , xmax−h , nx ) ’ ;
15 b = h∗h∗x
16 y = M\b
17 yy = [ 0 ; y ; 0 ] ; xx = [ xmin ; x ; xmax ] ;
18 x s e t ( " window " , 0 ) , xbasc ( 0 )
19 x s e g s ( [ xmin , xmax ] , [ 0 , 0 ] )
20 p l o t 2 d ( xx , yy , r e c t =[xmin , − 0 . 1 , xmax , 0 . 1 ] )
qui produit le trace de la figure 3.
0.10
0.08
0.06
0.04
0.02
0
−0.02
−0.04
−0.06
−0.08
−0.10
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
Fig. 8.3 – :Solution d’un problème avec conditions aux limites. La fonction inconnue est «discrétisée» sur 20 points
La méthode de discrétisation s’applique aussi en principe aux problèmes de valeurs propres
(linéaires). La différence est que l’on n’aboutit à un problème simple d’algèbre linéaire seulement
dans quelques cas particuliers. C’est le cas pour
y 00 + q(x)y = λy
;
y(a) = y((b) = 0.
On obtient une équation matricielle aux valeurs propres de la forme :
MU = λU
95
8.4. Méthodes variationnelles, Rayleigh-Ritz-Galerkin
avec la même matrice M que précédemment. Si A est d’ordre n, alors l’équation précédente admet
n solutions comprenant chacune une valeur propre λk et un vecteur propre U(k) (voir le chapitre
«éléments propres»).
Les deux approches que je vient de décrire (tir et discrétisation) sont en gros équivalentes,
du point de vue de la commodité comme du point de vue de la qualité des résultats, pour tout
les problèmes simples. Si les fonctions (comme q(x)) présentent des discontinuités, il vaut mieux
utiliser la discrétisation, plus stable.
8.4
Méthodes variationnelles, Rayleigh-Ritz-Galerkin
Les méthodes variationnelles utilisent le fait que la solution d’un problème différentiel à conditions aux limites possède souvent la propriété de rendre minimale ou plus généralement stationnaire
une certaine intégrale. La recherche de ce minimum peut être plus facile que la résolution directe,
surtout en présence de discontinuités des fonctions intervenant dans le problème différentiel. Le
but de ce paragraphe est de présenter une brève introduction à ces méthodes pour le cas simpliste
d’une seule variable. Je considère le problème (que l’on appelle un problème de Sturm-Liouville)
−(py 0 )0 + qy = f
;
y(a) = 0 ;
y(b) = 0
où p, q et f sont des fonctions de x continûment dérivables sur I = [a, b]. J’introduis un «opérateur
ˆ par la relation
différentiel» L
ˆ
L(v)
≡ −(pv)0 + qv,
si bien que (1) peut aussi s’écrire :
ˆ
L(y)
=f
Je vais me servir du produit scalaire de fonctions définies sur I déjà introduit au chapitre 5, cela
pour une fonction de poids égale à 1 :
Z
b
(u, v) =
u(x)v(x)dx ;
k u k2 = (u, u).
a
On démontre alors facilement les propriétés suivantes :
*L est «symétrique» : (u, L(v)) = (L(u), v).
*L est défini positif : (L(u), u) = (u, L(u)) > 0 pour tout u > 0.
Je définis un nombre dépendant de u (une «fonctionnelle» de u) :
F (u) = (u, u) − 2(u, f ),
où f est la fonction qui figure au second membre de l’équation différentielle. Si y vérifie L(y) = f ,
on a le théorème :
F (u) > F (y)
pour tout u 6= y. Ce résultat m’amène à chercher une approximation à y en rendant minimale
F (u). Cela sera d’autant plus facile que u est proche de la «vraie» solution, tout en gardant une
forme telle que les calculs soient simples. Il est courant de prendre pour u une combinaison linéaire
de fonctions de base :
u = a1 u1 + a2 u2 + ..... + an un .
La fonction F (u) devient alors F (a1 , ...an ) = F (a). Soit v le vecteur de coordonnées (ui , f ) et S
la matrice d’éléments si,j = (ui , uj ). Un calcul élémentaire montre que :
F (a) = aT Sa − 2vT a.
96
Chapitre 8. Problèmes différentiels à conditions aux limites et problèmes aux valeurs propres
Résoudre le problème différentiel est donc approximativement équivalent à trouver le vecteur a qui
rend F minimale. On montre encore que ce vecteur, a0 , est solution du système :
Sa = v.
Cette solution existe et est même facile à trouver parce que S est définie positive.
Les méthodes d’éléments finis (à deux et trois dimensions) utilisent un formalisme variationnel
analogue au précédent pour réduire les équations aux dérivées partielles, rencontrées en mécanique
des fluides ou en élasticité, à un système d’équations linéaires.
97
Chapitre 9
Résolution de systèmes d’équations
linéaires
9.1
Introduction
La résolution de systèmes d’équations linéaires est peut-être le problème le plus connu et le
mieux étudié de l’analyse numérique. Ces études s’appuient sur l’ensemble des connaissances en
algèbre linéaire. Malgré ces atouts, la résolution pratique d’un système linéaire peut poser des
difficultés, soit pour certains choix des coefficients (systèmes «mal conditionnés»), soit lorsque
le nombre d’inconnues devient grand (plus de quelques milliers), comme c’est le cas lors de la
résolution d’équations aux dérivées partielles ou dans certains domaines de l’économétrie. Il peut
aussi arriver que le système soit «surdéterminé» (plus d’équations que d’inconnues).
Quelles sont les méthodes que propose l’arsenal mathématique ? Tout d’abord une méthode que
je qualifierai de formelle : la solution du problème
Ax = b
(9.1)
(où A est une matrice n × n, b et x des vecteurs à n coordonnées) s’écrit x = A−1 b, puis la
méthode de Cramer, qui se révèle inutilisable en pratique dès qu’il y a plus de trois inconnues, (le
calcul d’un déterminant n × n nécessite n! opérations, ce qui est prohibitif).
Je rencontre ensuite un groupe de méthodes qui procèdent par éliminations successives des
inconnues : elles sont associées aux noms de Gauss et de Gauss-Jordan et sont d’application aisée.
D’autres algorithmes «factorisent» la matrice des coefficients (A =⇒ FG) avant de pratiquer des
éliminations successives qui sont alors très rapides à cause de la forme particulière des facteurs
mathbf F, G : ce sont les méthodes de Crout, Doolittle ou Cholesky. En dépit des apparences,
ces deux ensembles sont mathématiquement équivalents et sont fréquemment employés en analyse
numérique.
Dans un esprit bien différent, je pourrai faire appel à des procédés itératifs de résolution, dont
la convergence n’est pas toujours assurée : ce sont les méthodes associées aux noms de Jacobi et
Gauss-Seidel.
Comme vous le verrez, le calcul de l’inverse A−1 d’une matrice A est plus long que le calcul
direct de la solution du système linéaire (9.1). L’analogie avec l’algèbre peut faire comprendre
cette remarque. Pour résoudre 10x = 3, je peux faire 10−1 = 0, 1; 0, 1 × 3 = 0, 3 ou directement
x = 3/10 = 0, 3. On évite donc de calculer l’inverse de la matrice des coefficients, à moins que
le problème posé ne le demande explicitement. Si tel est le cas, je calculerai A−1 en résolvant n
systèmes linéaires particuliers, dont les seconds membres sont respectivement égaux à chacun des
vecteurs de base.
98
Chapitre 9. Résolution de systèmes d’équations linéaires
Dans la mise en oeuvre des méthodes d’élimination ou de factorisation, l’ordinateur ne commet
que des erreurs d’arrondi. Dans le cas d’une méthode itérative, je devrais tenir compte aussi d’une
erreur de troncation, puisque l’algorithme s’arrête au bout d’un nombre fini d’opérations.
Pour l’analyse numérique, la difficulté de résolution d’un système linéaire tient aux effets conjugués de sa taille et de son «conditionnement». Voici une interprétation graphique de cet anglicisme.
Soit le système linéaire :
ax + by = m,
cx + dy = n.
√
√
Je divise la première équation par un a2 + b2 et la seconde par c2 + d2 , pour obtenir
n1x x + n1y y = d1 , n2x x + n2y y = d2 .
Les coefficients satisfaisant maintenant aux relations n2ix + n2iy = 1, i = 1, 2, les vecteurs ni de
coordonnées {nix , niy } sont unitaires.
Le système linéaire ainsi écrit admet l’interprétation géométrique suivante. Chaque équation
est celle d’une droite Di du plan (x, y). La droite Di est perpendiculaire au vecteur ni ; la distance
de la droite à l’origine est di . La solution cherchée est représentée par le point d’intersection des
deux droites. Dans les cours élémentaires, on distingue trois cas : D1 confondue avec D2 (système
indéterminé ou infinité de solutions), D1 parallèle à D2 (système impossible), et le cas normal où
D1 coupe D2 .
Numériquement, il faut distinguer ici deux possibilités. Si D1 et D2 font entre elles un angle
notable, le point d’intersection est bien défini et la solution du système sera facile à trouver. Si
D1 et D2 se coupent sous un angle très faible, le système est dit «mal conditionné». Dans ce cas,
la moindre variation de l’un des di (les seconds membres) ou de l’un des nα,i (les coefficients,
α = x, y) entraînera un déplacement très important du point d’intersection. Autrement dit, la
solution est extrêmement sensible aux perturbations des coefficients ou des seconds membres. Un
déterminant très petit est une indication qu’un système est mal conditionné ; ce n’est pas une
condition nécessaire surtout lorsque le nombre de variables devient grand.
Je peux donner un aspect plus quantitatif aux considérations précédentes. J’admets qu’il existe
une norme vectorielle k x k et une norme matricielle k A k, cohérente avec la précédente (c’est-àdire que, pour tout x, k A k · k x k≥k Ax k). En plus du système (9.1), je considère un système
«perturbé» ; le second membre a subi une petite modification ∆b, ce qui a entraîné une petite
variation ∆x de la solution
A(x + ∆x) = b + ∆b
d’où ∆x = A−1 ∆b et :
k ∆x k≤k A−1 kk ∆b k .
J’en tire une majoration de la variation relative :
k ∆x k
k ∆b k
k ∆b k
=k A kk A−1 k
= cond(A)
.
kxk
kbk
kbk
Le nombre cond(A) = k A kk A−1 k est une mesure de la sensibilité de l’erreur relative (sur la
solution) aux variations du second membre.
Je montre maintenant que cond(A) représente aussi la sensibilité aux variations des coefficients
des premiers membres. Je considère un nouveau système perturbé
(A + δA)(x + δx) = b.
En retranchant membre à membre (9.1), je trouve
δx = −A−1 δA(x + δx),
99
9.2. Méthode de Gauss
ce qui implique l’inégalité
soit encore
k δx k≤k A−1 kk δA k (x + δx) k,
k δx k
k δA k
= cond(A)
.
k x + δx k
kAk
Il est souvent commode de considérer aussi (9.1) comme une application de Rn dans lui-même. Si
la matrice A est régulière, son «image» (l’ensemble des vecteurs Ax) est Rn lui-même ; quelque soit
le vecteur b, on pourra toujours trouver un x satisfaisant (9.1). Si, au contraire, A est singulière,
son image est un sous-ensemble de Rn . Deux possibilités se présentent alors. Si b n’appartient
pas à l’image de A, le système est impossible, puisqu’on ne pourra jamais trouver un vecteur x
convenable. Si b appartient à l’image de A, il y aura une infinité de solutions, car on pourra
toujours ajouter à une solution un vecteur y appartenant au noyau de A (l’ensemble des vecteurs
y tels que Ay = 0.
9.2
9.2.1
Méthode de Gauss
Exemple
Je vais traiter un exemple qui, mieux qu’un long discours, fera saisir l’esprit de la méthode
d’élimination de Gauss et son équivalence avec une factorisation de la matrice des coefficients. Il
s’agit du système

 


2
1
0
4
x1
2
 −4 −2

 

3
−7 
  x2  =  −9  = x.
Ax = 
(9.2)
 4
1
−2
8   x3   2 
0 −3 −12 −1
x4
2
Je vais procéder par éliminations successives en utilisant trois théorèmes bien connus d’algèbre
linéaire. La solution du système linéaire reste inchangée si :
* on multiplie une équation (une ligne de A et la coordonnée
correspondante de b) par une constante ;
* on ajoute une équation à une autre (une ligne de A à une autre
et la coordonnée correspondante de b à une autre) ;
* on permute deux équations (deux lignes de A et les coordonnées
correspondantes de b).
Je peux traiter A et b en parallèle ou construire une matrice A0 "augmentée" dont la n+1-ième
colonne est identique à b. J’indique entre parenthèses les instructions Scilab correspondantes.
Je commence par éliminer x1 . Pour cela :
je multiplie la ligne (1) par 2 et je l’ajoute à la ligne (2) (A(2,:) = A(2,:) + 2A(1,:);),
je multiplie la ligne (1) par -2 et je l’ajoute à la ligne (3) (A(3,:) = A(3,:) - 2A(1,:);).
Il vient :




2 1
0
4
2
 0 0


3
1 
 ; b(1) =  −5 
A(1) = 
 0 −1 −2


0
−2 
0 −3 −12 −1
2
On remarque que le multiplicateur relatif à la ligne i est −ai,1 /a11 ; a11 est appelé le "pivot" ; il
a intérêt à n’être pas nul ! Beaucoup d’auteurs emploient la convention opposée : ils multiplient
100
Chapitre 9. Résolution de systèmes d’équations linéaires
la ligne (1) par +ai,1 /a11 et la retranchent de la ligne (i) Le résultat est donné par la matrice
(1)
A(1) et le vecteur b(1) . Je dois maintenant éliminer x2 ; problème : le pivot correspondant (a22 )
est nul ! Mon élan parait devoir être brisé près du départ. Mais, heureusement, je peux permuter
les lignes (2) et (3)(temp = A(3,:); A(3,:) = A(2,:), A(2,:) = temp;) ; le nouveau pivot est
maintenant -1 ; j’ajoute -3 fois (2) à (4) pour trouver :




2 1
0
4
2

 0 −1 −2 0 

 ; b(3) =  −2 
A(3) = 

 0 0

3
1
5 
0 0 −6 −1
8
Finalement, en utilisant le pivot 3, j’ajoute 2 fois

2 1
0
 0 −1 −2
(4)
A =
 0 0
3
0 0
0
(3) à (4) :


4

0 
 ; b(4) = 


1
1

2
−2 

−5 
−2
La matrice A(4) , équivalente à A, a la forme «triangulaire supérieure». Elle rassemble les coefficients
d’un système triangulaire facile à résoudre par substitution à partir de la dernière ligne :
(4)
(3)
(2)
(1)
⇒ x4 = −2,
⇒ 3x3 − 2 = −5
⇒ x3 = −1,
⇒ −x2 − 2(−1) = −2
⇒ x2 = 4,
⇒ 2x1 + 4 + 4(−2) = 2 ⇒ x1 = 3.
Q (4)
Je gagne en prime la valeur de det A = (−1)p i aii , où p est le nombre de permutations de
lignes, ici 1, d’où det A = 6. Si l’un des éléments diagonaux de A(4) (l’un des pivots de l’élimination
de Gauss) est nul, le déterminant est nul ; réciproquement, si det A 6= 0, je suis assuré de trouver
des pivots non nuls (quitte à permuter des lignes).
9.2.2
Gauss-Jordan
Pour ceux qui auraient pris goût à l’élimination, je propose une variante. Plutôt que de substituer dans le système triangulaire, je poursuis l’élimination au-dessus de la diagonale principale :
c’est la méthode de Gauss-Jordan. Pour changer, je travaille sur la matrice augmentée A0 , réunion
de A et de b. J’ajoute (2) à (1) :


2 0 −2 4 0
 0 −1 −2 0 −2 
(5)

A0 = 
 0 0
3 1 −5 
0 0
0 1 −2
puis 2/3 de (3) à (1) et à (2) :
A0

(6)
2 0 0
 0 −1 0
=
 0 0 3
0 0 0
Pour finir, j’ajoute -14/3 (4) à (1), -2/3 (4) à (2) et

2 0
 0 −1
0 (8)
A
=
 0 0
0 0
14/3
2/3
1
1

−20/3
−16/3 

−5 
−2
-(4) à (3) ; il vient :

0 0 6
0 0 −2 

3 0 −3 
0 1 −2
écriture matricielle d’un système dont la résolution est immédiate.
101
9.2. Méthode de Gauss
9.2.3
Représentation matricielle de l’élimination
Multiplier la coordonnée 1 d’un vecteur par le coefficient m, puis ajouter le résultat à la coordonnée 2 revient à multiplier ce même vecteur par une matrice particulière :

 


1 0 0 0
b1
b1
 m 1 0 0   b2   mb1 + b2 


 

 0 0 1 0   b3  = 

b3
0 0 0 1
b4
b4
Plus généralement, pour ajouter m fois la ligne i à la ligne j, il suffit de disposer le nombre m à
la place de l’élément j, i de la matrice unité (i < j). Ce qui est vrai pour un vecteur l’est également
pour une matrice. La prémultiplication de A carrée quelconque par la matrice précédente revient
à multiplier successivement chaque colonne de A, donc à ajouter la première ligne de A à la
deuxième. Encore un exemple ; je veux ajouter -3 fois la 3-ième ligne à la 4-ième de la matrice
générale : -3 est en ligne 4, colonne 3 :



1 0 0 0
a11 a12 a13 a14
 0 1 0 0   a21 a22 a23 a24 



 0 0 1 0   a31 a32 a33 a34  =
0 0 −3 1
a41 a42 a43 a44


a11
a12
a13
a14


a21
a22
a23
a24




a31
a32
a33
a34
−3a31 + a41 −3a32 + a42 −3a33 + a43 −3a34 + a44
Les matrices qui viennent d’être définies (dites matrices de Frobenius) jouissent de propriétés
intéressantes. Si f (i, j, m) désigne la matrice de Frobenius contenant m en ligne i et colonne j, alors
f −1 = f (i, j, −m) : soustraire m fois la ligne i de la ligne j est bien l’opération inverse d’ajouter m
fois (i) à (j). f (i, j, m)f (i0 , j, m0 ) = f (i0 , j, m0 )f (i, j, m) contient m et m0 en colonne j, aux lignes i
et i’, ce qui représente bien le fait qu’ajouter un multiple de la ligne j aux lignes i et i0 sont des
actions indépendantes.
Dans l’exemple précédent, j’ai obtenu la matrice A(2) à partir de la matrice A(1) = A, en
utilisant deux multiplicateurs (2 et -2), ce qui peut s’écrire
A(2) = M1 A(1) ; b(2) = M1 b(1) ,
avec

1
 2
M1 = 
 −2
0

0 0 0
1 0 0 

0 1 0 
0 0 1
Je pose, en vue d’une utilisation future, L1 ≡ M−1
1 . Revenant à l’exemple, j’ai ensuite permuté les
lignes (2) et (3) pour faire apparaître un pivot non nul, ce que je représente par une prémultiplication par la matrice de permutation P :


1 0 0 0
 0 0 1 0 

P=
 0 1 0 0 
0 0 0 1
Cette matrice est symétrique et orthogonale : P−1 = PT = P et, par conséquent, P2 = I, ce qui
traduit le fait qu’échanger deux fois les mêmes lignes revient à ne rien faire. J’ai ensuite éliminé
102
Chapitre 9. Résolution de systèmes d’équations linéaires
x2 avec l’aide implicite de la matrice M2 .

1
 0
M2 = 
 0
0
0
1
0
−3
0
0
1
0

0
0 

0 
1
Je définis au passage son inverse, noté L2 ≡ M−1
2 .
Le système linéaire s’écrit maintenant : A(3) x = b(3) , avec A(3) = M2 PA(2) et b(3) = M2 Pb(1) .
Pour éliminer x3 , j’ai utilisé M3 :


1 0 0 0
 0 1 0 0 

M3 = 
 0 0 1 0 
0 0 2 1
La dernière forme du système s’écrit : A(4) x = b(4) . Je pose encore A(3) = L3 A(4) et b(3) = L3 b(4) .
En résumé, en ce qui concerne le tableau des coefficients, j’ai
A(4) = M3 A(3) = M3 M2 PA(2) = M3 M2 PM1 A(1)
Le vecteur b a subi les mêmes transformations, résumées par :
b(4) = M3 M2 PM1 b(1) .
Ces formules résument bien la «triangularisation» du système, mais c’est la relation inverse qui
est vraiment intéressante. Pour le voir, j’introduis les notations U = A(4) et c = b(4) (le système
linéaire est donc équivalent à : Ux = c). Je calcule ensuite
A = A(1) = L1 PL2 L3 A(4) = L1 PL2 L3 U.
ˆ ≡ L1 PL2 L3 , je mets la matrice de départ sous la forme A = LU
ˆ : c’est un produit
Si je pose L
de facteurs, dont l’un est triangulaire supérieur (U) ; malheureusement, à cause du facteur P, la
ˆ n’a pas de forme simple. Pour obtenir un résultat plus élégant, je commence par définir
matrice L
0
L1 ≡ PL1 PT ; cette nouvelle matrice s’obtient en permutant les lignes (2) et (3) de L1 (prémultiplication par P) et en permutant les colonnes (2) et (3) de la matrice obtenue (postmultiplication
par PT ; le résultat s’écrit :


1 0 0 0
 2 1 0 0 

L01 = 
 −2 0 1 0 
0 0 0 1
Comme vous le constatez, L01 est à nouveau triangulaire inférieure : la perturbation apportée par
P a été «absorbée» dans L01 . Je définis ensuite L = L01 L2 L3 :




1 0 0 0
1 0 0 0
1 0 0 0
 2 1 0 0  0 1 0 0  0 1 0 0 



L=
 −2 0 1 0   0 0 1 0   0 0 1 0 
0 0 0 1
0 3 0 1
0 0 −2 1
Le calcul explicite donne

1
 2

L=
−2
0
0
1
0
3
103
0
0
1
−2

0
0 

0 
1
9.2. Méthode de Gauss
Il suffit de recopier à leurs places dans L les éléments sous la diagonale des facteurs L01 , L2 et L3 ,
comme pour les matrices élémentaires de Frobenius. Je forme ensuite le produit LU :
LU = L01 L2 L3 A(4) = L01 L2 A(3) = L01 PA(2) = PL1 A(2) = PA(1) = PA.
La matrice PA a été décomposée en un produit de deux facteurs, l’un (L, lower) triangulaire
inférieur, avec des éléments diagonaux égaux à un, l’autre (U, upper) triangulaire supérieur. Vous
pouvez aussi effectuer numériquement le produit LU pour vous convaincre du résultat (matrice de
départ sauf permutation des lignes (2) et (3)).
Pour trouver la solution de (9.1), il suffit maintenant de résoudre successivement deux systèmes
triangulaires. D’abord
L0 y = Pb,
dont la solution est le vecteur y, puis
Ux = y
dont la solution est le vecteur x cherché. Vous pourrez vérifier que y = b(4) .
D’autre part, j’ai toujours sous la main le déterminant de A :
Y
(−1)p det(A) = det(PA) = det(LU) = det(L) det(U) =
uii .
i
9.2.4
Généralisation
L’exemple précédent se généralise sans difficulté au cas où A est une matrice carrée, régulière,
n × n. On peut démontrer l’existence et l’unicité de la factorisation. Je me contente de démontrer,
par l’absurde, cette dernière propriété. Supposons qu’il existe deux décompositions d’une même
matrice régulière :
A = L1 U1 = L2 U2 ,
d’où :
−1
X = L−1
2 L1 = U2 U1
Or, l’inverse d’une matrice triangulaire inférieure (supérieure) est elle-même triangulaire inférieure
(supérieure). Le produit de deux matrices triangulaires inférieures est une matrice de même forme ;
de même, le produit de deux matrices triangulaires supérieures est encore triangulaire supérieur.
X, qui doit réunir ces deux propriétés, ne peut être que la matrice unité, ce qui entraîne L1 = L2
et U1 = U2 .
9.2.5
Mise en oeuvre pratique
Si la matrice A est régulière, je suis assuré de toujours pouvoir trouver un pivot non nul :
l’élimination de Gauss est toujours possible en théorie. On montre qu’elle est encore utile pour des
matrices de rang < n ou pour des matrices rectangulaires. Je n’aborderais pas ces points ici.
Les calculs réels sont en fait entachés d’erreurs d’arrondi. Ceci a pour conséquence que le
résultat final dépendra fortement du choix des pivots (ou encore de l’ordre des variables éliminées).
On peut voir en gros ce qui se passe. Je suppose que les variables x1 , x2 , . . . , xk−1 ont été éliminées.
Pour éliminer l’inconnue xk , je multiplie la ligne k par aik /akk . Si le pivot akk est petit, toutes les
erreurs qui affectent les coefficients aik seront amplifiées. En conséquence, on adopte toujours la
stratégie de «recherche du pivot partiel» ; pour éliminer la variable xk et quelque soit la valeur de
|akk |, on recherche l’élément de plus grand module dans la colonne k et c’est lui que l’on prendra
comme pivot effectif, après avoir fait la permutation de lignes nécessaire.
Certains auteurs recommandent la stratégie de la recherche complète du pivot maximal («pivot
total»). Pour éliminer xk , on cherche pour i ≥ k et pour j ≥ k l’élément aij de plus grand
module. On l’amène en position de pivot par des permutations de lignes et de colonnes. Permuter
104
Chapitre 9. Résolution de systèmes d’équations linéaires
les colonnes n’est pas neutre, c’est équivalent à permuter les inconnues. Il faut donc garder trace
des ces permutations pour restaurer l’ordre initial à la fin. La programmation est un peu plus
compliquée. Il semble par ailleurs que l’analyse précise des erreurs d’arrondi ne démontre pas une
supériorité nette de la recherche globale sur la recherche partielle.
Les erreurs d’arrondi sont plus faibles si les éléments des matrices successives restent à peu près
du même ordre de grandeur. Pour cela, on peut, avant de résoudre le système, multiplier certaines
lignes par des facteurs tels que le plus grand coefficient de chaque ligne soit compris entre 0,5 et 1
(équilibrage).
Le décompte détaillé des opérations arithmétiques nécessaires fait apparaître le résultat suivant :
factorisation
substitution
n(n − 1/2)(n − 1)/3
n(n − 1)/2
n(n − 1)/2
n
additions et multiplications
divisions
additions et multiplications
divisions
Vous retiendrez les valeurs asymptotiques : pour l’élimination : O(n3 /3) opérations et pour la
résolution du système linéaire : O(n2 ) opérations.
L’algorithme de Gauss est assez économe en mémoire, si l’on accepte de détruire A. En effet,
à chaque étape, je range les éléments de L à la place que devraient occuper les zéros de A après
élimination (dans le triangle inférieur). Les 1 de la diagonale de L sont sous-entendus. Le triangle
supérieur de A est progressivement occupé par les éléments de U.
9.2.6
Calcul de l’inverse de A
Pour certaines applications, il faut calculer A−1 = X explicitement, soit encore trouver X telle
que AX = I. La colonne j de X est solution du système linéaire :
Axj = ej .
Je vais avoir à résoudre n systèmes linéaires dont les premiers membres sont identiques, mais
les seconds membres différents. Il est commode d’utiliser la décomposition PA = LU effectuée une
seule fois, puis de résoudre les systèmes triangulaires Lyj = Pej puis Uxj = yj . On sait que les
coordonnées de yj sont nulles jusqu’à un certain rang, ce qui permet de gagner un peu de temps.
Le nombre d’opérations nécessaires est O(n3 ), pas plus que pour calculer A2 mais trois fois plus
que pour résoudre un système linéaire de même n.
9.3
Factorisation directe
Je sais que la matrice régulière A admet une représentation sous forme d’un produit de matrices
triangulaires LU. Je peux alors me poser la question suivante : est-il possible de trouver les éléments
de L et U sans utiliser l’algorithme de Gauss ? La réponse est affirmative et c’est même assez
simple. Cependant, comme la décomposition LU est unique, ce nouvel algorithme est certainement
équivalent à celui de Gauss.
Soient `i,j les éléments de L, avec `i,j = 0 si i < j ; de même, les éléments de U sont tels que
ui,j = 0 si i > j ; enfin `i,i = 1. Je procéderai par identification.
a11 =
X
`1k uk1 = `11 u11 = u11 ,
X
a12 =
`1k uk2 = u12 ,
a1n =
X
......................
`1k ukn = u1n .
105
9.3. Factorisation directe
En utilisant la première ligne de A, j’ai trouvé la première ligne de U. L’astuce pour continuer
(due à Crout, d’où le nom de l’algorithme), consiste à identifier maintenant la première colonne de
A.
X
a21 =
`2k uk1 = `21 u11 + `22 u21 ⇒ `21 = a21 /u11
X
a31 =
`3k uk1 = `31 u11 + `32 u21 + `33 u31 ⇒ `31 = a31 /u11
................
Je détermine ainsi la première colonne de L. Vous pouvez imaginer que la deuxième ligne de U
s’obtient à partir de la deuxième ligne de A, puis que la deuxième colonne de L découle de la
deuxième colonne de A, etc... Les formules générales s’écrivent :
uij = aij −
i−1
X
`ik ukj ; j = i, i + 1, ...n;
k=1
`i,j
"
#
j−1
X
1
=
aij −
`ik ukj ; i = j + 1, j + 2, ...n
ujj
(9.3)
k=1
(9.4)
avec toujours `ii = 1. Il y a une petite difficulté : cet algorithme est très sensible aux erreurs
d’arrondis, et ne fonctionnera pas sans recherche du pivot maximal dans chaque colonne. D’autre
part, en général, je forme la décomposition LU pour résoudre un système linéaire ; ici, je n’ai
permuté que les lignes de A et non celles de b (qui n’apparaît pas) ; il faut donc garder trace des
permutations pour pouvoir retrouver les inconnues par la suite.
On rencontre fréquemment deux cas particuliers. La premier est celui d’une matrice définie
positive, le second celui d’une matrice tridiagonale. Je vais les examiner brièvement.
9.3.1
Matrice tridiagonale
Soit A une matrice tridiagonale ; Je pose ai,i−1 = xi , ai,i = yi et ai,i+1 = zi . J’admets en plus
que A possède une décomposition LU sans permutation de lignes. Par identification, on vérifie que
L et U sont bidiagonales :


y1 z1
0
...
...
0
 x2 y2 z2
0
...
0 


 0 ... ... ...
...
0 

=
 0 . . . 0 xn−1 yn−1 zn−1 
0 ... ...
0
xn
yn



1 0
0
... 0
d1 u1 0
...
0
 l2 1

0
... 0 
...
0 

  0 d2 u2

 0 ...


1
... 0  0 ... ... ...
0 


 0 . . . ln−1 1 0   0 . . . 0 dn−1 un−1 
0 ...
0
ln 1
0 ... 0
0
dn
Vous prouverez sans peine les relations suivantes :
y1 = d1
;
; z1 = u1
yi = li ui−1 + di
;
;
xi = li di−1 ;
; zi = ui .
Vous pourrez finalement établir les formules très simples de résolution d’un système linéaire dont
les coefficients seraient les xi , yi , zi . Dans le cas où l’on doit pratiquer une recherche du pivot
106
Chapitre 9. Résolution de systèmes d’équations linéaires
partiel, le pivot de l’étape k se trouve nécessairement dans l’une des lignes k ou k + 1 (matrice
tridiagonale). Il en résulte une décomposition PA = LU, où L est toujours bidiagonale inférieure,
alors que U est tridiagonale supérieure.
Une matrice n × n tridiagonale possède au plus 3n − 2 éléments non nuls, qui représentent, si
n est grand, une petite fraction des n2 éléments théoriques. Il est recommendé d’économiser de
la mémoire en rangeant ces éléments dans trois tableaux à une dimension. La discrétisation des
équations aux dérivées partielles fait souvent apparaître des matrices dites «creuses» comportant
très peu d’éléments différents de zéro. Il existe des programmes spécialisés pour les manipuler sans
encombrer la mémoire.
9.3.2
Matrice symétrique définie positive
Si A est symétrique, sa décomposition s’écrit : A = LLT . Je suppose en plus que A est
définie positive. Je rappelle deux définitions équivalentes : xT Ax > 0 quelque soit le vecteur
x ; toutes les sous-matrices principales ont des déterminants positifs). On montre alors que les
pivots de l’élimination de Gauss sont strictement positifs et donc que la factorisation LLT se
fait sans permutation (décomposition régulière de Cholesky). On détermine les éléments de L
(`ij = 0sij > i) par identification :
`211 = a11 > 0,
`11 `21 = a21 ,
2
`21 + `222 = a22
.......................
"
#
j−1
X
1
`i,j =
`ik `jk ,
aij −
`jj
k=1
#
"
j−1
X
1
`ik `jk
aij −
`i,j =
`jj
k=1
9.3.3
Variantes
J’ai montré que la matrice régulière A admet la factorisation LU en un produit de matrices
triangulaires, inférieure pour L à diagonale unitaire, supérieure pour U. Cette répartition des rôles
n’est pas la seule possible. On peut concevoir la décomposition A = L0 U0 où U0 est maintenant
triangulaire à diagonale unitaire, L0 étant simplement triangulaire ; un algorithme du à Doolittle
et très voisin des précédents permet d’obtenir L0 et U0 .
Plutôt que de favoriser l’un des facteurs grâce à la possession d’une diagonale unitaire, on peut
imposer que chaque facteur triangulaire présente des éléments diagonaux égaux à 1. On a alors :
A = LDU ,
`ii = uii = 1
où D est une matrice diagonale. Dans le cas particulier où A est symétrique, il vient :
A = LDLT
9.4
Méthodes itératives de résolution des systèmes linéaires
Les très grands systèmes linéaires posent un problème pratique : il peut être impossible de
caser en mémoire centrale l’ensemble des coefficients. D’autre part, on rencontre, surtout lorsque le
système linéaire provient de la discrétisation d’une équation aux dérivées partielles, une structure
particulière des coefficients : les éléments diagonaux sont plus grands que tous les autres. Dans
ces cas là, on peut utiliser avec profit des méthodes itératives de résolution, beaucoup moins
gourmandes en mémoire et plus rapides.
107
9.4. Méthodes itératives de résolution des systèmes linéaires
9.4.1
Méthode de Jacobi
Je cherche la solution de (9.1), avec aii 6= 0, 1 ≤ i ≤ n, en connaissant une approximation de
la solution : x[0] . Je vais utiliser une méthode d’approximations successives en traitant de façon
équivalente chaque coordonnée de x :
X
1
[k−1]
[k]
aij xj
) ; 1 ≤ i ≤ n.
(9.5)
xi =
(bi −
aii
j6=i
[k]
Le calcul de xi n’utilise que la ligne i de A : cette matrice peut donc être rangée sur disque et
lue à la demande.
Comme pour toute méthode d’itération, je dois me préoccuper d’un critère d’arrêt. On rencontre
couramment l’une des deux définitions classiques suivantes. Je définis le «résiduel» à l’itération k :
r[k] = b − Ax[k] .
Je peux choisir la condition de convergence
k r[k] k≤ ² k b k
, ² étant un seuil fixé à l’avance ou la condition :
k x[k] − x[k−1] k≤ ² k x[k−1] k .
L’algorithme (9.5) admet une représentation matricielle commode pour les analyses théoriques.
Je décompose A en une somme de trois matrices (rien à voir avec les L et U des paragraphes
précédents) :
A=D−L−U
où D est diagonale, E strictement triangulaire inférieure et F strictement triangulaire supérieure
(j’ai donc aii = dii ), `ii = uii = 0). J’introduis le vecteur δx[k] ≡ x[k+1] − x[k] . En utilisant les
relations de récurrence et la définition du vecteur résiduel, vous montrerez facilement que :
δx[k] = D−1 r[k]
d’où :
x[k+1] = D−1 (L + U)x[k] + D−1 b.
Exemple
Étant donné le système linéaire ci-dessous et le vecteur initial [0, 0]T :
3x + y = 2
−x + 2y = −2
ou
x = (1/3)(2 − y)
1
y = (x − 2)
2
je trouve la suite de solutions approchées suivante :
x
y
2/3
1
−1 −2/3
8/9
−1/2
5/6
−5/9
23/27
−7/12
31/36 139/162
−31/54 −41/72
qui converge effectivement mais lentement vers la solution exacte [6/7, −4/7]T .
108
Chapitre 9. Résolution de systèmes d’équations linéaires
un programme Scilab
Le code suivant résoud un système linéaire par la méthode itérative de Jacobi. La matrice des
coefficients est presque aléatoire, mais j’ai ajouté 2 à chaque élément diagonal pour être sûr de la
convergence ; le vecteur des seconds membres est arbiraire.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
// méthode de J a c o b i pour l e s s y s t e m e s l i n e a i r e s
s e u i l = 1 e −6; nitmax = 1 0 0 ;
n = 36;
// c o n s t r u c t i o n d ’ une m a t r i c e A a d i a g o n a l e dominante
A = rand ( n , n ) −0.5∗ ones ( n , n ) + 2∗ eye ( n , n ) ;
d = diag (A ) ;
// c o n s t r u c t i o n d e s s e c o n d membres ;
b = sin ( ( 1 : n)∗% p i /n ) ’ ;
// i n i t i a l i s a t i o n
x = ones (n , 1 ) ;
// r e s o l u t i o n
f o r i t = 1 : nitmax
s = b − A∗x ;
y = x + s ./d ;
i f max( abs ( y−x ) ) < s e u i l , break , end
x = y;
end
// a f f i c h a g e
x’
(A∗x − b ) ’
À chaque tour dans la boucle, x contient l’ancienne valeur x[n] et y contient la nouvelle valeur x[n+1]
Pn
[n]
du vecteur inconnu. Plutôt que d’utiliser directement (9.5), il est commode de calculer 1 ai,j xj
(une composante du produit Ax), qui contient un terme de trop et de compenser après (lignes 13
et 14).
La méthode de Jacobi converge lentement, mais je peux facilement modifier cet algorithme pour
le rendre plus rapide.
9.4.2
Méthode de Gauss-Seidel
[k+1]
[k]
[k]
L’algorithme de Jacobi me prescrit de calculer xi
en utilisant les valeurs x1 , x2 , . . .,
[k]
[k]
[k]
xi−1 , xi+1 , ...xn ; il semble que je pourrais gagner du temps ou de la précision, puisque je connais
[k+1]
[k+1]
[k+1]
déjà x1
, x2
, . . . , xi−1 , qui sont plus précises que les valeurs des mêmes variables à l’itération
précédente (k). C’est ce que fait l’algorithme de Gauss-Seidel. Les relations de récurrence s’écrivent :


i−1
n
X
X
1
[k+1]
[k]
bi −
xk+1
=
(9.6)
aij xj
−
aij xj 
i
aii
j=1
j=i+1
Ces équations sont peut-être plus faciles à programmer que celles qui découlent de la méthode de
[k]
Jacobi. En effet, il n’est pas nécessaire de conserver l’ensemble des valeurs xi pendant le calcul
[k+1]
des xi
: chaque nouvelle valeur remplace la précédente.
Je vous laisse le soin de montrer que l’équivalent matriciel de ces formules est :
x[k+1] = (D − L)−1 Ux[k] + (D − L)−1 b.
Exemple
Appliquant l’algorithme de Gauss-Seidel à l’exemple du paragraphe précédent, je trouve la suite
de valeurs :
109
9.4. Méthodes itératives de résolution des systèmes linéaires
x
y
2/3
-2/3
8/9
-5/9
23/27
-31/54
139/162
-185/324
Certains de ces nombres sont apparus lors du calcul précédent ; on observe toutefois que la convergence est beaucoup plus rapide.
une version en Scilab
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
// méthode de Gauss−S e i d e l pour l e s s y s t e m e s l i n e a i r e s
s e u i l = 1 e −6; nitmax = 3 0 ;
n = 16;
// c o n s t r u c t i o n d ’ une m a t r i c e A a d i a g o n a l e dominante
A = rand ( n , n ) −0.5∗ o n e s ( n , n ) + 2∗ eye ( n , n ) ;
d = d i a g (A ) ;
// c o n s t r u c t i o n d e s s e c o n d membres ;
b = s i n ( ( 1 : n)∗% p i /n ) ’ ;
// i n i t i a l i s a t i o n
x = ones (n , 1 ) ;
// r e s o l u t i o n
f o r i t = 1 : nitmax
for i = 1:n
s = A( i , : ) ∗ x ;
x ( i ) = x ( i ) + ( b ( i ) − s ) /A( i , i ) ;
end
i f max( abs ( y−x ) ) < s e u i l , break , end
y = x; it
end
x
A∗x − b
9.4.3
Méthode de surrelaxation
Cette variante de l’algorithme de Gauss-Seidel (elle peut utiliser Jacobi aussi, mais sans avanˆ [k+1] à
tage) procède comme suit. Connaissant un vecteur x[k] , je calcule un vecteur provisoire x
[k+1]
l’aide de l’algorithme (9.6), puis je définis le vecteur x
définitif comme :
x[k+1] = ωˆ
x[k+1] + (1 − ω)x[k] .
(9.7)
ω est un paramètre réel dont il faut optimiser la valeur pour chaque classe de problème. Le choix
ω = 1 me ramène à (9.6). On a toujours ω < 2, et l’expérience montre que la meilleure valeur de
ω est voisine de 1,7.
En Scilab
1
2
3
4
5
6
7
8
9
10
11
// méthode de s u r r e l a x a t i o n pour l e s s y s t e m e s l i n e a i r e s
s e u i l = 1 e −6; nitmax = 3 0 ;
n = 1 6 ; omg = 1 . 0 5 ;
// c o n s t r u c t i o n d ’ une m a t r i c e A a d i a g o n a l e dominante
A = rand ( n , n ) −0.5∗ ones ( n , n ) + 2∗ eye ( n , n ) ;
d = diag (A ) ;
// c o n s t r u c t i o n d e s s e c o n d membres ;
b = sin ( ( 1 : n)∗% p i /n ) ’ ;
// i n i t i a l i s a t i o n
x = ones (n , 1 ) ;
y = x;
110
Chapitre 9. Résolution de systèmes d’équations linéaires
12
13
14
15
16
17
18
19
20
21
22
// r e s o l u t i o n
f o r i t = 1 : nitmax
for i = 1:n
s = A( i , : ) ∗ x ;
x ( i ) = x ( i ) + omg ∗ ( b ( i ) − s ) /A( i , i ) ;
end
i f max( abs ( y−x ) ) < s e u i l , break , end
y = x; it
end
x
A∗x − b
111
Chapitre 10
Éléments propres
10.1
Introduction
Du point de vue théorique, le problème de la détermination des vecteurs propres et valeurs
propres d’une matrice est presque aussi bien connu que la résolution des systèmes linéaires. La
physique fournit un grand nombre de problèmes équivalents à la diagonalisation d’une matrice
symétrique ou hermitique. Je me limiterai essentiellement au cas des matrices réelles symétriques.
Je rappelle quelques propriétés des éléments propres d’une telle matrice.
J’appelle valeurs propres de la matrice carrée symétrique A les solutions de l’équation en λ :
det(A − λI) = 0
si I est la matrice identité. Si A et I sont de taille n × n, les valeurs propres sont donc solutions
de l’équation polynômiale de degré n :
(−1)n (λn − Cn−1 λn−1 + · · · − C1 λ − C0 ) = 0
appelée équation (ou polynôme) caractéristique. Dans le cas d’une matrice symétrique n × n,
l’équation (2) admet n racines réelles, distinctes ou non. Un certain nombre de méthodes anciennes
(Leverrier, Krylov) forment le polynôme caractéristique et déterminent ses zéros. Ces méthodes
sont abandonnées, car, en l’absence d’hypothèses supplémentaires sur A, elles sont lentes (calcul
des Ci ) et instables (recherche des racines). Par contre, ces deux opérations sont rapides pour
une matrice tridiagonale. Vous verrez que l’une des méthodes les plus performantes consiste à
«tridiagonaliser» A en conservant ses éléments propres, puis à calculer les racines de son polynôme
caractéristique.
Étant donné une matrice M orthogonale, je dis que la matrice A0 est semblable à A si A0 =
T
M AM . On a le théorème : A0 et A ont mêmes valeurs propres.
Le vecteur propre u associé à la valeur propre λ est défini par la relation :
Au = λu
Dans le cas particulier d’une matrice symétrique, les vecteurs propres (au nombre de n) peuvent
être choisis comme orthonormés : ils forment une base complète. Soit U la matrice dont les colonnes
sont les vecteurs propres. Les lectrices vérifieront sans peine que l’ensemble des n équations du type
(3) peut s’écrire :
AU = U Λ
si Λ désigne une matrice diagonale dont les seuls éléments non nuls sont les valeurs propres. De
par sa définition, U est orthogonale, U T = U −1 . En effet, l’élément i, j du produit U T U est le
produit scalaire de la ligne i de U T , soit le vecteur ligne uTi , par la colonne j de U , soit uj . Comme
112
Chapitre 10. Éléments propres
les vecteurs propres sont orthonormés, j’ai (U T U )i,j = δi,j ; autrement dit, ce produit de matrices
se réduit à la matrice unité. Finalement :
Λ = U T AU
ce qui traduit le théorème suivant. Une matrice symétrique peut toujours être diagonalisée au
moyen d’une similitude ; la matrice de transformation est orthogonale et ses colonnes forment un
jeu complet de vecteurs propres.
10.2
Méthode de la puissance n-ième et méthodes dérivées
10.2.1
Puissance n-ième
Il arrive parfois que l’on recherche uniquement la plus grande des valeurs propres. La méthode
de la puissance n-ième répond bien à ce besoin. L’algorithme est très simple. Ayant fait choix d’un
vecteur initial x(0) , je forme par récurrence :
x(n) = Axn−1 = An x(0) .
Le vecteur x(n) tend vers le vecteur propre associé à la plus grande valeur propre (en module) ;
(n)
(n−1)
appelons-la λ1 . Le rapport de deux composantes homologues de x(n) et x(n−1) , soit xk /xk
,
tend vers λ1 . La démonstration est facile dans le cas d’une matrice symétrique, bien que la méthode
qui vient d’être exposée soit plus générale. Soient u(i) , λi les éléments propres de A. Je peux
développer x(0) sur la base des u(i) :
X
x(0) =
ci u(i)
i
Appliquons A :
x(1) = Ax(0) =
X
ci Au(i) =
i
X
ci λi u(i)
i
puis A2 :
x(2) = Ax(1) =
X
ci λ2i u(i) .
i
Il est facile d’écrire le cas général si l’on se souvient de ce que Ak admet les mêmes vecteurs propres
que A et les λki comme valeurs propres :
X
X
(k)
ci (λi /λ1 )k u(i) .
x(k) =
ci λki u(i) = λk1 c1 u(1) + λ1
i=2
i
Comme λi /λ1 < 1, la propriété est démontrée.
Exemple.
Cherchons la plus grande valeur propre de
·
A=
2
1
1
2
¸
à partir du vecteur [1, 0]T . La suite des vecteurs itérés et les valeurs approchées de la valeur propre,
calculées à partir de la deuxième composante, sont :
k
x(k)
λ(k)
1
2
1
2
5
4
2,5
3
14
13
2,8
113
4
41
40
2,93
5
122
121
2,98
6
365
364
2,99
10.2. Méthode de la puissance n-ième et méthodes dérivées
Le programme ci-desous
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
// p u i s s a n c e n−ième
A = [1 ,2;3 ,1];
u = [ −1;0.1];
xset ( "window" , 0 ) , xbasc ( 0 )
xsetech ( [ 0 , 0 , 1 , 1 ] , [ − 1 . 1 , − 1 . 1 , 0 . 1 5 , 0 . 1 5 ] )
plot2d ( 0 , 0 , s t y l e = −1, f r a m e f l a g =0)
xarrows ( [ 0 , u ( 1 ) ] , [ 0 , u ( 2 ) ] , 0 . 0 5 )
xstring ( u ( 1 ) , u ( 2 ) − 0 . 1 , s t r i n g ( 0 ) )
for i = 1 : 8
u = A∗u ;
c o e f = max( abs ( u ) )
u = u/ c o e f
xarrows ( [ 0 , u ( 1 ) ] , [ 0 , u ( 2 ) ] , 0 . 0 5 , i +1)
xstring ( u ( 1 ) , u ( 2 ) − 0 . 1 , s t r i n g ( i ) )
end
a produit une représentation graphique de ces calculs Comme le montre l’exemple, il arrive que
Fig. 10.1 – Recherche d’un vecteur propre par la méthode de la puissance n-ième
1.2
45
3
1.0
2
0.8
0.6
1
0.4
0.2
0
0.0
−0.2
−0.2
0.0
0.2
0.4
0.6
0.8
1.0
1.2
certaines composantes de u(i) deviennent très grandes (ou très petites) au cours du calcul. Pour
(i)
éviter tout problème de dépassement de capacité, on normalise x(i) de telle façon que supm |xm | =
(i+1)
1, avant de calculer x
(normalisation au sens de la norme infinie). Le facteur de normalisation
est alors l’approximation de la valeur propre. Le
10.2.2
Puissance n-ième avec décalage
La rapidité de convergence de l’algorithme précédent dépend des rapports λi /λ1 . La convergence
sera lente s’il existe une autre valeur propre proche de λ1 . Il est possible d’accélérer la convergence,
en augmentant les différences entre valeurs propres. Il suffit de remarquer que A et A0 = A − sI
ont mêmes vecteurs propres (ces matrices commutent) et que leurs valeurs propres diffèrent par
une translation. Si u et λ sont éléments propres de A, alors :
(A − sI)u = Au − sIu = (λ − s)u
Ce procédé est utile dans le cas λ1 ∼
= −λ2 ; après changement d’origine, λ01 pourra être très différent
0
de λ2 .
114
Chapitre 10. Éléments propres
10.2.3
Puissance n-ième de l’inverse
Je peux, en principe, obtenir une estimation de la plus petite valeur propre de A, en module,
en multipliant n fois le vecteur x(0) par la matrice A−1 . Je vous laisse les lecteurs démontrer ce
résultat. Dans la pratique, on ne calcule pas x(n) = A−1 x(n−1) , mais on résout le système linéaire
Ax(n) = x(n−1) , ce que l’on peut faire rapidement en formant une fois pour toute la décomposition
LU de A. Cette méthode a pour mérite principal de servir d’introduction à l’algorithme suivant,
plus utile.
10.2.4
Puissance n-ième de l’inverse avec décalage
Considérons la matrice B = (A − sI)−1 ; quels sont ses éléments propres ? Si s ne coïncide
pas avec l’une des valeurs propres de A, B est régulière et commute avec A. Elle admet donc les
mêmes vecteurs propres. Soit u l’un de ces vecteurs ; il obéit à la relation Au = λu, ou encore
u = λA−1 u, ce qui montre que 1/λ est valeur propre de A−1 ; en combinant ce résultat avec les
propriétés de A − sI, je vois que 1/(λ − s) est valeur propre de B. Étant donné un vecteur initial
x(0) , je forme par récurrence :
x(k) = Bx(k−1) = B k x(0) = (A − sI)−k x(0) .
Développons x(0) selon les vecteurs propres de A, en appelant λm la valeur propre la plus proche
de s :


X
X µ λm − s ¶k
c
c
i
m
um +
x(k) =
u =
ci
ui 
k i
k
(λ
−
s)
(λ
−
s)
λ
−
s
i
m
i
i
i6=m
(k)
Comme |λm − s| < |λi − s|, le vecteur x
converge vers un vecteur proportionnel à u(m) . Ici
encore, il ne faut pas calculer les inverses des matrices, mais résoudre des systèmes linéaires,
comme (A − sI)x(k) = x(k−1) .
Cet algorithme peut me permettre de calculer toutes les valeurs propres de A. Il suffit de
balayer, à l’aide du paramètre s, l’intervalle où doivent se trouver les valeurs propres. Pour chaque
valeur de s, l’itération sur x converge vers le vecteur propre appartenant à la valeur propre la plus
proche de s ; par ailleurs, le rapport de deux coordonnées permet le calcul de cette valeur propre :
(k)
(k−1)
xj /xj
= 1/(λj − s).
En fait, la méthode s’avère peu pratique pour la recherche systématique des valeurs propres ;
elle est au contraire très commode pour déterminer les vecteurs propres, connaissant des valeurs
approchées des λi . Supposons en effet qu’une autre méthode, différente, m’ait fourni un nombre
λ0 , valeur approchée au millième de λm . Si je choisis s = λ0 , l’algorithme précédent va converger
en quelques itérations vers le vecteur propre associé à λm , à condition que toutes les autres valeurs
propres diffèrent de λm par plus de quelques millièmes.
Exemple. Au §2.1, j’ai trouvé une valeur approchée de la plus grande valeur propre d’une matrice
A, soit s = 2, 99. Cherchons le vecteur propre correspondant à partir de x(0) = (1, 0)T . Il me faut
résoudre le système :
−1, 01u + v = 1,
u − 1, 01v = 0,
dont la solution est [−50, 2487; −49, 7512]T ou [1; 0, 990099]T après normalisation. Une autre itération donnerait le vecteur [1; 0, 99995]T exact à 5 10−5 près.
10.3
Méthode de Jacobi
Contrairement aux algorithmes précédents, la méthode de Jacobi permet le calcul de tous les
éléments propres simultanément. Il s’agit d’effectuer une série de similitudes qui vont amener la
matrice carrée symétrique A progressivement à la forme diagonale, tout en préservant ses valeurs
propres.
115
10.3. Méthode de Jacobi
10.3.1
Principe
Le principe de la méthode est facile à comprendre sur le cas à deux dimensions, et c’est par là
que je commence. Soit la matrice :
·
¸
a11 a12
A=
a12 a22
que je souhaite diagonaliser par une similitude A0 = RT AR, où R est une matrice orthogonale
qui s’écrit :
·
¸ ·
¸
cos α sin α
c s
R=
=
.
− sin α cos α
−s c
Un calcul élémentaire montre que :
·
a11 c2 − 2a12 sc + a22 s2
A0 =
a12 (c2 − s2 ) + (a22 − a11 )cs
a12 (c2 − s2 ) + (a22 − a11 )cs
a11 s2 + 2a12 cs + a22 c2
¸
.
Je peux alors diagonaliser A en choisissant α selon la relation :
tg2α = 2a12 /(a22 − a11 ).
Ces petits calculs admettent une interprétation géométrique simple. Soit x = (x1 , x2 ) un vecteur
de <2 ; à la matrice A, j’associe la forme quadratique xT Ax et l’équation :
xT Ax = 1 = a11 x21 + (a12 + a21 )x1 x2 + a22 x22
qui représente une conique ; je suppose, pour fixer les idées, que cette courbe est une ellipse.
J’effectue maintenant le changement de repère défini par :
x = Ry.
Il s’agit d’une rotation des axes d’angle α. Je fais le changement de variables dans l’équation de
l’ellipse :
(Ry)T ARy = yRT ARy = yA0 y = 1
La nouvelle équation de la conique est définie par la nouvelle matrice. Si A0 est diagonale parce
que j’ai fait un bon choix pour α, l’équation s’écrit :
a011 y12 + a022 y22 = 1.
Une rotation de −π/3 amène les axes rouges sur les axes bleus. On dit que la conique «a été
ramenée à ses axes principaux» ; les axes principaux sont aussi les axes de symétrie de l’ellipse.
Les termes «croisés» ou «rectangles» ont disparu de l’équation. La généralisation de ce procédé à
n dimensions constitue l’algorithme de Jacobi.
10.3.2
Méthode de Jacobi
Je vais appliquer à la matrice A une suite de similitudes A → A(1) 1 → A(2) 2 → · · · →
A , avec A(i) = Ri−1 A(i−1) Ri de telle manière que A(n) tende vers une matrice diagonale D
d’éléments diagonaux λi . Il est facile de comprendre pourquoi la diagonalisation n’est qu’approchée. A l’aide d’une rotation des axes du plan (x1 , x2 ), je peux annuler l’élément a12 comme au
paragraphe précédent. Mais, lorsque que j’applique une nouvelle similitude pour faire disparaître
a13 , tous les éléments de la ligne 1, en particulier le zéro que je viens de créer en a12 , sont modifiés.
Ce n’est que progressivement que la "substance" de la matrice va se concentrer sur la diagonale. A
(n)
116
Chapitre 10. Éléments propres
Fig. 10.2 – Une ellipse, avec un repère quelconque en rouge et les axes principaux en bleu
x2
y2
x1
y1
est symétrique, réelle. Le passage de A(i) (éléments ars ) à A(i+1) (d’éléments a0rs ) fait intervenir
la matrice orthogonale Rjk qui vaut (en posant c = cos θjk et s = sin θjk ) :

Rj,k








=








1
0
0
..
.
0
..
.
..
.
..
.
0
0
···
···
··· ··· 0
···









c
s



1



−s
c


..
. 0 
··· ··· ··· ··· 1
···
1
···
···
0
..
.
..
.
..
.
..
.
Rjk représente une rotation des axes dans le sous-espace (j, k). Seules les colonnes j et k et les
lignes j et k de A(i+1) diffèrent de celles de A(i) . En calculant d’abord AR, puis RT AR, vous
montrerez que les équations de transformation s’écrivent :
a0rs = ars , r, s 6= j, k,
= carj − sark , r 6= j, k,
a0rj = a0jr
a0rk = a0kr = sarj + cark ,
r 6= j, k,
a0jj = c2 ajj + s2 akk − 2csajk ,
a0jk = a0kj = cs(ajj − akk ) + (c2 − s2 )ajk ,
a0kk = s2 ajj + c2 akk + 2csajk .
L’angle de rotation est défini par la condition a0jk = 0
tg 2θjk = (akk − ajj )/(2ajk ).
En pratique, on effectue les calculs sur une moitié de la matrice, puisque la similitude respecte la
symétrie. On ne calcule pas non plus a0jk , dont on sait qu’il est nul.
Je peux donner une indication sur la convergence de la méthode. Nous définissons les normes
117
10.3. Méthode de Jacobi
extradiagonales de A et de A0 par les relations :
X
X
|ajk |2 ; S 02 =
|a0jk |2 .
S2 =
j6=k
j6=k
a0jk
En remplaçant les
par leurs expressions, on montre que S 0 < S, si bien que la suite des
S(A(j) ), positive décroissante, converge. Il est un peu plus difficile de montrer que les S(A(j) )
tendent vers zéro, à condition que les éléments à éliminer soient choisis dans l’ordre "lexicographique" a12 , a13 , . . . , a1n , a23 , . . . , a2n , . . . On arrête le calcul quand sup |aij | < seuil.
Lorsque la convergence est atteinte, la matrice est réputée diagonale et QT AQ = D, avec
R1 R2 · · · Rn = Q. Les colonnes de Q sont les vecteurs propres et nous intéressent. Il serait ruineux
de conserver les matrices Ri pour les multiplier à la fin. Je procède en fait par récurrence, en posant
Qk = R1 R2 · · · Rk , k < n
et
Qk+1 = Qk Rk+1
. Chaque fois que je définis les éléments d’une matrice R, j’en profite pour former la matrice Qk+1
0
(éléments qrs
) à partir de Qk (éléments qrs ) :
0
qrs
= qrs , r, s 6= j, k,
0
qrj = cqrj + sqrk , r 6= j, k,
0
qrk
= −sqrj + cqrk , r =
6 j, k;
Dès que l’ordre de la matrice dépasse une dizaine, la méthode de Jacobi est moins rapide que
la réduction de la matrice à la forme tridiagonale, suivie d’un calcul de valeurs propres. Cette
remarque est d’autant plus pertinente que A a la forme d’une matrice bande plus ramassée : la
méthode de Jacobi détruit cette structure.
Exemple.
Je me propose de diagonaliser la matrice symétrique


1.0 1.
0.5
A = A0 =  1.0 1. 0.25 
0.5 0.25 2.0
Je calcule d’abord le carré de la norme diagonale -->sum(A.*A) = 8.625 et le carré de la norme
complète de A : -->trace(A.*A) = 6.0 Pour annuler l’élément a12 , il faut effectuer une première
rotation dans le sous-espace (1,2). Comme a22 = a11 , j’ai 2θ = π/2, θ = π/4, si bien que


.7071068 .7071068 0.
R1 =  −.7071068 .7071068 0. 
0.
0.
1.
et

0.
0.
A1 = R1T AR1 = 
.1767767

0.
.1767767
2.
.5303301 
.5303301
2.
La norme au carré reste constante, sum(A1.*A1) = 8.625, alors que la somme des carrés des
éléments diagonaux augmente : trace(A1.*A1) = 8. La deuxième rotation, destinée à annuler
le plus grand élément extradiagonal, soit a123 , est encore particulière, θ = π/4 et


1.
0.
0.
R2 =  0. .7071068 .7071068 
0. −.7071068 .7071068
118
Chapitre 10. Éléments propres


0.
−.125
.125
1.4696699
2.220E − 16 
A2 = R2T ∗ A1 ∗ R2 =  −.125
.125 2.220E − 16
2.5303301
Les tous petits nombres a223 = a232 sont dûs à des erreurs d’arrondi ; je fait le ménage pour les faire
disparaître
A2 = clean(A2) = !
0.
! - .125
!
.125
-
.125
1.4696699
0.
.125
!
0.
!
2.5303301 !
Je surveille le carré de la norme complète, sum(A2.*A2) = 8.625 et le carré de la norme diagonale,
trace(A2.*A2) = 8.5625. Vous remarquez que les éléments précédemment annulés ont tendance
à «repousser», bien que moins vigoureusement.
La troisième rotation, dans le sous-espace (1,2), vise à éliminer a212 . Je trouve tg 2θ = 2a212 /(a222 −
2
a11 ) = −0.1701062, d’où la matrice de rotation


.9964533 −.0841471 0.
R3 =  .0841471 .9964533 0. 
0.
0.
1.
et la matrice A3 , débarrassée d’éléments inférieurs à 10−16 :


−.0105558
0.
.1245567
0.
1.4802257 −.0105184 
A3 = 
.1245567 −.0105184 2.5303301
Les éléments diagonaux se renforcent : trace(A3.*A3) = 8.59375.
La quatrième rotation aura lieu dans le sous-espace (1,3), avec tg 2θ = 0.0980419 ou θ =
0.0488648 rd. La matrice de rotation s’écrit


.9988064 0. .0488453

0.
1.
0.
R4 = 
−.0488453 0. .9988064
et permet d’obtenir

−.0166471
A4 =  .0005138
0.
.0005138
1.4802257
−.0105058

0.
−.0105058 
2.5364214
Mon critère de convergence est atteint : j’arrête l’itération. Le carré de la norme diagonale vaut
maintenant 8.6247788 (à 3 10−4 du total). Les vecteurs propres sont les colonnes de la matrice de
similitude globale ; comme je n’ai à manipuler que 4 petites matrices, je forme R directement


.7213585
.4387257 .5358747
R = R1 ∗ R2 ∗ R3 ∗ R4 =  −.6861572 .5577276 .4670419 
−.0939688 −.7045989 .7033564
Cette matrice est orthogonale aux erreurs d’arrondi près, comme vous le vérifierez en formant
RT ∗ R. Je vous recommande aussi d’effectuer le produit de A par une colonne de R, pour vérifier
que l’on obtient bien un vecteur proportionnel à cette colonne et à la valeur propre correspondante.
Enfin, je peux demander à Scilab de faire les calculs directement, avec une tolérance de l’ordre
de 10−16 :
-->[D,X] = bdiag(A)
X =
!
.7212071 - .5314834
-
.4442811 !
119
10.4. Réduction à la forme tridiagonale
! - .6863493
! - .0937280
D =
! - .0166473
!
0.
!
0.
-
.4614734
.7103293
0.
2.5365259
0.
-
.5621094 !
.6976011 !
0.
!
0.
!
1.4801214 !
L’erreur encourue sur les valeurs propres après 4 itérations de l’algorithme de Jacobi n’excède pas
10−4 . Les vecteurs propres sont nettement moins précis. C’est toujours le cas pour l’algorithme de
Jacobi. Une dernière remarque : l’ordre dans lequel apparaissent les valeurs propres et les vecteurs
propres associés est arbitraire, de même que le signe des vecteurs propres.
10.4
Réduction à la forme tridiagonale
Il est avantageux d’abandonner l’objectif de l’algorithme de Jacobi (diagonaliser une matrice
symétrique par une suite convergente de similitudes) pour un objectif plus restreint : amener
la matrice réelle symétrique A à la forme tridiagonale. En effet, la détermination des éléments
propres d’une matrice tridiagonale est très rapide. D’autre part, la transformation de A en matrice
tridiagonale nécessite, grâce à l’algorithme de Householder, un nombre fini d’opérations.
10.4.1
Matrice de Householder
L’algorithme de Householder se comprend facilement à partir de sa représentation géométrique
dans l’espace à trois dimensions. Soient un point M et un plan (P), contenant l’origine (mais pas
M) et normal au vecteur unitaire n
ˆ . Je cherche à construire le point M’ qui se déduit de M par une
symétrie orthogonale par rapport à (P). La droite passant par M et perpendiculaire à (P) perce ce
−−→
plan en K ; elle passe aussi par M’. Le vecteur KM est parallèle à n
ˆ ; sa longueur est celle de la
−−−→
−−→
−−→
projection orthogonale de OM sur n
ˆ ; autrement dit, KM = (ˆ
n · OM )ˆ
n. Par symétrie, KM 0 est
−
−
−
→
−
−
−
→
−−→
−−→
−−→ −−→ −−→
−−→
l’opposé de KM . Je peux relier M’ à M par OM 0 = OM +M M 0 = OM −2KM = OM −2(ˆ
n·OM )ˆ
n.
0
Il est clair que OM = OM , la symétrie préservant les longueurs.
Lorsque je représente les vecteurs par des matrices colonne, les relations précédentes deviennent
−−−→
−−→
OM = x, OM 0 = x0 et x0 = x − 2(ˆ
nT x)ˆ
n = x − 2ˆ
nn
ˆ T x = (I − 2ˆ
nn
ˆ T )x, les dernières formes
étant rendues possibles par l’associativité des produits.
Ce raisonnement se généralise sans peine à l’espace à n dimensions, même si la représentation
géométrique devient plus difficile. Soit w un vecteur unitaire de <n : wT w = 1. Je définis une
matrice :
P = 1 − 2wwT .
Cette matrice est symétrique : P T = P parce que le transposé d’un produit est égal au produit
des transposées dans l’ordre inverse. Elle est aussi orthogonale :
P T P = P P = (I − 2wwT )(I − 2wwT )
= I − 2wwT − 2wwT + 4wwT wwT = I.
et donc idempotente P 2 = I. Si deux vecteurs x, y satisfont à la relation :
y = P x = x − 2(wwT x),
alors :
y T y = xT P T P x = xT x.
Je m’intéresse maintenant à la réciproque du cas précédent :je voudrais déterminer un vecteur w
(et donc une matrice P ) tel qu’un x donné soit transformé par P en un vecteur donné à l’avance
120
Chapitre 10. Éléments propres
et même, plus précisément, en un multiple du premier vecteur de la base canonique
P x = ke1 .
D’après les relations précédentes, il apparaît que |k|2 =k x k2 = xT x ≡ L2 et k = ±L. De plus,
d’après la définition de P x, x − ke1 = 2wwT x = 2(wT x)w : le vecteur w doit être proportionnel
à x − ke1 . Comme il doit être en plus normalisé, je peux écrire
w=
De plus
x − ke1
k x − ke1 k
k x − ke1 k=k x ± Le1 k= [(x1 ± L)2 + x22 + .... + x2n ]1/2 .
On montre qu’il vaut mieux choisir le signe moins (pour éviter des erreurs d’arrondi), si bien que :
|x1 − k|2 = |x1 + L|2 = L2 + 2L|x1 | + x21 .
Il s’en suit que : k x − ke1 k2 = 2L2 + 2L|x1 |. On peut écrire, sans normaliser le vecteur w :
P = 1 − βuuT
avec : L =k x k, k = −L, u = x − ke1 = [x1 + L, x2 , . . . , xn ]T , β = 1/L(L + x1 ).
Exemple. Soit le vecteur x = [1, −2, 3, 1, −1]T dont la norme est L = 4. Le vecteur u vaut
[5, −2, 3, 1, −1]T et β = 1/20. On trouve alors :


−5 10 −15 −5 5
 10
16
6
2 −2 

1 
 −15 6
11
−3
3 
P =


20 
−5
2
−3 19
1 
5
−2
3
1
19
et on vérifie que P x = [−4, 0, 0, 0, 0]T .
10.4.2
Tridiagonalisation
Je vais utiliser des matrices de Householder comme P pour amener la matrice réelle symétrique
A à la forme tridiagonale, à l’aide d’une série de similitudes :
T
A(i) = Q(i) A(i−1) Qi .
Le premier produit (prémultiplication qui agit sur les colonnes), QT A, doit laisser invariant a11 et
doit transformer le vecteur [a21 , a31 , . . . , an1 ]T en [k, 0, 0, . . .]T , un multiple du premier vecteur de
la base canonique de <n−1 . Il faut donc faire agir une matrice de Householder Pn−1 de dimension
n − 1 ; celle-ci sera insérée dans une matrice d’ordre n ayant la structure
¸
·
1 0...0
Q=
0 Pn−1
Le deuxième produit (QT A)Q (postmultiplication agissant sur les lignes) fera de même pour la
première ligne de A : a11 invariant et [a12 , a13 , . . . , a1n ] transformé en [k, 0, . . . , 0].
Vous imaginez sans peine la suite de l’itération : à l’aide d’une matrice de Householder n − 2 ×
n − 2, je forme une nouvelle matrice Q, d’ordre n − 1, dont la mission sera d’annuler les éléments
a42 , . . . , an2 et a24 , . . . , a2n (ce sont les mêmes). Au bout de n − 2 similitudes, la matrice sera
exactement sous forme tridiagonale : cet algorithme est plus compliqué que celui de Jacobi, mais
il aboutit au résultat cherché en un nombre fini d’opérations.
Il faudra, en principe, garder les matrices Qi pour le calcul des vecteurs propres. Si y est un
vecteur propre de An−2 , x = Q1 Q2 · · · Qn−2 y est vecteur propre de A. En pratique, le produit
des Q est accumulé au fur et à mesure.
121
10.4. Réduction à la forme tridiagonale
Exemple
Je vais tridiagonaliser la matrice qui m’a déjà servi à illustrer la méthode de Jacobi :


1. 1. .5
A =  1. 1. .25 
.5 .25 2.
Le bas de la première colonne constitue le vecteur à traiter
·
¸
1.
xx = A(2 : 3, 1) =
.
.5
Je calcule successivement k
= sqrt(x’*x) = 1.118034,
·
¸
−.1180340
0
w = x − k ∗ [10] =
,
.5
que je normalise
·
w = w/sqrt(w0 ∗ w) =
J’en déduit
·
−.2297529
.9732490
¸
.
.8944272 .4472136
.4472136 −.8944272
P = eye(2, 2) − 2 ∗ w ∗ w0 =
¸
.
Je vérifie ce premier résultat
·
P ∗ A(2 : 3, 1) = P x =
1.118034
2.776E − 16
¸
.
Je construit la matrice Q avant de tridiagonaliser :

Q = [1 0 0; 0 P (1, 1) P (1, 2); 0

1.
0.
0.
P (2, 1) P (2, 2)] =  0. .8944272 .4472136  .
0. .4472136 −.8944272
Pour une matrice 3 × 3, il n’y a qu’une étape de tridiagonalisation :


1.
1.118034
0.
1.4
−.55  .
A1 = clean(A1) =  1.118034
0.
−.55
1.6
Quelques vérifications élémentaires : trace(A1) = 4. = trace(A) et det(A1) = -.0625 = det(A).
10.4.3
Calcul des valeurs propres
Soit J une matrice tridiagonale symétrique réelle d’ordre n :




J =


δ1
γ2
0
..
.
γ2
δ2
γ3
0
γ3
δ4
..
.
122
···
···
γ4
..
.
0
0
···
γn
δn




.


Chapitre 10. Éléments propres
Nous supposons les γi tous différents de zéro. Nous pouvons former facilement le polynôme
caractéristique de J , en procédant par récurrence. Définissons en effet la matrice partielle :


δ1 γ2 0 · · ·
 γ2 δ1 γ3 · · · 


··· 
Ji = 
 ···


γi 
γi δi
et
pi (x) = det[Ji − λI].
En développant ce déterminant en fonction des éléments de la dernière colonne, je trouve les
relations :
p0 (x) = 1; p1 (x) = δ1 − x;
pi (x) = (δi − x)pi−1 (x) − γi2 pi−2 (x).
Toute méthode efficace de recherche des zéros d’un polynôme est maintenant applicable au
calcul des valeurs propres (les racines de pn ) ; la méthode de bissection est stable et commode. On
peut aussi utiliser l’algorithme de Newton, en calculant la dérivée de pn à l’aide de la récurrence :
p00 (x) = 0; p01 (x) = −1,
p0i (x) = −pi−1 (x) + (δi − x)p0i−1 (x) − δi2 p0i−2 (x).
10.5
Matrices hermitiques
On rencontre souvent , en physique, des matrices hermitiques : comment chercher leurs éléments
propres ? La méthode de Householder peut s’étendre à des matrices complexes, mais la programmation en Pascal est pénible, puisque ce langage ignore le TYPE complexe et que l’on est obligé
de réécrire toutes les opérations arithmétiques (ce ne serait pas le cas en FORTRAN ou en C). Une
autre méthode consiste à séparer partie réelle et partie imaginaire du problème de valeurs propres.
Je cherche des solutions de :
Ax = λx,
où A est hermitique et λ est réel. Je pose A = A0 + i00 , x = x0 + ix00 . L’hermiticité de A impose
la symétrie de A0 et l’antisymétrie de A00 ( A00T = −A00 ). En séparant partie réelle et partie
imaginaire :
A0 x0 − A00 x00 = λx0 ,
A00 x0 + A0 x00 = λx00 .
Ces relations peuvent être considérées comme le développement par blocs de l’équation :
·
¸· 0 ¸
· 0 ¸
A0 −A00
x
x
=λ
.
A00
A0
x00
x00
J’ai ainsi remplacé un problème n × n complexe en un problème 2n × 2n réel. Le nombre de valeurs
propres a-t-il doublé pour autant ?
123
Chapitre 11
Traitement de données
expérimentales
11.1
Introduction
Chaque fois que je cherche à mesurer pratiquement une grandeur, j’obtiens un résultat plus
ou moins éloigné de la "vraie" valeur. En répétant l’expérience, en améliorant la technique, la
méthode et les instruments de mesure, j’ai l’espoir (souvent vérifié) que la part d’erreur va diminuer
et que les résultats vont s’approcher asymptotiquement d’une estimation raisonnable et sûre. Des
considérations de ce genre s’appliquent à toute activité et en particulier aux mesures physiques,
qui sont toujours entachées d’erreurs et d’incertitudes, lesquelles doivent être réduites par des
perfectionnements de la technique et aussi estimées pour établir la validité des résultats.
Il est commode d’établir une classification des erreurs qui guettent la personne qui effectue des
mesures. On distingue ainsi les erreurs systématiques, qui découlent par exemple d’un mauvais
étalonnage d’un instrument ou d’un biais de l’observateur. Si, pour prévoir l’issue d’un prochain
scrutin présidentiel, je n’interrogeais que des personnes de sexe masculin, d’âge supérieur à 50
ans et dont les revenus sont supérieurs à 300 000 F/an, j’aboutirais à une prédiction « biaisée»,
entachée d’une erreur de méthode. De même la mesure des dimensions d’une pièce avec une règle
tordue, la mesure précise d’une masse sans tenir compte de la poussée d’Archimède de l’air...
D’autre part, malgré la bonne volonté de la personne chargée des mesures, il peut s’introduire
des erreurs non reproductibles, aléatoires. C’est par exemple le cas lorsque la sensibilité de l’appareil
est insuffisante et que le signal cherché est accompagné de « bruit ». Les erreurs aléatoires affectent
la précision de la mesure : plus elles sont importantes, plus les mesures sont dispersées. Les erreurs
systématiques affectent la justesse du résultat.
Si la dispersion se détecte aisément, le biais est moins visible ; en toute rigueur, il faudrait, pour
le mettre en évidence, disposer d’une mesure juste et indépendante de la quantité en question. On
augmente la précision d’une expérience en répétant celle-ci plusieurs fois et en retenant la moyenne
des résultats individuels. On améliore la justesse en analysant avec soin la mesure et en cherchant
toutes les causes d’erreurs possibles.
Dans les paragraphes qui suivent, je considérerais a priori que je dispose de mesures parfaitement
justes, seulement affectées d’erreurs aléatoires. Cette situation permet de faire des prédictions assez
simplement. Le résultat d’une mesure est considéré comme le résultat du tirage d’une variable
aléatoire, superposition de la valeur "vraie" (non fluctuante ou certaine) et de l’erreur ; je supposerai
que les erreurs sont additives, c’est-à-dire qu’un résultat Y est la somme de la valeur vraie inconnue
s et d’une erreur ² : Y = s + ².
Comme ² est réputée aléatoire, je suis conduit à considérer les lois de probabilités les plus
fréquentes qui peuvent caractériser une grandeur aléatoire. Une mesure physique est rarement
124
Chapitre 11. Traitement de données expérimentales
utilisée seule ; je chercherai souvent à tirer parti d’une série de résultats, pour déterminer les
paramètres qui définissent un modèle théorique. Quelle est l’influence des erreurs de mesures sur
la précision de mes connaissances des paramètres ? Je donnerai quelques éléments de réponse à la
fin du chapitre.
11.2
11.2.1
Probabilités
Variables discrètes
Je suppose que les lecteurs ont des connaissances élémentaires en théorie des probabilités et je
ne ferai que rappeler quelques définitions. Je commence par le cas de grandeurs aléatoires discrètes,
qui ne prennent que des valeurs entières ou équivalentes à des entiers (pile ou face, lancement d’un
dé, tirage du loto). Les différents résultats possibles d’un tirage ou d’une épreuve, Xi , sont repérés
par l’indice i, 1 ≤ i ≤ n. Soit pi la probabilité du résultat i. Ces grandeurs sont normalisées, en ce
sens que
n
X
pi = 1.
1
La valeur moyenne d’une grandeur aléatoire X est notée < X > ou µ ; on a :
< X >≡
n
X
pi Xi .
(11.1)
1
Un autre paramètre important est l’écart type σ tel que :
σ 2 ≡< (X− < X >)2 >;
(11.2)
σ 2 est appelée la variance de X.
Il arrive souvent que l’on sache que tous les résultats d’une épreuve sont également probables
(lancement d’un dé équilibré par exemple). La probabilité d’un événement complexe est alors
proportionnelle au nombre d’événements élémentaires qui le compose (exemple : faire apparaître
un nombre pair en lançant un dé a une probabilité de 3/6). On traduit souvent ce fait en disant que
la probabilité d’un événement composé est le rapport du nombre de cas «favorables» au nombre
de cas total.
11.2.2
Variables continues
Ces définitions prennent une forme un peu différente lorsque la quantité X est une grandeur
réelle, continue, définie dans un intervalle fini ou non. Il est commode d’introduire la fonction de
répartition de X, qui est la probabilité d’observer une valeur de X inférieure ou égale à x :
F (x) = P roba(X ≤ x)
et la densité de probabilité de X qui est la dérivée de la fonction précédente :
f (x) = F 0 (x).
On l’interprète comme la probabilité de trouver X dans un petit intervalle :
f (x)dx = P roba(x ≤ X ≤ x + dx).
125
11.3. Lois de probabilité
1.2
1.0
0.8
0.6
P
0.4
P
0.2
0
0
1
2
3
4
5
6
7
8
9
10
La figure montre les deux fonctions F et F 0 = f et la représentation géométrique de la probabilité de trouver X dans l’intervalle [5,3..6,4]. La densité de probabilité est normalisée :
Z
f (x)dx = 1,
ce qui implique que la fonction de répartition F varie de 0 à 1 d’une extrémité à l’autre de l’intervalle
de définition. La valeur moyenne et l’écart type sont alors définis comme :
Z
< x >≡ xf (x)dx,
(11.3)
Z
σ 2 ≡ (x− < x >)2 f (x)dx,
(11.4)
les intégrales étant étendues à tout le domaine permis de x.
11.3
11.3.1
Lois de probabilité
Loi Binomiale
Soit une épreuve aléatoire n’ayant que deux résultats possibles : A et B ; si A ne se réalise
pas, il y aura réalisation de l’événement complémentaire B (événements mutuellement exclusifs).
Soit p la probabilité de A, et donc q = 1 − p celle de B. Procédons à n épreuves consécutives
et indépendantes. Je peux définir une variable aléatoire à valeurs entières X égale au nombre
d’apparitions du résultat A sur l’ensemble des n épreuves. La probabilité pour que A se réalise
exactement k fois (et donc B n − k fois), sans tenir compte de l’ordre des événements, s’écrit :
P (X = k) ≡ b(k; n, p) = Cnk pk q n−k .
(11.5)
Cette loi de probabilité est appelée loi binomiale, ou de Bernouilli. Le maximum de b(k; n, p)
est atteint approximativement pour k = np ≡ km . On montre aussi que pour la loi binomiale :
< k >= np ;
126
σ=
√
npq.
(11.6)
Chapitre 11. Traitement de données expérimentales
11.3.2
Loi de Poisson
Lorsque la probabilité p de A est faible et que n est assez grand, de telle sorte que λ ≡ np reste
moyen, la loi binomiale tend vers une forme limite, connue sous le nom de loi de Poisson. J’essaie
de rendre plausible le passage d’une loi à l’autre, par le raisonnement suivant. Pour k = 0, j’ai
b(0; n, p) = (1 − p)n = (1 −
λ n
) ' e−λ .
n
De plus, je déduis de la définition de b(k; n, p) la relation
λ − (k − 1)p
λ
b(k; n, p)
=
' .
b(k − 1; n, p)
k(1 − p)
k
Cette relation de récurrence me permet de calculer successivement
b(1; n, p) = λe−λ ,
b(2; n, p) =
λ2 −λ
e
2
et ainsi de suite. Je note p(k; λ) cette valeur approchée de b(k; n, p) : c’est la loi de Poisson, laquelle
s’écrit en général
λk
(11.7)
p(k; λ) = e−λ .
k!
On montre que < k >= λ et que l’écart-type obéit à σ 2 =< k >. Cette loi de probabilité intervient
dans tous les problèmes de comptage en radioactivité comme en microbiologie.
11.3.3
Loi normale ou de Gauss
Lorsque le nombre d’épreuves n et le nombre de «succès» k deviennent grands (en pratique
supérieurs à 10), la loi binomiale tend vers la loi de Gauss. Pour le voir, il est commode de faire,
dans b(k; n, p), un changement de repère tel que le maximum de b(k) soit à l’origine ; j’ai dit que
ce maximum avait lieu pour k ' np =< k >. Il faut donc choisir comme nouvelle variable l’écart à
la moyenne x = k− < k >. De plus, lorsque
n et k sont grands, je peux approcher les factorielles
√
par la formule de Stirling : n! = nn e−n 2πn. Il vient alors
µ
¶
µ
¶
1
x2
1
x2
b(x; n, p) ' √
exp −
= √ exp − 2 ,
2npq
2σ
2πnpq
σ 2π
√
x2
en introduisant l’écart-type σ = npq ; J’ai supposé que n et k étaient grands ; la quantité 2σ
2
varie donc très peu lorsque k augmente d’une unité et je vais pouvoir la considérer comme une
variable continue.
Je cherche la probabilité pour que la variable aléatoire X soit inférieure ou égale à x. Cet
événement se produit si X = x − 1 ou si X = x − 2,. . . si bien que la fonction de répartition de X
s’écrit
µ
¶
x
X
1
x02
√ exp − 2 .
F (x) =
2σ
σ 2π
Comme les valeurs de x0 sont très serrées, je peux remplacer cette somme par une intégrale
µ
¶
Z x
x02
1
√ exp − 2 dx0 .
F (x) =
2σ
σ 2π
La fonction exponentielle décroît très rapidement lorsque x0 devient supérieur à quelque fois σ ; je ne
commet pratiquement pas d’erreur en calculant l’intégrale depuis −∞. La fonction correspondante
127
11.3. Lois de probabilité
est considérée comme la fonction de répartition de la loi de Gauss-Laplace. Plus généralement,
celle-ci est définie par
¸
·
Z x
1
(x0 − µ)2
√
N (x; µ, σ) ≡
exp −
.
(11.8)
2σ 2
σ 2π −∞
La probabilité pour que X soit compris entre x et x + dx est proportionnelle à la densité de
probabilité n(x) = N 0 (x) :
¸
·
1
(x − µ)2
dx.
n(x)dx = √ exp −
(11.9)
2σ 2
σ 2π
Il est commode d’introduire la loi normale réduite (ou standard) pour laquelle σ = 1 et < x >= 0,
représentée ci-dessous.
1.2
1.0
0.8
0.6
0.4
0.2
0
−4
−3
−2
−1
0
1
2
3
4
Vous pouvez maintenant oublier l’origine discontinue de la variable x et la considérer comme
une variable continue définie sur tout l’axe réel. Vous pourrez montrer directement (à l’aide des
formules 11.3) que, comme on pouvait s’y attendre, la moyenne de X est µ et que son écart type
est σ.
11.3.4
Loi du chi-deux ou de Pearson
Si X1 , X2 , . . . , Xn sont n variables aléatoires indépendantes,
Pchacune distribuée selon la même
loi normale de moyenne µ et d’écart type σ, alors la quantité (Xi − µ)2 /σ 2 P
est distribuée selon
2
une
loi
dite
«
du
χ
(prononcez
qui-deux)
à
n
degrés
de
liberté
».
Si
<
X
>=
Xi /n, la variable
P
(Xi − < X >)2 /σ 2 est distribuée comme le χ2 à n − 1 degrés de liberté.
Une variable aléatoire X est distribuée comme le chi-carré (ou comme le chi-deux) à n degrés
de liberté si sa densité de probabilité est :
xn/2−1 e−x/2
.
2n/2 Γ(n/2)
f (x, n) =
La « fonction gamma », Γ(x), est l’intégrale :
Z
Γ(x) =
∞
tx−1 e−t dt.
0
128
(11.10)
Chapitre 11. Traitement de données expérimentales
Elle obéit à la relation de récurrence Γ(x + 1) = xΓ(x) et, de plus, Γ(1/2) =
√
π.
0.20
0.18
0.16
0.14
0.12
0.10
0.08
0.06
0.04
0.02
0
0
2
4
6
8
10
12
14
16
18
20
La figure montre trois versions de la loi du χ2 , respectivement pour n = 4, 8, 16. On utilise
souvent la fonction de répartition P (X ≤ χ2 ) ou la fonction complémentaire Q(X ≥ χ2 ), que l’on
trouve tabulées dans les ouvrages de statistique mais que l’on peut aussi calculer facilement par
intégration numérique.
11.3.5
Paramètres de la loi de probabilité et paramètres de l’échantillon
Dans la pratique, je dispose d’un certain nombre n d’observations d’une grandeur Y , réparties
au hasard. L’ensemble des yi constitue un échantillon extrait de la «population» de toutes les
valeurs possibles de Y . . La variable aléatoire Y obéit à une certaine loi de probabilité p(y),
laquelle est caractérisée par une moyenne µ et un écart-type σ. Je n’aurai jamais connaissance de
ces paramètres, mais je pourrai essayer de les estimer à partir de propriétés de l’échantillon. Il
importe de ne pas confondre paramètres de la population et paramètres de l’échantillon. En fait,
on a les résultats suivants :
* La meilleure estimation
de la moyenne µ de la population parente est la moyenne m de
P
l’échantillon (m = (1/n) yi ).
* La meilleure estimation de l’écart-type σ de la population parente est égale à l’écart-type s
de l’échantillon, défini par :
n
1 X
s2 =
(11.11)
(yi − m)2 .
n−1 1
Le facteur n − 1 (au lieu de n que l’on pourrait attendre) tient compte de ce qu’une partie de
l’information contenue dans l’échantillon a été «consommée» pour calculer m. On dit que les
nombres m et s sont respectivement des estimateurs de µ et σ. Ce sont des variables aléatoires (un
autre échantillon donnerait d’autres valeurs de m et s). On montre que ces estimateurs sont sans
biais, c’est-à-dire que < m >= µ et que < s2 >= σ 2 .
11.3.6
Vérification d’une loi de probabilité
Je dispose d’un échantillon d’une variable aléatoire Y : suis-je capable de déterminer la loi
de probabilité à laquelle obéit Y ? Non, pas plus que je ne pourrais trouver rigoureusement la
moyenne ou l’écart-type de Y . La seule approche possible est la suivante. Je fais le choix d’une loi de
129
11.4. Propagation des erreurs
probabilité f (y) et j’essaye de vérifier l’hypothèse : « les résultats expérimentaux sont compatibles
avec la loi f , avec une probabilité de α%. » Je ne considère ici qu’un exemple élémentaire. Soit
une épreuve conduisant à l’un ou l’autre de r résultats mutuellement exclusifs dont les probabilités
(inconnues) sont p1 , p2 , ...pr . Par ailleurs, je note qi mon estimation de la probabilité du résultat
i. Je vais essayer de vérifier l’hypothèse qi = pi , 1 ≤ i ≤ r. Je répète n fois l’épreuve et je désigne
par Yi le nombre d’apparitions du résultat i. La quantité Yi /n est proche de pi (loi des grands
nombres) et, si l’hypothèse est valable, elle est aussi voisine de qi . Je dispose alors du théorème
suivant. La variable S, définie comme
S=
r
X
(Yi − npi )2
npi
1
obéit à la loi de Pearson à r − 1 degrés de liberté, à condition que les nombres npi soient assez
grands (npi ≥ 10 en pratique). Comme j’ignore les pi , je considère, à la place de S, l’estimateur
T =
r
X
(Yi − nqi )2
nqi
1
,
(11.12)
qui obéit à peu près à la même loi de répartition. Il est clair que T sera petit si mon hypothèse
est vérifiée. Je choisis une probabilité ² ; T 0 étant une variable distribuée selon le chi-deux à r − 1
degrés de liberté, je détermine un nombre χ2 vérifiant
P roba(T 0 ≥ χ2 ) ≤ ².
Je rejette l’hypothèse si T ≥ χ2 . En d’autres termes, si l’écart entre fréquences observées et fréquences calculées me parait trop grand pour être dû au hasard, je dois conclure que mon hypothèse
est fausse.
Exemple. J’ai lancé 120 fois un dé, pour obtenir les résultats consignés ci-dessous. Je fais
l’hypothèse que le dé est équilibré, ou encore que la probabilité de chaque face est 1/6.
Rang i
1
2
3
4
5
6
nombres observés
25
21
16
28
14
16
total : 120
nombres calculés
20
20
20
20
20
20
total : 120
(yi − nqi )2 /nqi
1,25
0,05
0,8
3,2
1,8
0,8
T = 7,9
Je constate, à la lecture d’une table du χ2 , que la probabilité pour que T (avec 5 degrés
de liberté) soit au moins égal à 7,9 est comprise entre 0,1 et 0,2. L’hypothèse est considérée
comme plausible et elle est acceptée. Le tableur « EXCEL » (entre autres) permet d’obtenir ce
résultat en quelques pressions de touches. La fonction « loi.khi-deux(a2 ;n) » renvoie la probabilité
d’apparition d’une valeur de T 0 au moins égale au contenu de la cellule «a2» pour un nombre
de degrés de liberté égal à n ; le résultat est ici 0,1618. La fonction « test.khi-deux » effectue
automatiquement l’ensemble des calculs, à condition de fournir en arguments la plage de cellules
contenant les résultats observés et la plage destinée à contenir les résultats attendus.
11.4
Propagation des erreurs
Je m’intéresse maintenant à une grandeur physique G qui est déterminée indirectement à partir
des mesures de deux grandeurs U et V . Sachant que les valeurs de U et de V sont entachées d’erreurs
aléatoires, je me demande quelle peut être la dispersion de G = g(U, V ). La probabilité d’obtenir,
130
Chapitre 11. Traitement de données expérimentales
lors d’une mesure particulière, le résultat (u, v) dépend de la «densité de probabilité conjointe»
f (u, v). Plus précisément, la probabilité pour que U soit dans l’intervalle [u, u + du] et V dans
[v, v + dv] est :
P roba(u ≤ U ≤ u + du; v ≤ V ≤ v + dv) = f (u, v)dudv.
Il faut encore généraliser la notion de valeur moyenne :
Z Z
< g(u, v) >=
g(u, v)f (u, v)dudv.
La probabilité pour que U soit dans l’intervalle [u, u + du], cela quelque soit V , s’écrit :
Z
P roba(u ≤ U ≤ u + du; ∀V ) = f1 (u) = f (u, v)dv.
À partir de la densité f1 , je peux calculer la valeur moyenne < u > et l’écart-type σu de U , quelque
soit V ; des formules symétriques existent pour la variable V . J’introduis ensuite les «moments»
de la distribution f :
Z Z
mp,q ≡< up v q >=
f (u, v)up v q dudv,
puis les "moments centrés" µp,q =< (u− < u >)p (v− < v >)q >. Je trouve en particulier :
µ2,0 = σu2
;
µ0,2 = σv2 .
Le moment centré µ1,1 ≡< (u− < u >)(v− < v >) > est souvent appelé la covariance de U et V .
Les variables aléatoires U et V sont dites corrélées si µ1,1 6= 0. Bien entendu, je ne dispose pas des
« vraies » valeurs de U et V ; je ne connais que des estimateurs U ∗ et V ∗ (qui pourraient être les
moyennes de quelques mesures de U et V ). Ces estimateurs sont supposés sans biais :< U ∗ >= U
et < V ∗ >= V . Il est raisonnable de choisir G∗ = g(U ∗ , V ∗ ) comme estimateur de G. Je vais
calculer la moyenne et la variance de G∗ . Je fais un développement limité de g autour du point
U, V :
g(U ∗ , V ∗ ) = g(U, V ) + (U ∗ − U )gu + (V ∗ − V )gv + . . .
Dans cette expression, les dérivées (gU = ∂g/∂U, gV = ∂g/∂V ) sont calculées en U, V et sont
certaines (non aléatoires). La valeur moyenne de cette expression vaut, sachant que U ∗ , et V ∗ sont
sans biais,
< g ∗ >≡< g(U ∗ , V ∗ ) >= g(U, V )
en négligeant les termes d’ordre supérieur. g ∗ est donc lui-même, à cette approximation, un estimateur non biaisé. Je calcule maintenant la variance de g
σg2 =< [G(U ∗ , V ∗ ) − G(U, V )]2 >=< [(U ∗ − U )gU + (V ∗ − V )gV ]2 >
et, en développant la valeur moyenne du carré :
2
σg2 = µ2,0 gU
+ 2µ1,1 gU gV + µ0,2 gV2 .
Cette formule donne l’écart type sur g connaissant les moments centrés de U et V ; on l’écrit en
général en fonction des écarts types :
2
σg2 = σu2 gU
+ 2σu,v gU gV + σv2 gV2 ,
(11.13)
où j’ai introduit la notation habituelle σuv = µ1,1 pour la covariance. En pratique, on ne connaît
pas les µi,j mais seulement des estimateurs construits à partir de résultats expérimentaux. Si les
observations de U et V ne sont pas corrélées, alors σuv = 0 et la formule précédente se simplifie :
¶2
µ
¶2
µ
∂g
∂g
+ σv2
.
σg2 = σu2
(11.14)
∂U
∂V
131
11.5. Méthode du maximum de vraisemblance
Exemple. Je considère les fonctions x = uv et y = u/v ; les variances correspondantes sont :
2
σx2 = σu2 v 2 + σv2 u2 + 2σuv
uv
;
2
σy2 = σu2 /v 2 + σv2 u2 /v 4 − 2σuv
u/v 3
ce que l’on écrit en général de façon plus symétrique (z = uv ou z = u/v) :
³ σ ´2 ³ σ ´2 ³ σ ´2
³ σ ´2
z
u
v
uv
=
+
±2
z
u
v
uv
(11.15)
Dans le cas de variables non corrélées, on retrouve un résultat qui évoque l’addition des erreurs
relatives que l’on enseigne dans les cours élémentaires.
11.5
Méthode du maximum de vraisemblance
Un noyau radioactif a une certaine probabilité de désintégration par unité de temps, notée
1/τ ; en conséquence, pour un grand nombre de noyaux, le nombre de désintégrations par unité de
temps, dN/dt, (la fréquence de l’événement) est proportionnel au nombre de noyaux :
dN/dt = −N (t)/τ,
équation différentielle dont la solution s’écrit N (t) = N0 e−t/τ . La probabilité de désintégration par
seconde d’un noyau est p(t) = (1/τ )e−t/τ . Comment déterminer la « durée de vie » ? Je peux (en
principe au moins) mesurer les dates t1 , t2 , . . . , tN auxquelles chacun de ces N noyaux disparaît.
Si je recommençais l’expérience avec une nouvelle famille de N noyaux, j’obtiendrais des valeurs
des ti différentes des précédentes : ces fluctuations sont dues à la nature aléatoire du processus
radioactif et existent même si les erreurs de mesure sont négligeables. La probabilité V (τ ) d’observer
effectivement les désintégrations aux époques t1 , t2 , . . . s’écrit (événements indépendants) :
(
)
N
N
Y
1X
V (τ ) =
p(ti ) = exp −
ti − N ln τ .
τ 1
i
Le meilleur choix de τ est celui qui maximise V , c’est à dire celui qui rend le plus vraisemblable
possible le résultat effectivement observé. Le maximum de V est atteint lorsque − ln V est minimal,
soit pour la valeur :
N
1 X
τ∗ =
ti .
N 1
Autrement dit, la valeur de τ égale à la moyenne des ti calculée sur l’échantillon rend maximale la
probabilité d’apparition de cet ensemble de valeurs. On dit que V est une fonction de vraisemblance
et que τ a été choisi selon un critère de maximum de vraisemblance.
L’exemple qui précède est particulier : si les mesures ne sont pas reproductibles, c’est à cause
de la nature aléatoire du phénomène. De plus, le nombre de désintégrations par seconde est donné
par une loi exponentielle (c’est en fait un cas particulier de loi de Poisson). Dans beaucoup d’autres
cas, les mesures vont être entachées d’erreurs expérimentales. Je donne encore un exemple simple
d’application du principe de maximum de vraisemblance dans ce cas.
Je suppose que j’ai réalisé n déterminations de la grandeur X, que les conditions sont un peu
différentes d’une mesure à l’autre, si bien qu’à chaque mesure est associée une incertitude (écarttype) σi particulière. La probabilité d’apparition de la valeur xi est, comme très souvent pour des
erreurs expérimentales, donnée par une loi de Gauss, de valeur moyenne µ et de variance σi2 :
µ
¶
(xi − µ)2
1
p(xi ) = √ exp −
2σi2
σ 2π
Je me demande quelle est la « meilleure » valeur de µ, en supposant, pour simplifier le raisonnement, que les σi sont connues. Pour répondre, je construis une fonction de vraisemblance V (µ),
132
Chapitre 11. Traitement de données expérimentales
égale au produit des p(xi ), et qui représente la probabilité d’observer l’ensemble des résultats xi .
Comme au paragraphe précédent, je vais chercher la valeur de µ qui rend maximale la probabilité
V , ce qui revient à chercher le minimum de ln V ou de l’argument de l’exponentielle. Il vient :
"n
#
"
¶2 #
n µ
Y 1
1 X xi − µ
√
V (µ) =
exp −
.
2 1
σi
σi 2π
1
En annulant la dérivée par rapport à µ de l’exposant, je trouve :
, n
n
X
X 1
xi
∗
µ =
2
σi
σi2
1
1
La valeur la plus vraisemblable de µ est la moyenne pondérée des valeurs observées xi , les poids
étant les inverses des variances relatives à chaque mesure. Je peux même déterminer l’incertitude
sur µ : cette quantité dépend en effet des observations xi et obéit à la loi de propagation des erreurs
(nous supposons les mesures indépendantes, donc les corrélations nulles) :
σµ2
=
¶2
n µ
X
∂µ
1
Un calcul simple montre que
∂xi
σi2 .
1
2 .
1 (1/σi )
σµ2 = Pn
(11.16)
Lorsque toutes les incertitudes sont égales à σ, cette relation se réduit à
σ
σµ = √ .
n
(11.17)
L’incertitude sur la valeur moyenne d’une série de
mesures équivalentes décroît comme l’inverse de la
racine carrée du nombre de mesures indépendantes.
11.6
Méthode des moindres carrés
Je vais maintenant appliquer la méthode du maximum de vraisemblance à un problème plus
général. Il me faut, cependant, faire une remarque préliminaire. Bien des gens considère la méthode
(on dit souvent le principe) du maximum de vraisemblance comme peu convaincante. Ils préfèrent
se référer plus directement à un «principe des moindres carrés». Sauf cas particuliers, les deux
démarches sont équivalentes.
J’imagine que j’ai mesuré la variation d’une grandeur physique y en fonction d’une autre grandeur indépendante x : par exemple la susceptibilité magnétique d’un matériau en fonction de la
température. Je dispose donc d’une série de résultats expérimentaux {xi, yi}, i = 1, 2, . . . , n. Les
valeurs {xi } de la variable indépendante sont supposées parfaitement exactes, alors que les mesures
de y sont entachées d’erreurs aléatoires. D’autre part, j’ai des raisons de penser que y est lié à x
par une loi physique de la forme :
y = f (x, a1 , a2 , ...am )
où les ai sont des paramètres constants. Je suppose que les erreurs qui affectent chaque mesure yi
sont additives, indépendantes et réparties selon une loi normale. Je vais donc utiliser le modèle
Y = f (x, a1 , a2 , . . . , am ) + ².
Je supposons encore que ce modèle est "juste" ou non biaisé, c’est-à-dire que < ² >= 0 ou encore
que la moyenne de la distribution p(yi ) est f (xi , a1 , ...) = fi =< Yi >. Je souhaite trouver les valeurs
133
11.6. Méthode des moindres carrés
des ai telles que la loi précédente représente "au mieux" l’ensemble des résultats expérimentaux
{xk , yk }, k = 1...n.
Avec les hypothèses faites, je peux écrire la probabilité d’apparition conjointe des événements
y1 , y2 , . . . , yn :
¸
·
m
Y
1
(yi − fi )2
√ exp −
V (a1 , a2 , . . . , am ) =
2σi 2
σi 2π
1
ou encore
V =
m
Y
1
σi
1
√
µ
¶
S
exp −
2
2π
;
S≡
m
X
(yi − fi )2
σi2
1
La quantité S joue un grand rôle dans ce formalisme : c’est la somme des carrés des écarts entre
valeurs observées (yi ) et valeurs calculées (fi ), chaque terme étant pondéré par l’inverse du carré de
l’écart-type. Le maximum de V (la vraisemblance) est atteint lorsque l’exposant est minimal. On
rejoint ici le «principe des moindres carrés» qui stipule que les meilleures valeurs des paramètres
sont celles qui minimisent la somme (pondérée) des carrés des écarts entre valeurs expérimentales
et valeurs théoriques.
Le maximum de V et le minimum de S sont atteints quand
m
X
∂S
yi − fi ∂fi
= −2
= 0.
∂ak
σi2 ∂ak
i=1
11.6.1
Ajustement sur une fonction affine
Pour commencer, je considère un modèle dépendant linéairement de deux paramètres (et linéairement de x, bien que cette hypothèse ne soit pas nécessaire). Je dit que je vais ajuster les
paramètres d’un modèle linéaire ou encore lisser les données à l’aide d’une droite. Le modèle s’écrit
Y = f (x, a, b) + ² = ax + b + ²
Comme ∂f /∂a = x et que ∂f /∂b = 1, les conditions du maximum de vraisemblance sont alors
n
X
yi − fi
i=1
σi2
=0 ;
n
X
xi
i=1
yi − fi
= 0.
σi2
Ces relations constituent en fait un système de deux équations linéaires à deux inconnues (a et b).
Il est commode de poser
S=
n
X
1
σ2
i=1 i
;
Sx =
n
X
xi
σ2
i=1 i
;
Sxx =
n
X
x2i
σ2
i=1 i
;
Sy =
n
X
yi
σ2
i=1 i
;
Le système mentionné ci-dessus s’écrit explicitement :
½
aSxx + bSx = Sxy ,
aSx + bS
= Sy .
Sxy =
n
X
xi yi
i=1
σi2
.
(11.18)
Ces équations sont appelées «équations normales» ou «équations de Gauss». Le tableau des coefficients est symétrique et les valeurs expérimentales (yi ) n’apparaissent qu’au second membre. La
solution est élémentaire ; je pose ∆ = SSxx − Sx2 et je trouve
a∗ =
1
(SSxy − Sx Sy )
∆
;
b∗ =
1
(Sxx Sy − Sx Sxy ).
∆
(11.19)
Les coefficients a∗ et b∗ sont des fonctions des variables aléatoires yi : ce sont donc elles-mêmes
des variables aléatoires qui nous servent à estimer les « vraies » a et b. Pour apprécier la précision
134
Chapitre 11. Traitement de données expérimentales
(ou l’incertitude) de a∗ et de b∗, il faut calculer l’écart-type de ces paramètres, au moyen de la
formule de propagation des erreurs (11.14). Pour u = a∗ ou b∗, je sais que
σu2
=
¶2
n µ
X
∂u
∂yi
1
σi2 .
Je calcule les dérivées partielles à l’aide des formules (11.19) :
xi S − Sx ∂b
Sxx − xi Sx
∂a
;
.
=
==
∂yi
σi2 ∆
∂yi
σi2 ∆
Je trouve ensuite
2
σa∗
=
S
∆
;
σb∗ =
Sxx
.
∆
(11.20)
Cette méthode élémentaire ne permet pas de trouver la covariance de a∗ et b∗ ; je citerai simplement
le résultat : σa∗b∗ = −Sx /∆.
Les formules (11.19) et (11.20) se trouvent assez couramment programmées sur les calculettes.
D’autre part, le système linéaire des équations normales définissant a∗ et b∗ fait intervenir la
matrice :
·
¸
Sxx Sx
M=
,
Sx
S
Je sais déjà que det M = ∆ et je calcule M−1 :
−1
M
1
=
∆
·
S
−Sx
−Sx
Sxx
¸
·
=
σa ∗2
σa∗b∗
σa∗b∗
σb ∗2
¸
.
Vous voyez que l’inverse de la matrice des équations normales est la matrice dite des « variancescovariances ». C’est un cas où le calcul de l’inverse d’une matrice s’avère fructueux.
11.6.2
Linéarisation
Bien des fonctions peuvent, par un changement de variable approprié, se ramener au modèle
linéaire du paragraphe précédent. Je vais encore traiter un cas particulier. L’étude théorique de la
cinétique d’une réaction chimique montre que la concentration d’un réactif dépend du temps selon
le modèle :
y = y0 e−αt .
L’expérience m’a fourni des valeurs yi relevées aux instants ti . Pour déterminer y0 et α, je linéarise
ce modèle en posant z = ln y :
z = ln y0 − αt ≡ β − αt.
Dans un calcul de moindres carrés habituel, chaque terme yi − fi est pondéré par l’inverse de
l’écart-type, σi . Quel est l’écart-type sur ln yi ? Il se déduit de la loi de propagation des erreurs :
σz =
∂z
σy
σy =
∂y
y
en supposant que chaque mesure souffre de la même incertitude. L’algorithme des moindres carrés
va fournir la meilleure valeur de β, avec son écart-type, σβ , mais c’est y0 qui a un sens physique ;
j’utilise encore la relation (11.14) pour trouver cette fois : σy0 = y0 σβ .
135
11.7. Qualité de l’ajustement
11.7
Qualité de l’ajustement
Après avoir déterminé les meilleures valeurs des paramètres a et b caractérisant un modèle
linéaire, je dois me demander si l’expérience vérifie ce modèle. On dispose pour cela de divers
tests statistiques. Je vais décrire le plus courant, le test dit du chi-deux. J’ai montré comment la
méthode du maximum de vraisemblance conduisait aux valeurs les plus probables de a et b en
rendant minimale la quantité
X µ yi − fi ¶2
S2 =
σi
où yi est un résultat de mesure et fi la valeur de y calculée par le modèle pour la même valeur
de la variable indépendante xi . Si le modèle était exact et les fluctuations absentes, S 2 serait nul.
Ce ne sera pas le cas en pratique, à cause des erreurs de mesure d’une part, et des défauts du
modèle d’autre part. J’espère néanmoins que S 2 est «petit». Comme il s’agit d’une somme sur
toutes les mesures (n en tout), S 2 augmente avec n. On peut raisonnablement s’attendre à ce que
yi − fi soit de l’ordre de σi et S 2 soit de l’ordre de n. Pour m’affranchir de l’effet du nombre de
mesures, je pourrais être tenté de considérer la quantité S 2 /n. Ce n’est pas tout à fait le bon choix,
comme le montre l’exemple de n = 2. Je peux toujours faire passer une droite exactement par deux
points, mais la perfection de cette ajustement n’est pas très convaincante. Il faut en fait rapporter
S 2 au « nombre de degrés de liberté » de l’expérience (ν), défini comme le nombre de résultats
indépendants (n) diminué du nombre de contraintes ou du nombre de paramètres ajustables (p en
général, deux pour l’exemple d’une fonction affine), ν = n − p. Une meilleure mesure de la qualité
de l’ajustement est donc fournie par le « chi-deux réduit »
n
χ2ν
S2
1 X
≡
=
ν
N −p i
µ
y i − fi
σi
¶2
.
D’après les considérations précédentes,χ2ν est une fonction aléatoire dont la valeur moyenne est
proche de 1. Aussi, une valeur de χ2 /ν voisine de 1 signale-t-elle un bon modèle. De façon un peu
plus précise, je remarque que l’une ou l’autre des quantités χ2 ou S 2 est une somme de carrés de
variables aléatoires gaussiennes ; elles obéissent donc à la loi du chi-deux. Je vais devoir décider
si, et avec quelle probabilité, la valeur de χ2ν déduite de mes mesures peut être le fait du hasard.
Je fais donc l’hypothèse que mon modèle est juste, je fais le choix d’un seuil ² et, muni d’une
table de la fonction de répartition de la loi de Pearson, je cherche un nombre u tel que pour une
variable T 0 (distribuée selon la loi du chi-carré) , P roba(T 0 > u) = ². Si χ2 /ν > u, c’est que l’écart
théorie-expérience est très improbable, ou que mon hypothèse est fausse.
Il est malheureusement assez fréquent que je ne connaisse pas de l’incertitude affectant les
yi : c’est le cas lorsque je n’ai pas les moyens de répéter les expériences nécessaires. Je suis alors
contraint de faire le raisonnement simplifié suivant. Je suppose que chaque mesure a la même
dispersion : σi = σ pour l’instant inconnue, je détermine les meilleures valeurs de a et b, puis je
recalcule σ comme
1 X
σ2 =
(yi − a∗ xi − b∗ )2
n−2
Les écarts-types
sur a∗ et b∗ peuvent alors être calculés par les formules (11.20) multipliées par le
p
facteur S/(n − 2).
Exemple. J’ai relevé les couples de valeurs suivantes :
x
y
1
-0,1
2
1,7
4
3,3
5
4,9
8
7,6
9
8,4
10
9,1
12
10,7
15
12,3
et je veux lisser les valeurs de y à l’aide du modèle y = ax + b, autrement dit, ajuster au sens
des moindres carrés les paramètres a et b pour que l’équation proposée représente au mieux les
résultats expérimentaux. Vous pouvez vous prêter au jeu suivant : reporter ces données sur papier
136
Chapitre 11. Traitement de données expérimentales
millimétré et déterminer « à l’oeil » la meilleure droite et les valeurs correspondantes de a et b,
avant de faire les calculs.
*1er cas (fréquent) : j’ignore les valeurs des erreurs commises sur les y, mais je pense qu’elles
sont toutes aléatoires et distribuées de façon identique. Je pose alors σi = σ = 1. Comme toutes
les formules qui donnent a∗ et b∗ sont homogènes en σ, la valeur exacte importe peu. Le calcul se
fait facilement avec une calculette ou avec Scilab. Dans ce logiciel, je défini deux vecteurs x et y
contenant les données. J’ai alors les instructions
S = length(x); Sx = sum(x); Sxx = sum(x.*x); Sy = sum(y); Sxy = sum(x.*y);
Delta = S*Sxx-Sx*Sx;
a = (S*Sxy - Sx*Sy)/Delta, b = (Sxx*Sy - Sx*Sxy)/Delta;
siga = sqrt(S/Delta); sigb = sqrt(Sxx/Delta)
Les résultats sont a∗ = 0.8903, σa = 0.0754, b∗ = −0.0958, σb = 0.645 ; les points expérimentaux
et la droite sont représentés sur la figure. Si la pente est bien déterminée, l’ordonnée à l’origine est
imprécise.
17
15
13
∆
∆
11
∆
9
∆
∆
7
∆
5
∆
3
∆
1
∆
−1
−1
1
3
5
7
9
11
13
15
17
Avec ces valeurs de a∗ et b∗ , je recalcule σ : j’admet que tout écart entre valeur expérimentale et
valeur calculée est due à une erreur aléatoire ; je retiens la moyenne du carré de ces écarts comme
valeur de σ 2 (comme indiqué plus haut, je considère qu’il n’y a que n − 2 = 7 mesures). Je trouve
que σ = 0.62, d’où je déduis les «bonnes» valeurs σa = 0.047, σb = 0.401. Les amateurs d’EXCEL
verront que ce logiciel, grâce à la fonction « DROITEREG », peut faire automatiquement les calculs
précédents.
*2ème cas (idéal) : Je sais que les valeurs de y sont entachées d’erreurs telles que l’écart-type
sur les 4 premières valeurs de y est de 0,4 et qu’il est de 0,6 sur les 5 dernières. J’obtiens alors :
S = 38, 89
Sx = 225, 0
Sy = 194, 86
Sxx = 1993, 06
Sxy = 1757, 08
d’où je tire a = 0, 911, σa = 0, 038, b = −0, 259, σb = 0, 272. La quantité S 2 vaut 11,04 soit un χ2ν
réduit (7 degrés de liberté) de 1,577. Les tables donnent une probabilité d’environ 0,14 d’obtenir
par hasard une valeur au moins aussi élevée. Le modèle est donc accepté.
11.8
Coefficient de corrélation
Une suite d’observations m’a fourni des couples de valeurs (xi , yi ), comme par exemple le
nombre de taches solaires observées pendant l’année i et le cours moyen du bourgogne à la vente
137
11.9. Ajustement sur une fonction linéaire de m paramètres
des Hospices de Beaune la même année. Je me pose la question de savoir s’il existe une relation
causale entre ces deux variables, en d’autres termes, je cherche à savoir si x est corrélé à y. Je vais
examiner le cas le plus simple, celui d’une corrélation linéaire. Si y dépend de x selon la loi linéaire
y = ax + b, les résultats du paragraphe précédent me permette d’estimer le coefficient a. Si x et y
sont indépendants, y ne doit, en moyenne, ni croître ni décroître quand x augmente, donc a = 0.
Il est aussi permis d’estimer les paramètres de la loi x = a0 y + b0 . Ils sont différents des précédents,
mais a et a0 sont liés si x et y sont corrélées. Si la corrélation entre x et y est parfaite, les deux
0
0
lois sont décrites par des fonctions inverses l’une de l’autre
√ et a = 1/a ou aa = 1. Je définis le
0
coefficient empirique de corrélation par la relation r = aa . En supposant tous les écarts types
égaux (une hypothèse qu’il est facile de lever), on trouve la formule ci-dessous.
Pn
(xi − < x >)(yi − < y >)
r ≡ pPn 1
.
(11.21)
Pn
2
2
1 (xi − < x >)
1 (yi − < y >)
|r| est compris entre 0 (pas de corrélation) et 1 (corrélation complète) : on considère que x et y
sont fortement corrélés lorsque que |r| est voisin de 1, pratiquement indépendants si r est proche
de 0, mais il est difficile de donner un critère vraiment quantitatif en l’absence d’hypothèses plus
précises sur la nature des erreurs entachant x et y.
11.9
Ajustement sur une fonction linéaire de m paramètres
Je généralise hardiment le raisonnement des paragraphes précédents, pour obtenir l’expression :
y(x) =
m
X
ak ϕk (x)
(11.22)
1
qui dépend linéairement des m paramètres ak , alors que les fonctions ϕk qui définissent la loi en x
sont quelconques. Je souhaite de nouveau rendre minimale la somme des carrés des écarts :
S2 =
n
X
[y obs − y calc ]2
i
i
σi2
1
yicalc
= y(xi ), la valeur prédite par le modèle. Il est commode
avec, pour chacune des n mesures,
d’introduire les notations suivantes. A est la matrice à n lignes et m colonnes d’éléments Aij =
ϕj (xi )/σi et b est le vecteur à n coordonnées bi = yiobs /σi . De plus, les paramètres ak sont
considérés comme les coordonnées d’un vecteur a. Les conditions pour que S 2 soit minimale sont :
n
X
¤
1 £ calc
yi − yiobs ϕk (xi ) = 0
2
σ
i=1 i
ce qui s’écrit :
Ma = β
;
Mik =
βj =
;
k = 1, 2, . . . , m.
n
X
1
2 ϕk (xi )ϕj (xi ),
σ
i=1 i
n
X
1
2 yi ϕk (xi ).
σ
i=1 i
Vous pourrez vérifier les relations
M = AT A
;
β = AT b
où AT désigne la matrice transposée de A. La matrice M est symétrique définie positive et le
système linéaire se résout facilement par la méthode de Cholesky. La solution formelle est
a = M−1 β = (AT A)−1 AT b.
138
Chapitre 11. Traitement de données expérimentales
Cependant, comme dans le cas à 2 inconnues, l’inverse de M présente un intérêt : l’élément diagonal [M−1 ]ii est la variance (carré de l’incertitude) du paramètre ai , alors que les éléments non
diagonaux [M−1 ]ik sont les covariances entre ai et ak .
139