Cours de Maths Algèbre Linéaire Deug PDF
Cours de Maths Algèbre Linéaire Deug PDF
Cours de Maths Algèbre Linéaire Deug PDF
EAIRE.
1. R esolution de syst` emes lin eaires.
Dans ce paragraphe, nous allons nous interesser `a des syst`emes dequations de la
forme
(1)
_
_
_
a
1
1
x
1
+ . . . +a
n
1
x
n
=
1
. . .
a
1
p
x
1
+ . . . +a
n
p
x
n
=
p
composes de p equations qui portent sur les nombres reels ou complexes x
1
, . . . , x
n
et ont toutes la meme forme dite lineaire
a
1
x
1
+ + a
n
x
n
= (a
1
, . . . , a
n
, C).
Ces syst`emes apparaissent frequemment dans la pratique, que ce soit en sciences
pures ou en economie, avec des nombres n et p tr`es grands. Par exemple, con-
siderons quatre points mobiles en mouvement uniforme dans lespace le long de
quatre droites donnees. On demande `a quelles conditions le barycentre de ces
points est immobile : pour resoudre ce probl`eme, on doit considerer 25 variables
(trois composantes de vitesse et trois coordonnees initiales par point, plus le temps),
12 equations signiant que les points se meuvent le long des droites donnees et 3
equations signiant que les composantes de la vitesse du barycentre sont nulles ;
au total, on obtient un syst`eme de 15 equations `a 25 inconnues.
Nous allons donner une methode de resolution de (1).
1.1. Principe de la methode.
Deux syst`emes du type (1) ayant les memes inconnues seront dits equivalents si
ils ont les memes solutions. La methode de Gauss consiste `a resoudre (1) en le
remplacant par un syst`eme equivalent beaucoup plus simple `a laide dune serie
doperations qui sont faciles `a mettre en oeuvre.
Proposition 1. En partant de (1) et en eectuant lune des operations suivantes,
on obtient un syst`eme equivalent : (i). multiplier par un nombre non-nul lune
des equations ; (ii). remplacer lune des equations par sa somme avec une autre
equation ; (iii). permuter deux equations entre elles ; (iv). supprimer une equation
triviale 0x
1
+ + 0x
n
= 0 si celle-ci est apparue `a la suite des manipulations
precedentes.
Soient S
a
lensemble des solutions du syst`eme de depart (ancien syst`eme),
S
n
lensemble des solutions du syst`eme que lon en deduit par une operation de
Gauss. Comme le nouveau syst`eme est consequence de lancien, chaque solution de
lancien est encore solution du nouveau : S
a
S
n
. Mais les operations de Gauss
sont reversibles : par exemple si on a multiplie une equation par (operation (i))
on peut ensuite la multiplier par
1
pour retrouver lancien syst`eme ; de meme
pour les autres operations. Donc, S
n
S
a
, do` u S
n
= S
a
.
3
La methode de Gauss permet alors de resoudre le syst`eme en cascade, par
recurrence sur lindice i de la variable. Commencons par x
1
:
si a
1
1
= = a
1
p
= 0, alors x
1
napparat pas dans (1) ; dans ce cas, les solutions
de (1) sont toutes les familles de nombres (x
1
, . . . , x
n
) o` u x
1
est choisi arbitraire-
ment et o` u (x
2
, . . . , x
n
) est solution du syst`eme (1) (qui, en fait, ne depend pas
de x
1
).
sinon lun des termes a
1
j
est non-nul ; quitte a permuter la premi`ere ligne et la
ligne j, on peut supposer que a
1
1
= 0. Alors on divise la premi`ere ligne par a
1
1
pour se ramener `a a
1
1
= 1 ; ensuite, on retranche a
1
k
fois la premi`ere ligne de la
k-i`eme pour tout k = 1. A lissue de ces modications, le syst`eme a la forme
plus simple
(2)
_
_
x
1
+ a
2
1
x
2
+ . . . +a
n
1
x
n
=
1
a
2
2
x
2
+ . . . +a
n
2
x
n
=
2
.
.
.
.
.
.
a
2
p
x
2
+ . . . +a
n
p
x
n
=
p
o` u les termes en prime se calculent `a partir des termes de (1). On constate
que x
1
depend des autres variables :
x
1
=
1
a
2
1
x
2
a
n
1
x
n
et que ces variables sont reliees par un syst`eme plus petit.
Dans les deux cas, on a obtenu la valeur de x
1
(soit arbitraire, soit fonction
des autres variables) et un syst`eme plus petit. On peut maintenant appliquer la
meme methode : ou bien x
2
est arbitraire, ou bien on lexprime en fonction des
autres variables dans lune des p 1 equations restantes et on le fait disparaitre
des p 2 autres equations ; et ainsi de suite jusqu`a epuisement des variables ou
des equations. Il faut distinguer le cas general des cas particuliers
1
:
1.2. Le cas general.
Il y a trois sous-cas :
n > p : dans ce cas, apr`es resolution par la methode de Gauss, on aura un
syst`eme de la forme
_
_
x
1
=
1
a
2
1
x
2
a
3
1
x
3
. . . a
p+1
1
x
p+1
. . . a
n
1
x
n
x
2
=
2
a
3
2
x
3
. . . a
p+1
2
x
p+1
. . . a
n
2
x
n
. . .
x
p
=
p
a
p+1
p
x
p+1
. . . a
n
p
x
n
ce qui montre que les p premi`eres inconnues dependent des n p suivantes, qui
peuvent etre choisies arbitrairement. On obtient ainsi lensemble des solutions
sous forme parametrique.
1
On demontre que si les coecients sont tires au hasard, la probabilite detre dans un cas
particulier est nulle. Ceci ne sapplique ni `a la modelisation de probl`emes physiques, o` u les
coecients obeissent `a des lois donnees et nont donc rien daleatoire, ni aux exercices et probl`emes
dexamen !
4
n < p : dans ce cas, outre les n premi`eres equations reliant les inconnues aux
coecients, le syst`eme se terminera par p n equations de la forme 0 =
n+k
.
Comme ces nombres sont en general non-nuls, le syst`eme nadmet pas de solution.
n = p : dans ce cas, le syst`eme a la forme
(5)
_
_
x
1
=
1
a
2
1
x
2
a
3
1
x
3
. . . a
n
1
x
n
x
2
=
2
a
3
2
x
3
. . . a
n
2
x
n
. . .
x
n
=
n
ce qui montre que le syst`eme admet une solution et une seule : en eet, x
n
est
deni de mani`ere unique, donc x
n1
=
n1
a
n
n1
x
n
aussi, et par recurrence,
la valeur de chaque inconnue est uniquement denie.
1.3. Les cas particuliers.
Comme le montrent les deux exemples
_
_
1 2 3
2 2 2
3 4 5
0
0
_
_
avec = 0 ou 1, deux phenom`enes peuvent se produire. Ils apparaissent tous
les deux lorsque lune des lignes de la matrice non bordee de (1) est combinaison
lineaire des autres :
Au cours de la resolution, on obtient lequation triviale 0 = 0 (cas de = 0 dans
notre exemple). Dans ce cas, on peut supprimer cette equation, et lensemble de
solutions a un param`etre de plus que dans le cas general ; ainsi, meme si p > n,
il peut exister des solutions `a condition que 0 = 0 apparaisse p n fois au
cours de la resolution.
Si au contraire on obtient une equation insoluble 0 = 0, alors le syst`eme nadmet
pas de solution (cas de = 1 dans notre exemple).
1.4. Exemples numeriques.
Exemple 1. Resolvons
_
_
_
2x +y +3z +t = 1 (i)
3x +z +t = 0 (ii)
x +5y +t = 9 (iii)
On remplace dabord (i) par (i) 2 (iii) et (ii) par (ii) 3 (iii). On obtient
_
_
_
9y +3z t = 17 (i
)
15y +z 2t = 27 (ii
)
x +5y +t = 9 (iii)
puis on remplace (ii
) par (ii
) 2 (i
)
3y 5z = 7 (ii
)
x +5y +t = 9 (iii)
5
On peut maintenant exprimer par exemple z en fonction de y dans (ii
) puis le
remplacer par sa valeur dans (i) et remplacer enn z et t par leur valeur en y dans
(iii). On obtient ainsi les equations parametriques
_
_
z = 0, 6y 1, 4
t = 7, 2y + 12, 8
x = 2, 2y 3, 8
qui donnent x, z, t en fonction de y.
Exemple 2. Soit
_
_
x y = 1 (i)
y z = 2 (ii)
x z = 3 (iii)
x +y = 0 (iv)
Remplacons (i) par (i) + (ii) : nous obtenons
_
_
x z = 3 (i
)
y z = 2 (ii)
x z = 3 (iii)
x +y = 0 (iv)
Comme (i
1
, . . . ,
n
et c telles que
y =
1
x
1
+ +
n
x
n
+ c = (
n
i=1
i
x
i
) + c ;
on la dira fonction lineaire des x
i
, si la constante c est nulle. Une fonction lineaire
est donc un type particulier de fonction ane.
Noter. Le fait detre ane ou pas depend de ce que lon consid`ere comme variable :
ainsi la fonction xz est ane si x ou z est une constante, mais ne lest pas si ces
deux symboles designent des variables.
7
Enn, considerons deux vecteurs variables (x
i
)
1in
et (y
j
)
1jp
. On dira que (y
j
)
est fonction ane de (x
i
) si
_
_
_
y
1
.
.
.
y
p
_
_
_
=
_
_
_
f
1
(x
1
, . . . , x
n
)
.
.
.
f
p
(x
1
, . . . , x
n
)
_
_
_
o` u chaque fonction f est ane :
j {1, . . . , p}
1
j
, . . . ,
n
j
: y
j
=
n
i=1
i
j
x
i
+ c
j
.
On appelle
i
j
le coecient de x
i
dans y
j
. Noter que ce coecient depend de deux
indices : i et j. On dit que f est lineaire si chaque terme constant c
j
est nul ;
on voit donc quune application ane est la composee dune application lineaire
y
j
=
n
i=1
i
j
x
i
et dune translation y
j
= y
j
+ c
j
.
La principale propriete des fonctions anes est leur stabilite par combinaison
lineaire et composition.
Denition. Soient f
1
, . . . , f
n
des fonctions anes. On appellera combinaison
lineaire des f
i
, toute fonction f qui puisse secrire f =
n
i=1
k
i
f
i
o` u les k
i
sont des
constantes. Par exemple, lorsquelles sont denies,
2
la somme ou la dierence de
deux fonctions anes en sont des combinaisons lineaires.
On dira quune fonction f sobtient en composant entre elles dautres fonctions,
si on peut construire f en partant dune fonction f
1
, en remplacant lune des
variables de f
1
par une fonction f
2
, et ainsi de suite. Par exemple, xsin(cos(z) +t)
sobtient en composant entre elles les fonctions xx
, x
= sin(y + t) et y = cos(z).
Proposition. Toute combinaison lineaire de fonctions anes, toute composee de
fonctions anes, sont `a leur tour des fonctions anes. De meme pour les fonctions
lineaires.
Noter. Soient x
1
, . . . , x
p
les variables dont dependent n fonctions anes f
1
, . . . , f
n
.
Soit f une combinaison lineaire de celles-ci. Si lon note pour un instant y
j
=
f
i
(x
1
, . . . , x
n
), on voit que f est une fonction ane des y
i
, qui eux-meme sont des
fonctions anes des x
i
. La premi`ere armation nest donc quun cas particulier de
la seconde. On ne la cite quen raison de son importance en pratique.
2.3. Le formalisme matriciel.
Le calcul sur les fonctions anes sav`ere rapidement dicile, et il est donc necessaire
dintroduire des notations appropriees. On prend les conventions suivantes :
Matrices. Une matrice est un tableau rectangulaire de nombres ou de vari-
ables entre paranth`eses. On dit que la matrice est carree si le tableau est carre,
cest `a dire sil a le meme nombre de lignes et de colonnes. On applique les memes
2
Attention : il nest pas possible de faire une combinaison lineaire de fonctions anes quel-
conques ! On ne peut ajouter f et g que si elles ont le meme espace darrivee.
8
techniques de notation que pour les vecteurs, mais avec deux indices : dabord la
ligne puis la colonne.
_
1 1
1 2
_
,
_
_
1 1 1
1 2 0
1 0 5
_
_
,
_
_
a
11
. . . a
1n
.
.
.
.
.
.
a
n1
. . . a
nn
_
_
= (a
ij
)
1i,jn
.
Combinaisons lineaires de matrices. Le produit A de la matrice A par
le scalaire , est la matrice qui a le meme nombre de lignes et de colonnes que A,
et o` u chaque terme de A est remplace par :
2
_
1 1
1 2
_
=
_
2 2
2 4
_
;
_
e
2 cos(3)
_
=
_
e
2 cos(3)
_
.
La somme de deux matrices A et B est denie lorsquelles ont meme nombre de
lignes et de colonnes. Comme pour les vecteurs, on compose alors terme `a terme :
_
1 2
3 4
_
+ 2
_
2 3
0 0
_
=
_
1 + 2 2 2 + 2 3
3 + 2 0 4 + 2 0
_
=
_
5 8
3 4
_
.
Produit matriciel. On denit le produit de deux matrices A, B lorsque A
a autant de lignes que B de colonnes : soient n, p, q respectivement le nombre de
colonnes de A, de lignes de A (ou de colonnes de B), de lignes de B. Par denition,
le produit C = AB a n colonnes et q lignes. Soient a
ij
, b
jk
, c
ik
les termes generaux
de A, B, C respectivement (1 i n, 1 j p, 1 k q). Alors, chaque terme
de C se calcule par la formule
(a
ij
)(b
jk
) = (c
ik
), c
ik
=
p
j=1
a
ij
b
jk
.
Evidemment, cette formule se comprend par lexemple, et de nombreux exercices
seront faits en TD dans ce but. Egalement, une presentation astucieuse du calcul,
dicile `a enseigner par ecrit, sera donnee en cours.
Remarque. Un vecteur est une matrice `a une colonne, un covecteur est une matrice
`a une ligne. Donc : le produit dun covecteur et dun vecteur est une matrice `a une
ligne et une colonne, autrement dit un scalaire ; le produit dun covecteur par une
matrice est un covecteur, le produit dune matrice par un vecteur est un vecteur.
Matrice nulle, matrice identite. Soit (0) une matrice dont tous les termes
sont nuls. Alors (0) a les proprietes suivantes : (0) = (0), A+(0) = A, A(0) = (0),
(0)B = (0) chaque fois que ces termes sont denis ( scalaire, A et B matrices).
Pour cette raison on appelle (0) matrice nulle. Soit (I) une matrice carree avec des
1 sur la diagonale et des 0 ailleurs. Alors (I) a la propriete suivante : IA = A,
BI = B chaque fois que ces termes sont denis. Pour cette raison on appelle (I)
matrice identite. Il y a ici un leger abus de langage et de notation : pour chaque
nombre de lignes et de colonnes, il y a une matrice nulle et une matrice identite ;
cependant la pratique montre quaucune erreur nest possible, et il est donc inutile
de preciser matrice identite `a n lignes et colonnes, ou matrice nulle `a p lignes et
q colonnes, sauf en de tr`es rares cas (on ecrit alors (0)
p,q
ou (I)
n
).
9
Les notations choisies (A + B, AB, A) laissent supposer que de nombreuses pro-
prietes de laddition et de la multiplication classique sont encore vraies. Cest
eectivement le cas ; on demontre les proprietes suivantes (A, B, C des matrices,
, des scalaires) :
(A + B)C = AC + BC, A(B + C) = AB + AC, ()A = (A),
( + )A = A + A, (A + B) = A + B.
Cependant, on na pas toujours AB = BA : dune part les deux produits ne sont
pas toujours simultanement denis (il faut que A et B soient carrees), dautre part
meme pour des matrices carrees cette egalite est souvent fausse. Enn, si AB = 0,
on na pas forcement A = 0 ou B = 0.
Exercice. Prouver par des exemples que legalite AB = BA et limplication AB =
0 (A = 0 ou B = 0) sont toutes les deux fausses en general.
2.4. Lien entre matrices et fonctions anes.
Soient A une matrice `a n lignes et p colonnes, y un vecteur `a n coordonnees. Alors,
on peut denir une fonction ane en posant
(1) f(x
1
, . . . , x
n
) = A
_
_
x
1
.
.
.
x
p
_
_
+
_
_
_
y
1
.
.
.
y
n
_
_
_
.
Inversement, toute fonction ane f poss`ede une ecriture telle que (1) ; on dit que
A est la matrice de f et (y
i
) son vecteur. Dire que f est lineaire, cest dire que son
vecteur est nul.
Proposition. Soit f une application ane de matrice A et vecteur u. Soit g
une application ane de matrice B et vecteur v. Alors (en supposant ces objets
denis) : g f a la matrice BA et le vecteur Bu +v ; f +g a la matrice A+B et
le vecteur u + v ; g a la matrice A et le vecteur u ( scalaire).
Autrement dit : la notation est parfaitement adaptee au calcul pratique sur les
fonctions anes. En particulier, soit un syst`eme dequations lineaires tel que (1) :
alors, on peut mettre ce syst`eme sous la forme Ax = o` u x est le vecteur x
1
, . . . , x
n
des inconnues, le vecteur
1
, . . . ,
n
des constantes et A la matrice de taille pn
des coecients de (1). Supposons que le syst`eme (1) admette des solutions. En
vertu de ce qui a ete dit plus haut (cas general n = p), toutes les resolutions
possibles m`enent au meme nombre de param`etres, car si lon obtient x
i
1
, . . . , x
i
p
comme param`etres dune premi`ere facon et ensuite x
j
1
, . . . , x
j
q
dune autre facon,
alors lapplication donnant x
i
k
en fonction de x
j
l
est une bijection donc provient
dun syst`eme carre regulier. Le nombre n p est appele le rang du syst`eme (1).
Plus ce rang est eleve, et moins il y a de param`etres.
Ceci etant, remplacons
1
= =
p
= 0 dans (1) : alors, (1) admet au moins
la solution x
1
= = x
n
= 0. On dit que le rang de (1) (avec
1
= =
p
= 0)
est le rang de la matrice A correspondant `a ce syst`eme.
Proposition 2. Selon la valeur des
i
, un syst`eme de matrice A ou bien na pas
de solution, ou bien a le meme rang que A.
En eet, sil existe une solution (X
1
, . . . , X
n
), alors lequation a
j
i
(x
j
X
j
) =
a
j
i
x
j
i
prouve que toute autre solution (x
1
, . . . , x
n
) de a
j
i
x
j
=
i
sexprime de
10
facon unique comme la somme terme `a terme de (X
1
, . . . , X
n
) et dune solution de
a
j
i
y
j
= 0, ce qui prouve que les x
j
dependent des memes param`etres que les y
j
.
Nous supposons maintenant que la matrice de (1) est carree et reguli`ere, ce qui est
un cas important en pratique : cela signie que la fonction donnant x
1
, . . . , x
n
`a
partir de
1
, . . . ,
n
est une bijection. Nous allons trouver une condition sur ses
coecients pour quil en soit ainsi.
2.5. Determinant dune matrice carree.
Denition. Le determinant dune matrice A dordre 2 est le nombre a
11
a
22
a
12
a
21
. Ensuite on denit par recurrence sur n le determinant dune matrice dordre
n :
det
_
_
a
1
1
. . . a
n
1
. . . . . . . . .
a
1
n
. . . a
n
n
_
_
= a
1
1
det(A
1
1
) a
2
1
det(A
2
1
) + + (1)
n
a
n
1
det(A
n
1
)
o` u A
j
i
est la matrice obtenue en supprimant la i-i`eme ligne et la j-i`eme colonne
dans A. On appelle A
j
i
un mineur principal de A ; plus generalement, un mineur
dordre k de A est une matrice carree `a k lignes et k colonnes obtenue en supprimant
certaines lignes et certaines colonnes de A.
Nous admettons le resultat suivant :
Theor`eme. Le determinant de A est egal `a la somme des termes (1)
i+j
a
j
i
det(A
j
i
)
pris, au choix, pour tous les i avec j constant quelconque, ou pour tous les j avec i
constant quelconque. De plus, si A et B sont des matrices carrees de meme taille,
on a det(AB) = det(A) det(B).
Idee de la preuve. Donnons un raisonnement valable en dimension trois et qui
nous evite de mener le calcul. On sait quil existe une transformation ane f de
lespace dont la matrice est A dans un rep`ere (O,
i,
j,
i,
j,
i.
1
a
k+1
1
x
k+1
a
n
1
x
n
. . .
k
a
k+1
k
x
k+1
a
n
k
x
n
_
_
comme la matrice M de ce syst`eme est reguli`ere, il en existe une unique solution, ce
qui prouve que les variables x
1
, . . . , x
k
dependent des n k variables x
k+1
, . . . , x
n
.
Par denition, le rang de (1) est au moins k. Mais sil valait plus que k, alors
lune des variables x
k+1
, . . . , x
n
(disons x
k+1
pour xer les idees) serait fonction
des n k 1 variables restantes : il existerait alors une unique solution `a
_
_
a
1
1
. . . a
k+1
1
. . . . . .
a
1
k+1
. . . a
k+1
k+1
1
a
k+2
1
x
k+2
a
n
1
x
n
. . .
k+1
a
k+2
k+1
x
k+2
a
n
k+1
x
n
_
_
et la matrice de ce syst`eme serait reguli`ere ; mais cest impossible par hypoth`ese
puisque cette matrice est un mineur dordre k + 1 de A.
2.6. Inverse dune matrice carree reguli`ere.
Nous avons vu quon ne pouvait pas simplier par A lequation AB = AC en
general ; ceci devient possible dans un cas particulier :
Proposition. Soit A = (a
j
i
) une matrice reguli`ere dordre n. Si B = (b
k
j
) et
C = (c
k
j
) sont carrees dordre n, alors chacune des equations AB = AC, BA = CA
implique `a elle seule B = C.
Les deux cas se traitent de mani`ere semblable, `a des changements de notation
pr`es. Montrons que si AB = AC, alors B = C. Avec la convention dEinstein, on a
par hypoth`ese a
j
i
(b
k
j
c
k
j
) = 0. Par consequent, les n
2
nombres x
(n1)j+k
= b
k
j
c
k
j
verient un syst`eme dequations lineaires dont la matrice est, comme on le voit par
le calcul, de la forme
_
_
_
_
_
A 0 . . . 0 0
0 A . . . 0 0
. . .
0 0 . . . A 0
0 0 . . . 0 A
_
_
_
_
_
12
cest `a dire quelle est carree dordre n
2
, divisee en n
2
blocs egaux respectivement
`a A pour les blocs diagonaux et `a une matrice dont tous les termes sont nuls dans
les autres cas. On calcule que le determinant dune telle matrice est det(A)
n
.
Ceci prouve que le syst`eme precedent est regulier, donc na quune solution. Mais
x
1
= = x
n
2 = 0 est dej`a solution : donc, on a x
1
= = x
n
2 = 0, et par
denition des nombres x, ceci veut dire que B = C.
Considerons des syst`emes de nombres (x
1
, . . . , x
n
) et (y
1
, . . . , y
n
) lies par le
syst`eme (1
A
i
j
i
; le vecteur colonne
des solutions est le produit du vecteur colonne des constantes par la transposee de
la comatrice du syst`eme.
2.7. Exemples numeriques.
13
Exemple 1. Calculons un determinant 44 en appliquant directement la denition.
On developpe par rapport `a la derni`ere colonne, car elle contient deux zeros :
1 4 5 0
2 3 9 3
5 8 7 0
4 2 2 1
= 3
1 4 5
5 8 7
4 2 2
1 4 5
2 3 9
5 8 7
1 4 5
5 8 7
4 2 2
8 7
2 2
5 7
4 2
+ 5
5 8
4 2
= 56
et
1 4 5
2 3 9
5 8 7
3 9
8 7
2 9
5 7
+ 5
2 3
5 8
= 30
on obtient le determinant 198.
Exemple 2. Calculons le determinant suivant en utilisant les operations de Gauss :
1 2 4 4 2
1 8 3 0 9
3 2 0 9 5
1 9 3 2 8
1 10 8 8 10
On retranche la premi`ere ligne trois fois de la troisi`eme et une fois de chaque autre :
1 2 4 4 2
0 6 1 4 7
0 4 12 3 1
0 7 1 2 6
0 8 4 4 8
Ainsi, le determinant est egal au determinant plus petit obtenu sans eort en
developpant par rapport `a la premi`ere ligne :
6 1 4 7
4 12 3 1
7 1 2 6
8 4 4 8
14 3 0 15
2 9 0 5
11 1 0 10
2 1 1 2
14
On developpe selon la troisi`eme colonne pour obtenir le determinant dordre trois
suivant, que lon simplie `a laide de la derni`ere ligne :
4
14 3 15
2 9 5
11 1 10
= 4
19 0 15
101 0 95
11 1 10
= 4
19 15
101 95
= 1160.
Exemple 3. Inversons la matrice suivante :
A =
_
_
1 1 1
1 2 1
2 0 6
_
_
.
On calcule det(A) en developpant selon la troisi`eme ligne (elle contient un zero de
plus que les autres, ce qui facilite le calcul) :
det(A) = 2
1 1
2 1
+ 6
1 1
1 2
= 2 + 6 = 4.
On calcule les cofacteurs de A ; ce sont des determinants 2 2 faciles `a expliciter.
Il vient :
comat(A) =
_
_
12 4 4
6 4 2
1 0 1
_
_
.
On divise enn la transposee de la comatrice par le determinant :
A
1
=
_
_
3
3
2
1
4
1 1 0
1
1
2
1
4
_
_
.
Exemple 4. Inversion dune matrice par la methode de Gauss. Nous illustrons
sur un exemple une methode en fait generale pour inverser une matrice reguli`ere.
Il faut remarquer que le calcul peut se faire meme si A nest pas reguli`ere, mais
en ce cas au lieu de fournir linverse de A il fournit une matrice B telle que AB et
BA sont egales, et ont des 1 ou des zeros sur la diagonale, et tous les autres termes
nuls.
Nous reprenons la matrice A de lexemple 3, et nous la faisons suivre par une
matrice compagnon B : au depart B est lidentite I
3
, mais chaque fois quon
eectue une transformation de Gauss sur A, on eectue la meme sur B.
A =
_
_
1 1 1
1 2 1
2 0 6
_
_
, B =
_
_
1 0 0
0 1 0
0 0 1
_
_
.
On remplace la ligne (ii) par (ii) (i) et (iii) par (iii) 2(i) dans A, donc dans
B :
A
1
=
_
_
1 1 1
0 1 0
0 2 4
_
_
, B
1
=
_
_
1 0 0
1 1 0
2 0 1
_
_
.
15
On remplace ensuite (iii) par (iii) + 2(ii) :
A
2
=
_
_
1 1 1
0 1 0
0 0 4
_
_
, B
2
=
_
_
1 0 0
1 1 0
0 2 1
_
_
.
On remplace (i)par (i) (ii)
1
4
(iii) :
A
3
=
_
_
1 0 0
0 1 0
0 0 4
_
_
, B
3
=
_
_
2
3
2
1
4
1 1 0
0 2 1
_
_
.
On divise enn (iii) par 4 :
A
4
=
_
_
1 0 0
0 1 0
0 0 1
_
_
, B
4
=
_
_
2
3
2
1
4
1 1 0
0
1
2
1
4
_
_
.
Puisque la matrice A
4
obtenue est I
3
, la matrice compagnon B
4
est A
1
.
3. Espaces vectoriels abstraits.
3.1. Les structures de base.
3.1.1. Structure despace vectoriel.
Denition. Un espace vectoriel est un ensemble E qui a les proprietes suivantes :
Il existe une addition sur E, cest `a dire une application de EE
dans E notee (x, y) x + y qui verie les memes proprietes
que laddition des nombres ordinaires. Precisement :
Pour tous x et y, x + y = y + x,
Pour tous x, y et z, x + (y + z) = (x + y) + z,
E contient un certain element note 0, appele zero ou
element neutre, tel que pour tout x, 0 + x = 0 ;
Pour tout x, il existe un element note x tel que x +
(x) = 0.
Il existe une multiplication exterieure sur E, cest `a dire une
application qui, `a un scalaire et un vecteur x, associe un
produit x qui verie :
Pour tout x, 1x = x,
Pour tous et , (x) = ()x,
Pour tous et , ( + )x = (x) + (x),
Pour tous x et y, (x + y) = (x) + (y).
Convention. Les abus de notation classiques sont permis : plutot que (((x)) +
y) + (z), on ecrira x + y z. Les axiomes choisis font que ceci nentrane
jamais derreur.
16
Exemples despaces vectoriels. (i). Lensemble des vecteurs du plan ou de
lespace euclidien. (ii). Lensemble des applications de R dans R. (iii). Lensemble
C. (iv). Lensemble des etats initiaux possibles pour un syst`eme (x
i
, y
i
, z
i
, v
x
i
, v
y
i
, v
z
i
)
(i = 1, 2, 3) de 3 points mobiles ((x
i
, y
i
, z
i
) sont les coordonnees du i-i`eme point,
(v
x
i
, v
y
i
, v
z
i
) les composantes de sa vitesse). (v). Lensemble des solutions dune
equation dierentielle lineaire sans terme constant.
Remarque. En general, dans un espace vectoriel quelconque, il nexiste ni la
notion dangle, ni celle de distance, ni celle de produit scalaire ou vectoriel.
3.1.2. Sous-espaces vectoriels.
Les vecteurs dune droite sont egalement des vecteurs de lespace : ils appartiennent
donc `a deux espaces vectoriels dierents, lun etant inclus dans lautre. Nous allons
generaliser cette notion.
Denition. Soit E un espace vectoriel. On dit quun sous-ensemble F de E est un
sous-espace vectoriel de E si cest un espace vectoriel, autrement dit, si x, y F
on a x + y F et si x F, on a x F.
Exemples. (i). R est un sous-espace vectoriel de C. (ii). Dans lensemble des suites
reelles, celles qui verient la relation de recurrence lineaire U
n+2
= U
n+1
2U
n
forment un sous-espace vectoriel. (iii). Dans lensemble des fonctions continues
sur le disque x
2
+ y
2
1, les fonctions telles que f = 0 forment un sous-espace
vectoriel ( =laplacien=
2
x
+
2
y
). (iv). Dans lensemble des solutions de y2 y+y =
0, les solutions de y = y forment un sous-espace. (v). Dans lensemble des fonctions
continues dans le plan et nulles `a lorigine, celles qui secrivent f() en coordonnees
polaires forment un sous-espace deni par la condition
R
f = 0.
Remarques. (i). Pour tout espace E, les ensembles E et {0} sont des sous-espaces
de E, parfois dits impropres. (ii). La relation etre un sous-espace est transitive :
si G est un sous-espace de F et F un sous-espace de E, alors G est un sous-espace de
E. (iii). Si les ensembles (F
i
)
iI
sont tous des sous-espaces de E, leur intersection
est encore un sous-espace de E.
Pour verier que F est un sous-espace de E, sachant dej`a que E est un espace
vectoriel, le plus pratique est de faire la verication suivante.
Lemme. Un sous-ensemble F de E est un sous-espace vectoriel si et seulement si
f +
dans F et ,
scalaires.
Preuve admise, car elle est sans diculte mais assez longue.
3.1.3. Espace quotient.
Lorsque nous avons deni des coordonnees anes dans lespace, nous avons procede
par projection sur trois droites parall`element `a trois plans : en quelque sorte, nous
avons vu ces droites comme le quotient de lespace par les plans en question.
Soient E un espace vectoriel, F un sous-espace de E. Pour tout vecteur e de
E, notons [e] lensemble des vecteurs qui peuvent secrire e + f avec f F : par
exemple, si nous prenons pour E lensemble des vecteurs de lespace et pour F
lensemble des vecteurs dun plan donne, [e] est le plan parall`ele `a F et passant par
e. On appellera [e] la classe de e modulo F et e un representant de [e].
17
Lemme. Deux classes sont toujours egales ou disjointes.
Soient [e] et [e
. Alors, il existe
f et f
= e + f et e
= e
+ f
. Tout element de [e
] secrit
sous la forme e
+ f
) et e
+ (f
+ f
) ; il
appartient donc `a la fois `a [e] et `a [e
], et on a [e
] [e] [e
]. Inversement, on a
e = e
f et e
= e
] et
[e
] [e
] ; nalement, [e] = [e
] = [e
].
Lemme. Soient e et e
dans E, et
]
ne depend pas de e et e
].
Soient e
1
et e
1
dautres representants de [e] et [e
] : il existe alors f et f
1
= e
+ f
. On en deduit que e
1
+
1
=
e +
+(f +
1
est dans [e +
]. Il reste `a
appliquer le lemme 2 pour obtenir [e
1
+
1
] = [e +
].
Ce lemme nous permet dassouplir nos notations : nous ecrirons [e] et [e] + [e
] `a
la place de [e] et [e + e
(f
1
+ f
2
) = (f
1
+
1
) + (f
2
+
2
).
(ii). Si la somme est directe, soit f F
1
F
2
: alors, 0 = 0 + 0 et 0 = f f sont
deux decompositions de 0, et doivent donc etre identiques, ce qui prouve que f = 0.
Reciproquement, supposons que F
1
F
2
= {0}, et decomposons un element f de
F
1
+F
2
de deux facons : f = f
1
+f
2
= f
1
+f
2
. Alors, ff = (f
1
f
1
)+(f
2
f
2
) = 0,
ce qui prouve que f
1
f
1
= f
2
f
2
, mais comme le membre de gauche appartient
`a F
1
et celui de droite `a F
2
, les deux termes sont nuls par hypoth`ese : on en tire
f
i
= f
i
(i = 1, 2) et lunicite de la decomposition.
18
Exemples. (i). Lensemble E des applications continues de R dans R est somme
directe de lensemble P des applications paires et de lensemble I des applications
impaires : en eet, toute fonction f peut secrire f(x) =
1
2
(f(x)+f(x))+
1
2
(f(x)
f(x)), do` u lexistence de la decomposition ; une fonction `a la fois paire et impaire
est nulle, do` u lunicite. (ii). Soit Uf(x, y) = 0 une equation dierentielle, o` u
U sexprime `a laide des operations suivantes : application repetee des symboles
x
,
y
et multiplication par une fonction (par exemple, f = 0). Il est parfois
plus facile de resoudre une telle equation si on suppose que f secrit (x)(y)
(dans notre exemple, on a
(x)(y) + (x)
(x).(x)
1
et
(y)(y)
1
est constant et ils sont opposes lun de lautre).
La methode de separation des variables consiste `a resoudre ce cas particulier, `a
montrer grace aux conditions initiales quil y a une famille nie despaces vectoriels
E
1
, . . . , E
n
de solutions et que la solution generale est un element de E
1
E
n
.
3.1.5. Applications lineaires.
Soient E et F deux espaces vectoriels. Parmi toutes les applications de E dans F,
certaines sont compatibles avec les lois de E et F et dautres ne le sont pas. Par
compatibles, nous entendons ce qui suit :
Denition. Une application : E F dun espace vectoriel dans un autre est
dite lineaire si pour tous e, e
dans E et tous ,
dans K on a
(1) (e +
) = (e) +
(e
).
Dans le cas particulier o` u est bijective, on constate facilement que
1
est
egalement lineaire ; on dit alors que est un isomorphisme de E sur F.
Exemples. (i). Lapplication f
_
1
1
f(x)dx, de lespace des fonctions continues
sur [1, 1] dans R, est lineaire. (ii). Lapplication qui, `a une fonction derivable,
associe sa derivee, est lineaire.
Il est clair que la notion precedente est transitive, cest `a dire que si et sont des
applications lineaires de E dans F et de F dans G, alors est une application
lineaire de E dans G. De meme, si et sont des isomorphismes, alors est
un isomorphisme. Dans le theor`eme suivant, nous allons regrouper les principales
proprietes des applications lineaires.
Theor`eme. Soit une application lineaire de E dans F. Alors : (i). Limage par
de tout sous-espace E
dans limage de E
et ,
dans E
) = f
) = (e) +
(e
)
3
Ou kernel en anglais, do` u la notation.
19
ce qui prouve que (e) +
(e
) = 0, alors selon
(1), (e +
) = (e) +
(e
, ce qui
prouve que Ker() contient e +
ont la meme
image si et seulement si e e
)(e) = (e) +
iI
i
e
i
na donc un sens que si les
i
sont tous
nuls sauf un nombre ni dentre eux. A chaque fois que nous ecrirons
iI
i
e
i
,
nous supposerons implicitement que tel est bien le cas. Une ecriture de la forme
iI
i
e
i
est appelee une combinaison lineaire des e
i
.
Denition. Soit (e
i
)
iI
une famille de vecteurs de E. On dit que (e
i
) est libre si
la condition
iI
i
e
i
= 0 implique que tous les scalaires
i
sont nuls. Dans le cas
contraire, on dit que (e
i
) est liee.
Exemples. (i). Pour choisir un rep`ere galileen de lespace, on se donne une origine
et une base (orthonormee directe) de lespace. Cette base est une famille libre. (ii).
Une famille qui contient le vecteur nul nest jamais libre.
Proposition. Soit (e
i
)
iI
une famille de vecteurs de E. Alors, lensemble des
combinaisons lineaires des e
i
forme un sous-espace F de E, que lon dit engendre
par les e
i
(on dit encore que les e
i
forment une partie generatrice de F).
Exercice.
Denition. Si (e
i
)
iI
est `a la fois une famille libre et une partie generatrice de E,
on dit que (e
i
)
iI
est une base de E. Cette denition concide avec celle donnee en
geometrie elementaire dans le cas du plan ou de lespace euclidien.
Theor`eme. Tout espace vectoriel poss`ede une base.
La preuve repose sur un axiome dicile appele laxiome du choix, et nous
ladmettrons ; son mecanisme consiste en gros `a choisir un premier vecteur e
1
,
20
et sil nengendre pas E, un second e
2
qui ne lui est pas lie, et ainsi de suite jusqu`a
obtenir une base. Ceci semble logique, mais fait appel `a un nombre en principe il-
limite de choix successifs portant sur des objets que lon ne peut pas denir par une
propriete quelconque (donc inutilisables en sciences appliquees). Une telle preuve
soul`eve donc de graves probl`emes de nature `a la fois logique, philosophique et pra-
tique : un grand mathematicien a dit que les preuves de ce type sont des cartes
qui signalent lexistence dun tresor sans en reveler lemplacement.
Il y a un cas o` u la preuve precedente nest pas genante : cest celui o` u la construc-
tion sarrete apr`es un nombre ni detapes. Nous verrons que dans un tel espace,
toute base a le meme nombre de vecteurs : ce nombre est appele dimension de
lespace. Il y a un autre cas o` u cette preuve nest pas genante : cest celui o` u on
peut preciser le choix eectue. Cest de loin le cas le plus important en physique.
Par exemple, considerons lespace des polynomes dune variable reelle x. Plusieurs
grands mathematiciens ont construit des bases tr`es ecaces de cet espace ; voici
une facon possible de proceder : on travaille par recurrence, le premier vecteur est
le polynome constant P
0
= 1 ; une fois construits P
0
, . . . , P
n
avec deg(P
i
) = i, on
appelle P
n+1
lunique polynome tel que
_
1
0
P
2
n+1
(x)dx = 1 et
_
1
0
P
n+1
(x)P
i
(x)dx = 0 i = 0, . . . , n.
Ce polynome existe et il est unique au signe pr`es, car les n+1 equations qui servent `a
le denir decrivent lintersection dune sp`ere de dimension n+1 avec une droite
dans un espace qui generalise lespace usuel (cf. x).
3.2.2. Completion dune base.
Proposition. Soient E un espace vectoriel, F un sous-espace. Alors, il existe un
sous-espace (non unique !) G de E appele supplementaire de F, tel que E = F G.
Soit (x
i
)
iI
une base de E/F. Choisissons arbitrairement une famille (y
i
)
iI
de
E telle que y
i
soit un representant de x
i
. Soit G le sous-espace engendre par les y
i
.
Alors, les y
i
forment une base de G, car toute relation
i
y
i
= 0 dans G implique
i
x
i
= 0 dans E/F. Soit e un element de e : la classe [e] de e dans E/F secrit
i
x
i
pour une certaine famille de scalaires
i
, donc on a e =
i
y
i
+f o` u f F.
Montrons maintenant que cette decomposition est unique. Si e =
i
y
i
+f
, alors
on a [e] =
i
x
i
=
i
x
i
, do` u
i
=
i
pour tout i ; on en deduit, en revenant `a
E, que e
i
y
i
= f = f
.
Theor`eme. (de la base incompl`ete). Sous les conditions precedentes, soit f
i
une
base de F : il existe une famille g
j
de E F telle que (f
i
) (g
j
) soit une base de
E.
Ceci decoule de la preuve precedente. Une consequence est que toute famille
libre de E peut etre completee en une base, do` u le nom donne `a ce theor`eme.
Proposition. Si E admet une base ayant un nombre ni n de vecteurs, alors toute
base de E a egalement n vecteurs.
Ceci se montre par recurrence sur le nombre minimal n de vecteurs necessaires
pour former une base de E. Dans le cas o` u n = 1, E est engendre par un vecteur
u. Raisonnons par labsurde en supposant quune base de E poss`ede au moins
21
deux vecteurs v
1
et v
2
. Alors, on a v
1
=
1
u avec
1
= 0, et v
2
=
2
u, do` u
lon tire
2
v
1
1
v
2
= 0 : donc, la famille v
i
nest pas libre, ce qui est absurde.
Supposons maintenant le resultat prouve pour n donne, et montrons-le pour n+1.
Soit u
1
, . . . , u
n+1
une base de E. Soit v
i
une autre base de E, ayant au moins n+1
vecteurs par hypoth`ese ; nous allons montrer que v
i
a exactement n + 1 vecteurs.
Comme u
1
, . . . , u
n+1
est une base, tout v
i
secrit de mani`ere unique sous la forme
w
i
+
i
u
n+1
o` u w
i
est combinaison lineaire de u
1
, . . . , u
n
; de plus, lun des v
i
(que
nous noterons v pour le distinguer) secrit w + u
n+1
avec non-nul, sinon les v
i
seraient tous contenus dans le sous-espace propre engendre par u
1
, . . . , u
n
, ce qui
est absurde. La famille composee de v et des x
i
= w
i
i
u
n+1
est encore une
base de E, comme on le verie facilement ; de plus, la famille x
i
, par construction,
est libre dans le sous-espace engendre par u
1
, . . . , u
n
donc elle a n vecteurs par
hypoth`ese de recurrence. Par consequent, la famille v
i
a n + 1 vecteurs.
3.2.3. Coordonnees dans un espace vectoriel.
Puisque les coordonnees du vecteur v dans une base donnee dependent lineairement
de v, on a le resultat suivant :
Proposition. Dans un espace de dimension nie, les coordonnees dun point dans
deux bases dierentes sont liees par deux equations reciproques lineaires dont les
matrices carrees reguli`eres ne dependent que des bases donnees et sont inverses
lune de lautre.
On en tire facilement les resultats suivants :
Theor`eme du rang. Soient E et F des espaces vectoriels, une application
lineaire de E dans F. Alors, dim(E) = dim((E)) + dim(Ker()).
Proposition. Soient (x
i
) et (y
i
) les coordonnees du vecteur variable v dans deux
rep`eres dierents. Soit P la matrice de passage de x
i
vers y
i
: y
i
= p
j
i
x
j
. Alors si
est une application lineaire de E dans E dont la matrice est A dans la base x
i
,
sa matrice dans la base y
i
est P
1
AP.
On dira que deux matrices de la forme A et P
1
AP sont semblables. Elles decrivent
la meme application lineaire dans deux bases dierentes.
3.2.4. Geometrie ane des espaces vectoriels.
Les espaces vectoriels abstraits generalisent ceux de la geometrie ; le langage geometrique
est de ce fait bien adapte `a leur etude.
Denition. On dit que E est un espace ane associe `a lespace vectoriel E si pour
tout vecteur v de E il existe une bijection de E, notee M M +v. On demande
de plus que pour tout M et tout N dans E, il existe un unique vecteur tel que
M +v = N ; enn, on demande que M + (v + w) et (M +v) + w soient toujours
egaux, ce qui justie la notation.
Pour stimuler lintuition, on appelle les elements de E des points, les elements de
E des vecteurs (libres) et on appelle vecteur lie
MN la donnee des deux points M
(origine) et N (extremite).
Denition. Un rep`ere de E est la donnee dun point O de E, appele origine, et
dune base v
1
, . . . , v
n
de E. Selon ce qui prec`ede, on a :
22
Proposition. Pour tout point M, il existe des nombres x
1
, . . . , x
n
uniques tels que
M = O+x
1
v
1
+ +x
n
v
n
. De plus, si M a les coordonnees x
1
, . . . , x
n
et x
1
, . . . , x
n
dans deux rep`eres dierents, les x
i
se deduisent des x
i
par un syst`eme de la forme
x
i
i
= a
j
i
x
j
. Les
i
sont les coordonnees de lancienne origine dans le nouveau
rep`ere, et les a
j
i
sont les coecients de la matrice de changement de base de E.
Les nombres x
i
sont les coordonnees de M dans le rep`ere considere. Un sous-espace
ane de E est lensemble F des points dont les coordonnees verient un certain
syst`eme (1) de rang p ; ce syst`eme est une equation de F et n p est la dimension
de F. Si p = 1 ou 2, on dit que F est une droite ou un plan ; comme notre monde
a (du moins en apparence) trois dimensions, il ny a pas de mot du langage courant
susceptible de designer les autres cas (toutefois, on dit parfois que F est un p-plan,
et si n = p + 1, un hyperplan).
Proposition. (i). Un p-plan F de E peut se decrire comme le lieu de O +x
1
v
1
+
+ x
p
v
p
o` u O est un point de F et v
1
, . . . , v
p
des vecteurs lies de F qui sont
libres entre eux. (ii). Soit A une application ane de rang p de E dans un espace
quelconque ; alors, si b Im(A), le lieu de Ax = b est un p-plan de E.
Le sous-espace vectoriel de E engendre par les v
i
precedents est lespace des vecteurs
de F. On dira donc que F
1
et F
2
sont parall`eles si lun des espaces F
1
, F
2
est inclus
dans lautre.
En general, dans lespace ordinaire, deux plans se coupent en une droite et deux
droites sont disjointes mais des cas particuliers sont possibles. Dans un espace ane
general, pour trouver lintersection de deux sous-espaces, on consid`erera le syst`eme
reunion de leurs equations : ainsi, F F
)n en
general (on consid`ere que si ce nombre est < 0, lintersection est vide). Toutefois,
des cas particuliers sont possibles car le syst`eme decrivant cette intersection peut
tomber dans lun des deux cas particuliers du paragraphe 2.
Une transformation ane est une application f de E dans E qui est bijective et a
une equation de la forme x
j
= a
j
i
x
i
+
j
o` u x
i
sont les coordonnees de M, x
i
celles
de f(M).
Exemple important. Lensemble des solutions dune equation dierentielle lineaire
est un espace ane. Si le terme constant est nul, cest un sous-espace vectoriel dans
lensemble des fonctions. Ceci reste valable pour plusieurs variables : par exem-
ple, les solutions (x(t), y(t)) de dx = t
2
dy + 2tdt forment un espace ane. De ce
fait, une solution generale est la somme dune solution particuli`ere (par exemple,
x = t
2
, y = 0) et dune solution de dx = t
2
dy.
3.3. Notion de produit scalaire.
Denition. Se donner un produit scalaire sur lespace vectoriel E, cest choisir une
base de E. Le produit des vecteurs u et v, note u.v, est le nombre u
1
v
1
+ +u
n
v
n
o` u
(u
1
, . . . , u
n
) et (v
1
, . . . , v
n
) sont les coordonnees de u et v dans la base de reference.
Une base dans laquelle le produit scalaire a cette formule est dite orthonormee.
Denition. La norme de u, notee u, est la racine carree de u
2
= u.u. Langle de u
et v, qui est deni au signe et `a 2 pr`es, est le nombre tel que u.v = uv cos().
La distance entre deux points A et B est la norme du vecteur B A.
23
Denition. Soit E un espace vectoriel sur lequel on a choisi un produit scalaire.
Une transformation ane de E est une isometrie si df(u).df(v) = u.v pour tous
vecteurs u et v, ce qui revient `a dire que limage par f dune base orthonormee est
orthonormee.
La formule du produit scalaire peut secrire sous forme matricielle (cette formule
est importante) :
Proposition. Soit E un espace muni dun produit scalaire. Dans toute base, or-
thonormee ou non, on a
u.v =
t
_
_
u
1
. . .
u
n
_
_
(A)
_
_
v
1
. . .
v
n
_
_
o` u A est une matrice inversible telle que
t
A = A (une telle matrice est dite
symetrique). La base choisie est orthonormee si A = I
n
.
Soit (e
1
, . . . , e
n
) une base de E. Notons a
i
j
= e
i
.e
j
: alors, on a a
i
j
= e
i
.e
j
=
e
j
.e
i
= a
j
i
, et par linearite du produit scalaire on a aussi (u
i
e
i
).(v
j
e
j
) = u
i
a
i
j
v
j
.
Enn, montrons que A est inversible : sinon, il existerait un vecteur non nul v tel
que Av = 0, et on aurait v.v =
t
v
t
Av = 0 ce qui est impossible car v est non nul.
Theor`eme. Soit E un espace muni dun produit scalaire. Une transformation
ane f de E est une isometrie si et seulement si sa matrice A verie
t
A = A
1
(une telle matrice est dite orthogonale).
Utilisons la proposition :
u.v =
t
_
_
u
1
. . .
u
n
_
_
(I
n
)
_
_
v
1
. . .
v
n
_
_
.
Si on ecrit le produit de df(u) par df(v), on obtient
t
_
_
u
1
. . .
u
n
_
_
t
(A)(I
n
)(A)
_
_
v
1
. . .
v
n
_
_
.
En cas degalite pour tous les vecteurs u et v, il vient que
t
AI
n
A = I
n
, ce qui
signie que
t
A = A
1
.
Nous citerons pour conclure deux resultats importants en pratique.
Proposition. Soit E un espace muni dun produit scalaire. Pour tout sous-espace
F de E, lensemble des vecteurs x orthogonaux `a chaque vecteur
f de F forme un
sous-espace supplementaire de F appele son orthogonal.
En dautres termes, lexistence dun produit scalaire permet dassocier `a tout sous-
espace un supplementaire plus ecace que les autres.
24
Proposition. Soit E un espace muni dun produit scalaire. Si : E R est
lineaire et non-nulle, alors il existe un unique vecteur u tel que (x) = x.u pour
tout x.
On peut ainsi relier les vecteurs et les applications lineaires `a valeurs dans R. Ce
procede est implicitement utilise pour ecrire le gradient dune fonction : etant
donnee une fonction f de R
3
dans R, on peut ecrire df = f
x
dx + f
y
dy + f
z
dz ;
on appelle alors gradient de f le vecteur lie base en (x, y, z) et de coordonnees
(f
x
, f
y
, f
z
). On obtient le meme vecteur quelle que soit la base orthonormee choisie
pour le calculer, car cest le vecteur u correspondant `a lapplication = df qui ne
depend daucun rep`ere.
4. Endomorphismes despaces vectoriels.
Pas encore redige, desole.
- Valeurs propres (reelles uniquement) et vecteurs propres. (Les notions de valeur
propre complexe et de vecteur propre imaginaire peuvent etre abordees en TD
sous forme dexercices dans des cas tr`es simples).
- Forme de la matrice de lendomorphisme dans une base de vecteurs propres.
- Il nexiste pas toujours une base de vecteurs propres (exemples : matrices
unipotentes, matrices sans valeur propre reelle).
- Polynome caracteristique P
A
() de la matrice A, invariance par changement
de rep`ere, lien avec les notions precedentes et formule P
A
(A) = 0.
- Recherche des valeurs propres multiples dans des cas particuliers (division eu-
clidienne de P
A
par P
A
).