SMPC S2 Algebre2 v2020 Cor3
SMPC S2 Algebre2 v2020 Cor3
SMPC S2 Algebre2 v2020 Cor3
FP-Safi
SMP/SMC
A. U: 2019-2020
2 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.1 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.1.2 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.1.3 L’espace vectoriel Mn,p (K). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.1.4 Produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.1.5 Expression matricielle d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1.6 Transposition d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.1.7 Matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.1.8 Groupe linéaire GLn (K). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
v
vi TABLE DES MATIÈRES
3 Diagonalisation et Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.1 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.1.1 Exemple de diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.1.2 Applications de la diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.1.3 Mise en forme de la démarche de la diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.1.4 Systèmes différentiels linéaires de premier ordre. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2 Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2.1 Définition et cacractérisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2.2 Exemple de trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2.3 Mise en forme de la démarche de trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3 T.D 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.4 Exercices supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
Chapitre 1
——————————————–
Dans toute la suite, K est un corps qui sera souvent R ou C, d’élément unitaire (pour la multiplication)
noté par 1.
Définition 1.1. Un ensemble non vide E est dit K-espace vectoriel ou espace vectoriel sur K si E est
muni
• d’une loi de composition interne (LCI) additive notée + telle que (E, +) est un groupe commutatif
d’élément neutre noté 0E ;
• d’une loi de composition externe (LCE), c’est à dire une applications de K × E dans E appelée produit
externe et notée · : (λ , x) 7→ λ .x := λ x, et possédant les propriétés suivantes:
1
2 1 Espaces vectoriels de dimension finie
Remarque 1.1. L’ensemble des vecteurs du plan physique (ou encore l’ensemble des vecteurs de
l’espace physique) vérifie exactement les mêmes axiomes de la définition ci-dessus, d’où l’appellation
espace vectoriel.
1. ∀x ∈ E, 0.x = 0E ;
2. ∀λ ∈ K, λ .0E = 0E .
= 0x = 0E .
λ .x = 0E =⇒ (λ = 0 ou x = 0E ).
1.1.2 Exemples
Remarque 1.3. En particulier, pour n ≥ 2, Rn est un K-espace vectoriel par rapport à l’addition et
produit externe définis plus haut.
Soit A un ensemble non vide et E un K-ev. On note par E A l’ensemble des applications de A dans E.
On définit sur E A :
• Soient E et F deux K-ev, alors F E l’ensemble des applications de E dans F est un K-ev.
• L’ensemble RN des suites réelles est un R-espace vectoriel pour les opérations usuelles d’addition
et produit par un réel.
• L’ensemble CN des suites complexes est un C-ev pour les opérations usuelles d’addition et produit
par un complexe.
• L’ensemble RI des fonctions réelles définies sur une partie I de R est un R-ev pour les opérations
usuelles d’addition et produit par un réel.
Définition 1.2. Une partie F d’un K-ev E est dite sous-espace vectoriel de E si, et seulement si
i) F 6= 0;
/
ii) F est stable pour l’addition i.e., ∀x, y ∈ F, x + y ∈ F;
iii) F est stable pour le produit externe i.e., ∀x ∈ F, ∀λ ∈ K, λ x ∈ F.
Contre-exemple:
Le complémentaire d’un s.e.v n’est pas un s.e.v (car il ne contient pas 0E ).
Autre exemple:
K[X] est un s.e.v de KN .
1. les lois de composition interne et externe de E induisent des lois de compositions interne et externe
sur F;
2. F est un K-ev pour les lois induites.
Exemples
Exercice 1.1. Montrer que Kn [X] := {P ∈ K[X] : deg(P) ≤ n} est un s.e.v de K[X].
1.1.3.1 Caractérisation
Théorème 1.1. Soit E un K-ev et F une partie de E. Alors, F est un s.e.v de E si, et seulement si
i) F 6= 0;
/
ii) ∀(x, y) ∈ F 2 , ∀(λ , µ) ∈ K2 , λ x + µy ∈ F .
Remarque 1.5. Pour montrer qu’une partie F d’un espace vectoriel E est un s.e.v, on vérifie d’abord si
0E ∈ F ou non. Si oui, on passe à vérifier la stabilité.
Proposition 1.5. Soit E un K-ev et (Fi )i∈I une famille de sous-espaces vectoriels de E. Alors
T
Fi est un
i∈I
s.e.v de E.
Définition 1.3. Soit A une partie d’un K-ev E. L’intersection de tous les sous-espaces vectoriels de E
contenant A est un s.e.v de E qui s’appelle le sous-espace vectoriel engendré par A, on le note par
Vect(A).
Remarque 1.6. Vect(A) est le plus petit (au sens de l’inclusion ) sous-espace vectoriel de E contenant
/ = {0E }.
A. On convient que Vect(0)
Définition 1.4. Soient E et F deux K-ev et f une application de E dans F. f est dite linéaire si, et
seulement si
Exemples 1.1.
Définition 1.5.
Notations
• L’ensemble des applications linéaires de E dans F sera noté par LK (E, F) ou tout simplement L (E, F)
lorsqu’il n’y a pas de risque de confusion sur le corps K.
6 1 Espaces vectoriels de dimension finie
i) f (0E ) = 0F ;
ii) ∀x ∈ E, f (−x) = − f (x).
Proposition 1.7. Soient E et F deux K-espaces vectoriels. Une application f de E dans F est linéaire si,
et seulement si
∀(x, y) ∈ E 2 , ∀(λ , µ) ∈ K2 , f (λ x + µy) = λ f (x) + µ f (y).
1.1.4.1 Image-Noyau
Définition 1.6. L’ensemble f (E) est un sous-espace vectoriel de F, appelé l’image de f , noté par Im( f ).
Définition 1.7. L’ensemble f −1 ({0F }) est un sous-espace vectoriel de E, appelé le noyau de f , noté par
Ker( f ).
1. 0E ∈ Ker( f ) 6= 0;
/
2. Ker( f ) = {x ∈ E, f (x) = 0F }.
pk : E −→ Ek
qk : Ek −→ E
Soient E et F deux K-espaces vectoriels. L’ensemble L (E, F), des applications linéaires de E dans F,
est un K-ev par rapport à l’addition des applications et produit externe usuel (des applications par les
scalaires).
Soient F1 et F2 des sous-espaces vectoriels d’un K-espaces vectoriel E. On rappelle que F1 × F2 est un
K-espaces vectoriel.
Définition 1.8. L’ensemble F1 + F2 = {x1 + x2 /xi ∈ Fi , i = 1, 2} est appelé la somme des sous-espaces F1 et
F2 .
8 1 Espaces vectoriels de dimension finie
Exercice 1.6. Soit E un K-ev, F1 , F2 , ...Fn des sous-espaces de E. Montrer que F1 + F2 + ... + Fn est un s.e.v
de E.
Définition 1.9. La somme F1 + F2 est directe si, et seulement si F1 ∩ F2 = {0E }, on la note par F1
L
F2 .
Exemples 1.3.
Proposition 1.13. Soit E un K-ev, F1 et F2 deux sous-espaces de E. Alors, il est équivalent de dire:
Définition 1.10. Soient E un K-ev et F1 , F2 , ...Fn des sous-espaces de E. La somme F1 + F2 + ... + Fn est
dite directe si tout vecteur x ∈ F1 + F2 + ... + Fn se décompose de manière unique en x = x1 + x2 + ... + xn
n
M
avec xi ∈ Fi pour tout i ∈ Fi , et on écrit dans ce cas F1 + F2 + ... + Fn = F1 ⊕ F2 ⊕ ... ⊕ Fn = Fi .
i=1
Exercice 1.7. Soit E un K-ev, F1 , F2 , ...Fn des sous-espaces de E. Montrer que la somme F1 + F2 + ... + Fn
est directe si, et seulement si l’une des assertions suivantes est satisfaite.
1. ∀(x1 , x2 , ..., xn ) ∈ F1 × F2 × ... × Fn tel que x1 + x2 + ... + xn = 0E , alors xi = 0E pour tout i ∈ {1, 2, ..., n}.
n
2. ∀ j ∈ {1, 2, ..., n}, Fj ( Fi ) = {0E }.
T
∑
i=1,i6= j
j−1
3. ∀ j ∈ {1, 2, ..., n}, Fj ( ∑ Fi ) = {0E }.
T
i=1
Définition 1.11. Soient E un K-ev, F1 et F2 deux sous-espaces de E. Les sous-espaces F1 et F2 sont dits
supplémentaires dans E si, et seulement si F1
L
F2 = E.
1.1 Rappel sur les espaces et sous-espaces vectoriels 9
B. Donc ∀x ∈ E, ∃!xA ∈ A,
L
Soient A et B des sous-espaces supplémentaires dans un K-ev E i.e., E = A
∃!xB ∈ B tels que: x = xA + xB .
pA : E −→ E
x 7−→ xA , où x = xA + xB .
Proposition 1.16. Soit E un K-ev et p ∈ L (E). Si p est un projecteur de E, alors p est la projection sur
Im(P) parallèlement à Ker(p).
Proposition 1.17. Soit E un K-ev et p ∈ L (E). Alors p est un projecteur de E si, et seulement si idE − p
est un projecteur, et on a dans ce cas
Ker(idE − p) = Im(p)
et
Im(idE − p) = Ker(p).
Définition 1.14. Soit E un K-ev et f ∈ L (E). f est dit une involution linéaire de E ssi f 2 = idE .
Notation:
Soit E un K-ev et f ∈ L (E). Dans la suite on adopte les notations suivantes:
Définition 1.15. Soit E un K-ev et F et G deux s.e.v de E tels que E = F ⊕ G. L’endomorphisme, noté
par sF,G , de E tel que Inv(sF,G ) = F et Opp(sF,G ) = G est dit symétrie par rapport à F parallélement à G.
Remarque 1.9. Sous les mêmes notations de la définition précédente, pour tout x = xF + xG ∈ F ⊕ G = E,
on a
sF,G (x) = xF − xG .
Exercice 1.10. Soit E un K-ev et F et G deux s.e.v de E tels que E = F ⊕ G. On note par sF,G (resp. pF,G )
la symétrie (projection) par rapport à (resp. sur) F parallélement à G.
Montrer que
sF,G = 2pF,G − IdE .
Soit E un K-ev.
Définition 1.16. (Combinaison linéaire (CL)). Soit F = (ai )i∈I famille. On dit que x ∈ E est une CL de
cette famille s’il existe une sous-famille (ai )i∈J finie de F, et il existe une famille finie de scalaires (λi )i∈J
telle que x = ∑ λi ai , et on écrit x = CL(ai )i∈I .
j∈J
1.2 Familles libres, génératrices et Bases 11
Définition 1.17. Soit A une partie de E, on dit que x ∈ E est CL de A si x est CL de la famille (a)a∈A .
Définition 1.18. Étant donné un s.e.v G de E, une famille A de E est dite génératrice de G si, et
seulement si
G = Vect({a})a∈A .
Définition 1.19.
• Une famille finie non vide (xi )i=1,...p d’éléments de E est dite libre ssi ∀λ1 , ...λ p ∈ K,
p
∑ λi xi = 0E =⇒ λi = 0, ∀i = 1, ...p.
i=1
• Une famille (quelconque) non vide est dite libre ssi toutes ses sous-familles finies sont libres. Une
famille est dite liée s’elle n’est pas libre.
Remarque 1.10. Une famille (xi )i∈I est liée ssi ∃ une famille finie de scalaires (λi )i∈J⊂I non tous nuls
tels que
∑ λi xi = 0E .
i∈J
Définition 1.20. Une base de E est une famille de E à la fois libre et génératrice.
12 1 Espaces vectoriels de dimension finie
Exemples 1.5.
Proposition 1.21. Soit B = (bi )i∈{1,...,n} une base de E. Alors, ∀x ∈ E, ∃! (λi )i∈I .
Définition 1.21. Dans les hypothèses de la proposition précédente, les scalaires λi s’appellent les
coordonnées de x par rapport à la base B.
Définition 1.22. Un espace vectoriel est dit de dimension finie s’il admet une famille génératrice finie.
Théorème 1.3. (Théorème de la base incomplète) Soit E un K-espace vectoriel de dimension finie
et G = (gi )i∈I une famille génératrice finie de E (i.e., card(I) ∈ N). Alors, pour toute sous-famille libre
L = (gi )i∈J de G, il existe une partie M de I contenant J telle que B = (gi )i∈M est une base de E.
Proposition 1.22. Si E admet une partie génératrice de cardinal n, alors les deux PSSS:
Théorème 1.4. Dans un K−espace vectoriel non nul de dimension finie, toutes les bases ont le même
cardinal.
Définition 1.23. Le cardinal commun de toutes les bases d’un K−espace vectoriel non nul de dimen-
sion finie E s’appelle la dimension de E, on le note dimK (E). Lorsqu’il n’ y a pas de risque de confusion
sur le corps K on écrit tout simplement dim(E). On convient que dimK ({0E }) = 0.
Proposition 1.23. Des K−espaces vectoriels de dimensions finies sont isomorphes si, et seulement si ils
sont la même dimension.
Théorème 1.5. Tout sous-espace F d’un K−espace vectoriel de dimension finie admet un supplémen-
taire G dans E, et on a dimK (F) + dimK (G) = dimK (E).
Théorème 1.6. Soit E un K−espace vectoriel de dimension finie. Soient F et G sont des sous-espaces,
non nuls (de E), supplémentaires dans E.
Alors E est de dimension finie et on a
Théorème 1.8. Soit E et F deux K−espaces vectoriels de dimension finie. Alors E × F est de dimension
finie et on a
dimK (E × F) = dimK (E) + dimK (F).
Théorème 1.9. Soient E et F des K−espaces vectoriels de dimensions finies. Alors, l’espace L (E, F) est
de dimension finie et on a
dimK (L (E, F)) = dimK (E).dimK (F).
Théorème 1.11. Soient E et F des K-ev de même dimension finie égal à n et f ∈ L (E, F). Alors, il est
équivalent de dire:
a) f est injective;
b) f est surjective;
c) f est bijective;
14 1 Espaces vectoriels de dimension finie
d) rg( f ) = n.
1.4 T.D 1 15
1.4 T.D 1
Exercice 1 Montrer que les parties suivantes sont des s.e.v de K[X] :
f : R2 −→ R
Pour quelles valeurs de λ , l’application f est linéaire? (R2 est considéré comme R-espace vectoriel).
Exercice 1 :
Soit E = R3 (comme R-espace vectoriel). Soient λ ∈ R un paramètre réel et f l’application définie par:
fλ : R3 −→ R3 (x, y, z) 7−→ f (x, y, z) = (λ |x|, y, z).
Exercice 2 :
Soit E = R[X]. On considère l’application f : R[X] −→ R[X] P 7−→ P0 (P0 est le polynôme dérivé de P).
Exercice 3 :
On considère E = R3 comme R-ev.
Soient a = (1, 1, 1), A = Ra = Vect({a}) et B la partie définie par
B = {x = (x1 , x2 , x3 ) ∈ R3 | x1 + x2 + x3 = 0}.
Exercice 4 :
Donner la dimension et déterminer une base de chacun des espaces vectoriels suivants:
Matrices
——————————————–
2.1 Matrices
Dans tout ce chapitre, K est un corps. Les éléments neutres des lois addition + et produit . seront
notés par 0 et 1. n, p désignent des entiers naturels non nuls.
Définition 2.1. Une matrice de type (n, p) sur K est une application M :
On écrit M = (ai j )(i, j)∈[[1,n]]×[[1,p]] ou encore M = [ai j ]n,p (K). Les scalaires ai j s’appellent les coefficients de la
matrice.
L’ensemble de départ de l’application M étant fini, il est plus commode de représenter la matrice M
sous-forme du tableau suivant:
a11 · · · a1p
. . ..
.
M= .
. . .
an1 · · · anp
Définition 2.2. Une matrice de type (1, p) est dite matrice ligne. Une matrice de type (n, 1) est dite
matrice colonne.
17
18 2 Matrices
Remarque 2.1. Une matrice de type (n, p) admet Cnr ×Csp matrices extraites.
Notation
L’ensemble des matrices de type (n, p) à coefficients dans K sera noté dorénavant par Mn,p (K).
Définition 2.4. Soit M = (ai j )(i, j)∈[[1,n]]×[[1,p]] une matrice. Soit k ∈ [[1, n]] , h ∈ [[1, p]] .
Définition 2.5. Soit B = (ei )i=1,...,p et B0 = (e0i )i=1,...,n les bases canoniques respectives de K p et Kn . Soit
M = [mi j ]n,p (K).
n
• Le vecteur C j = ∑ mk j e0k est appelé j-ème vecteur colonne de M.
k=1
p
• Le vecteur li = ∑ mih eh est appelé i-ème-vecteur ligne de M.
h=1
Soient E et F des K−espaces vectoriels de dimensions finies respectives p et n, U = (u1 , ..., u p ) une base
de E, V = (v1 , ..., vn ) une base de F. Soit f ∈ L (E, F). f est caractérisée par: ∀ j ∈ {1, ..., p},
n
f (u j ) = ∑ αi j vi .
i=1
Alors on a
p
y = f ( ∑ x ju j)
j=1
p
= ∑ x j f (u j )
j=1
p n
= ∑ x j ( ∑ αi j vi )
j=1 i=1
n p
= ∑ ( ∑ αi j x j )vi .
i=1 j=1
2.1 Matrices 19
D’autre part on a
n
y = (y1 , ..., yn ) = ∑ yi vi .
i=1
Donc l’égalité précédente, compte tenu de l’unicité des coordonnées dans une base, entraîne que
p
yi = ∑ αi j x j , ∀i = 1, ...n.
j=1
Définition 2.6. La matrice définie par M = [αi j ]n,p est dite matrice de f dans les bases U et V , notée
matU ,V ( f ).
cosα −sinα
Mα =
.
sinα cosα
3. Matrice
Dans R2 muni de la base canonique on considère π : R2 −→ R2 la projection sur l’axe des abscisses
(Ox) parallèlement à l’axe des des ordonnées (Oy). La matrice de π est:
1 0
Mπ =
.
0 0
20 2 Matrices
Proposition 2.1. Soient E et F des K−espaces vectoriels de dimensions finies p et n respectivement. Soit
U une base de E et V une base de F. L’application
f 7−→ matU ,V ( f )
est bijective.
Ψ : L (K p , Kn ) −→ Mn,p (K)
f 7−→ matB,B0 ( f )
est bijective.
Proposition 2.3. Soient E et F des R−espaces vectoriels de dimensions finies p et n respectivement. Soit
f ∈ L (E, F) telle que rg( f ) = r. Alors, il existe une base U de E et une base γ de F telles que
Ir 0 p−r
matU ,γ ( f ) =
0n−r 0n−r,p−r
Soit E et F des K−espaces vectoriels de bases U = (u j ) j=1,...p et V = (vi )i=1,...n respectivement. Soit f , g ∈
L (E, F). On pose A = [ai j ] = matU ,V ( f ) et B = [ai j ] = matU ,V (g).
Définition 2.8. On définit sur Mn,p (K) une addition et un produit externe comme suit:
Proposition 2.5. L’ensemble (Mn,p (K), +, .), où + et . sont les lois définies ci-dessus, est un K−espace
vectoriel. L’élément neutre de (K), +) est la matrice nulle, dont tout les coefficients sont nuls, notée par
0n,p ou 0 tout simplement s’il n’y a pas risque de confusion.
Proposition 2.6. Soit E et F des K−espaces vectoriels de bases U = (u j ) j=1,...p et V = (vi )i=1,...n respec-
tivement. L’application
Ψ : L −→ Mn,p (K)
f 7−→ matU ,V ( f )
Corollaire 2.1. Soient E et F des K−espaces vectoriels de bases U = (u j ) j=1,...p et V = (vi )i=1,...n respec-
tivement. Alors, Mn,p (K) est de dimension finie et on a
De plus, la famille des np matrices (Esr )(s,r)∈[|1,n|]×[|1,p|] , dont tous les termes sont nuls sauf le terme (s, r)
qui vaut 1, est une base de Mn,p (K).
Remarque 2.2. On peut démontrer directement (et facilement) que (Ei j ) est libre et génératrice de
Mn,p (K).
Soit E, F, G des K−espaces vectoriels de dimensions finies non nulles p, n, m et munis respectivement de
bases notées par
22 2 Matrices
U = (u j ) j∈[[1,p]] ;
V = (vk )k∈[[1,n]] ;
W = (u j ) j∈[[1,m]] .
et
avec
n
ci j = ∑ bik ak j .
k=1
Définition 2.9. Le produit de B = [bik ] ∈ Mm,n (K) par A = [ak j ] ∈ Mn,p (K) est la matrice C notée B A (ou
indifférement par BA) définie par:
avec
n
ci j = ∑ bik ak j .
k=1
Exemple: √
√
2
0 1 − 2 1 + 22
Soit A =
et B =
√ √
1 0 1 + 22 2
2
Alors √
1 2+1 1
AB = √ √
.
2 -1 2+1
0 1 1 0
A= et B =
,
1 1 0 -1
0 -1 0 1
on voit que AB = alors que BA = . Donc AB 6= BA.
1 -1 -1 -1
avec
n p
λil = ∑ ∑ ai j b jk ckl .
j=1 k=1
(A, B) 7−→ BA
Soient E et F des K−espaces vectoriels de dimensions finies p et n, rapporés à des bases U = (u j ) j∈[[1,p]]
et V = (vi )i∈[[1,n]] .
24 2 Matrices
p n
Soit f ∈ L (E, F), et (x, y) ∈ E × F, x = ∑ x j u j , y = ∑ yi vi .
j=1 i=1
On pose
X = [x j ] ∈ M p,1 (K);
y = f (x) ⇐⇒ Y = AX.
Réciproquement, si une matrice B vérifie Y = BX pour tout (x, y) ∈ E ×F tel que y = f (x), alors B est la matrice
de f dans les bases U et V .
Définition 2.10. Soit M = [ai j ] ∈ Mn,p (K). La transposée de M est la matrice de type (p, n) [a0i j ] définie
par a0i j = a ji , ∀(i, j) ∈ [[1, p]] × [[1, n]] . On la note par t M.
M 7−→ t M
Remarque 2.3. Un calcul immédiat montre que si A ∈ M p,n (K) et B ∈ Mn,q (K) alors
t
(AB) = t B t A.
2.1 Matrices 25
L’espace vectoriel Mn,n (K) sera noté dans la suite par Mn (K).
Définition 2.11. Une matrice de Mn (K) est dite matrice carrée d’ordre n.
Définition 2.12. Soit E un K−espace vectoriel non nul de dimension finie n muni d’une base U =
(ui )i∈[[1,n]] .
La matrice d’un endomorphisme f de E dans la base U est la matrice matU ,U ( f ) qui sera notée
matU ( f ).
Définition 2.13. On appelle diagonale d’une matrice carrée, d’ordre n, M = [mi j ] ∈ Mn (K) le n−uplet
(m11 , m22 , · · · , mnn ) formé par les éléments diagonaux de M.
On appelle matrice unité d’ordre n notée par1 In la matrice [δi j ] ∈ Mn (K).
L (E) −→ Mn (K)
f 7−→ matU ( f )
Définition 2.14. Une matrice A ∈ Mn (K) est inversible si, et seulement s’il existe une matrice B ∈ Mn (K)
telle que:
AB = BA = In .
1 On la note aussi par I lorsqu’il n’y a pas de risque de confusion sur la dimension n.
26 2 Matrices
Définition 2.15. On appelle groupe linéaire d’ordre n sur le corps K le groupe multiplicatif des élé-
ments inversibles de l’anneau Mn (K). Il sera noté par GLn (K).
Théorème 2.1. Une matrice A ∈ Mn (K) est inversible si, et seulement si l’une des deux conditions
suivantes est satisfaite:
Remarque 2.5. Si A et B sont des matrices inversibles de Mn (K), alors AB est inversible et on a
Corollaire 2.2. Si A est une matrice inversible de Mn (K), alors t A est inversible et on a
(t A)−1 = t (A−1 ).
Définition 2.16. On appelle trace d’une matrice carrée M = [mi j ] ∈ Mn (K), le scalaire somme des élé-
ments diagonaux de M, noté tr(M), i.e.,
n
tr(M) = ∑ mii .
i=1
Mn (K) −→ K
M 7−→ Tr(M)
est une forme linéaire non nulle. Montrer également que ∀A ∈ Mn,p (K), ∀B ∈ M p,n (K),
tr(AB) = tr(BA).
Définition 2.17. On appelle matrice scalaire d’ordre n toute matrice sous la forme αIn de Mn (K) où
α ∈ K.
Définition 2.18. Soit (α1 , ..., αn ) ∈ Kn (quelconque). On appelle matrice diagonale toute matrice de type
[αi δi j ] ∈ Mn (K), où δi j est le symbole de Kronecker.
Notation Une matrice diagonale [αi δi j ] est également notée diag(α1 , ..., αn ). L’ensemble des matrices
Exercice 2.2. Soit D = diag(α1 , ..., αn ) et D0 = diag(α10 , ..., αn0 ). Montrer que
• symétrique si t M = M;
• antisymétrique si t M = −M.
Notations
Remarque 2.6. Une matrice carrée est triangulaire supérieure si, et seulement si tout ses coefficients
situés en dessous de la diagonale sont nuls. De même une matrice carrée est triangulaire inférieure
si, et seulement si tout ses coefficients situés en dessus de la diagonale sont nuls
1 3 2 0 0 0
Exemple 2.1. La matrice 0 1 -1 est triangulaire supérieure alors que la matrice
1 0 0 est tri-
0 0 4 2 -1 0
angulaire inférieure.
28 2 Matrices
Définition 2.21. Soient U = (e j ) j∈[[1,p]] et V = (e0j ) j∈[[1,p]] des bases d’un K−espace vectoriel E non nul de
dimension finie p. La matrice de passage de la base U à la base V notée PU V = [pi j ] ∈ M p (K) est la
matrice définie par
PU V = matV U (idE ).
Exemple: Soit E = R3 muni la base canonique Bc = {e1 , e2 , e3 }. On considère une autre base B formée
par les vecteurs suivants:
b1 = (1, 1, 1)
b2 = (1, 3, 2) .
b3 = (1, 2, 1)
PU V .PV W = PU W .
Alors on a
X = PU V X 0 , X 0 = PU−1V X.
2.1 Matrices 29
Soit:
M = matU ,V ( f )
et
M 0 = matU 0 ,V 0 ( f ).
M 0 = Q−1 MP.
Définition 2.22. Soit (A, B) ∈ Mn (K ). On dit que les deux matrices A et B sont semblables ssi il existe
une matrice inversible P ∈ GLn K tel que
A = P−1 BP.
Remarque 2.8. Une matrice d’un endomorphisme par rapport à une base (initiale) est semblable à la
nouvelle matrice dans une nouvelle base.
Définition 2.24. Le rang d’une matrice M est celui du système de ses vecteurs-colonnes, on le note
par rg(M).
Remarque 2.9. Le rang d’un système fini de vecteurs d’un espace vectoriel de dimension finie est égal
au rang de la matrice de ce système dans une base.
rg( f ) = rg(M).
Remarque 2.10. Le rang d’une matrice est égal au rang de l’application linéaire qui lui est canonique-
ment associée.
Proposition 2.16. Soit A une matrice carrée d’ordre n. Montrer que A est inversible si, et seulement si
rg(A) = n.
2. Si A ∈ GL p (K), alors
rg(AB) = rg(B).
2.2 Déterminants
Soit A = (ai j ) une matrice d’ordre n. Pour tout (i, j) ∈ [|1, n|]2 , on désigne par Ai j la matrice extraite de A
obtenue en supprimant la i-ème ligne et la j-ème colonne de A.
On remarque que
det(A) = a11 det(A11 ) − a12 det(A12 ) .
• Si n ≥ 3, on définit
On dit alors que le déterminant de A est obtenu en développant selon la 1-ère ligne.
Notation
On note également le déterminant d’une matrice A en conservant les coefficients de la matrice entre
deux barres, par exemple dans le cas n = 2, on écrit
a11 a12
det(A) = .
a21 a22
Soit E un K−espace vectoriel de dimension finie égal à n muni d’une base B = (e1 , ..., en ) et soit S =
(u1 , ..., un ) une famille de n vecteurs de E. Notons par A = [ai j ] la matrice carrée d’ordre n dont les colonnes
sont formés par les coordonnées des vecteurs ui dans la base B i.e., la i-ème colonne Ci de la matrice A
est formée par les coordonnées du vecteur ui dans la base B.
Proposition 2.17. Soit E un K−espace vectoriel de dimension finie égal à n muni d’une base B = (e1 , ..., en )
et soit S = (u1 , ..., un ) une famille de n vecteurs de E. Pour tout σ ∈ Sn , les PSSS:
et que
detB (λ (u1 , ..., un )) = λ n detB (u1 , ..., un ).
Proposition 2.18. Soit A une matrice carrée. Montrer que det(t A) = det(A)
Exercice 2.4. Soit A = (ai j ) une matrice triangulaire supérieure. Montrer que
det(A) = ∏ aii .
1≤i≤n
Soit i, 1 ≤ i ≤ n. Alors on a
det(A) = ∑ (−1)i+ j ai j det(Ai j ) .
1≤ j≤n
Proposition 2.20. Soit E un K-espace vectoriel de dimension finie n, f ∈ L (E), B = (e1 , ..., en ) et C =
(c1 , ..., cn ) deux bases de E. Alors on a
Donc la valeur detB ( f (B)) ne dépend pas de la base B. On définit alors le déterminant d’un endomor-
phisme f par
det( f ) := detB ( f (B))
Proposition 2.22. Soit E un K-espace vectoriel de dimension finie n, f ∈ L (E). Alors f est inversible si,
et seulement si det( f ) 6= 0.
Exercice 2.6. Soit E un espace vectoriel de dimension finie, f un endomorphisme de E et B une base
de E. Montrer que
det( f ) = det(matB ( f )).
34 2 Matrices
Corollaire 2.4. Soient A et B deux matrices carrées d’ordre n. Alors les PSSS:
• det(AB) = det(A).det(B);
• A est inversible si, et seulement si det(A) 6= 0;
• Si A est inversible, alors det(A−1 ) = 1
det(A) .
Définition 2.27. Soit A = (ai j ) une matrice carrée d’ordre n. Pour tout i, j ∈ {1, ..., n}, on désigne par Ai j
la matrice extraite de A définie (auparavant), obtenue en supprimant la ième ligne et la jème colonne
de A. On appelle (i, j)-cofacteur de A le nombre (−1)i+ j det(Ai j ), qu’on note par co fi j (A). La matrice carrée
d’ordre n définie par (co fi j (A)) s’appelle matrice des cofacteurs de A ou encore co-matrice de A, on la
note co f (A).
1
A−1 = co f (t A) .
det(A)
Avec co f (A) est la matrice des cofacteurs (ou co-matrice) de A définie par:
où
co fi j (A) = (−1)i+ j det(Ai j ) .
2.3 TD 2 35
2.3 TD 2
Exercice 1 (Vrai-Faux)
Soient n ∈ N? et A ∈ Mn (R).
a ∀λ ∈ R, det(λ A) = λ det(A).
b ∃λ ∈ R, det(λ A) = λ det(A).
c ∀λ ∈ R, det(λ A) = λ n det(A).
d ∀λ ∈ R, det(λ A) = nλ det(A).
λ
e ∀λ ∈ R, det(λ A) = det(A).
n
Exercice 2
En calculant le déterminant, dire si le système S = (X,Y, Z) est libre ou non dans chacun des cas
suivants :
0 4
11
1. X =
1 , Y = 5 , Z = 7 .
-1 -2 3
3 4
10
2. X =
0 , Y = 1 , Z = 9 .
-7 -4 -6
Exercice 3
1 2 -1
1. Calculer le déterminant 2 3 2 .
6 8 4
1 2 -1
2. Soit A la matrice donnée par : A = 2 3 2
. Vérifier que A est inversible.
6 8 4
3. En utilisant la co-matrice (ou matrice des cofacteurs), donner l’inverse de A.
4. Résoudre le système suivant :
x + 2y − z = 1
2x + 3y + 2z = −1
6x + 8y + 4z = 0 .
Exercice 1 :
Soit E = R3 muni la base canonique Bc = {e1 , e2 , e3 }. On considère la famille B formée par les vecteurs
suivants:
b1 = (1, 1, 1)
b2 = (1, 3, 2) .
b3 = (1, 2, 1)
Exercice 2 :
Déterminer les applications linéaires canoniquement associées aux matrices suivantes:
1 3 2
• A = 0 1 -1
;
0 0 4
0 0 0
• B= 1 0 0 .
2 -1 0
Exercice 3 :
On considère l’application linéaire f dont la matrice par rapport à la base canonique (notée par Bc ) est
donnée par:
9 -6 10
A = -5 2 -5
.
-12 6 -13
Exercice 4 :
cosα -sinα
Pour tout α ∈ R, on considère la matrice Aα définie par: Aα =
.
sinα cosα
Exercice 5 :
1 2 -1
1. Calculer le déterminant 2 3 2 .
6 8 4
1 2 -1
2. Soit A la matrice donnée par: A = 2 3 2
.
6 8 4
Vérifier que A est inversible.
3. En utilisant la co-matrice (ou matrice des cofacteurs) donner l’inverse de A.
4. Résoudre le système
x + 2y − z = 1
2x + 3y + 2z = −1
6x + 8y + 4z = 0 .
Chapitre 3
Diagonalisation et Trigonalisation
———————————————————————-
3.1 Diagonalisation
Soit E un K-ev de dimension finie n, f ∈ L (E), B une base de E et A = matB ( f ) = (ai j ) ∈ Mn (K).
I Le polynôme (en λ ) P = P(A) = det(A − λ I) est appelé polynôme caractéristique de f (ou de A), noté
par χ( f ), notons que deg(P) = n.
I Toute racine du polynôme caractéristique χ( f ) est dite valeur propre de f .
I L’ensemble des valeurs propres de f (ou de A) est noté par spK ( f ) ou sp( f ) s’il n’y a pas de risque
de confusion sur le corps K.
I ∀λ ∈ sp( f ), f − λ I n’est pas injective, c’est à dire A − λ I n’est pas inversible.
I On appelle vecteur propre de f (ou de A) associé à une valeur propre λ tout vecteur non nul de
Eλ = Ker( f − λ I).
I ∀λ ∈ sp( f ), Eλ = Ker( f − λ I) est appelé sous-espace propre de f associé à λ .
I ∀λ , µ ∈ sp( f ) telles que λ 6= µ, Ker( f − λ I) ∩ (Ker( f − µI) = {0}.
I On suppose que sp( f ) = {λ1 , ..., λk } et que
39
40 3 Diagonalisation et Trigonalisation
I 1. Si χ( f ) n’est pas un polynôme scindé (i.e., la somme des ordres de multiplicité des racines6=
deg(χ( f ))) alors f n’est pas diagonalisable.
2. Si χ( f ) admet une valeur propre λi dont l’ordre de multiplicité est strictement supérieur à
dim(Ker( f − λi I), alors f n’est pas diagonalisable.
χ( f ) = −λ (λ − 1)(λ − 2).
( f − λ1 )(v) = 0.
on obtient
• Soit B = (v1 , v2 , v3 ). On a detBc (B) 6= 0 donc B est libre et fournit par conséquent une base de R3 .
• Maintenant, on a f (v1 ) = 0, f (v2 ) = v2 et f (v3 ) = 2v3 et on écrit alors la matrice A0 de f dans la nouvelle
B (formée par les vecteurs propres):
0 0 0
0
A =
0 1 0 .
002
Soit M une matrice carrée. Pour tout k ∈ N? , M k désigne le produit de M par elle même k fois. Si de plus
M est inversible alors pour tout k ∈ N? , M −k = (M −1 )k .
Soit A une matrice carrée diagonalisable et soit A0 la matrice diagonale associée à A i.e. A0 = P−1 AP où P
est la matrice de passage de la base canonique à une base de vecteurs propres. Alors An = PA0n P−1 pour
tout n ≥ 0. Si A est inversible alors A p = PA0p P−1 pour tout p < 0.
alors A est diagonalisable et on commence à résoudre les systèmes linéaires donnés par les équa-
tions ( f −λi I)(v) = 0 pour déterminer les vecteurs propres vi associés aux valeurs propres λi . La famille
B0 = (v1 , ..., vn ) serait une base de E.
• La nouvelle matrice diagonale A0 est donnée par A0 = diag(λ1 , ..., λk ) (où chaque valeur propre λk se
répète mk fois, avec mk est l’ordre de multiplicité de λk ).
• On calcule les matrices des passages P = matB0 ,B (IdE ) et P−1 = matB,B0 (IdE ) et on en déduit la relation
entre l’ancienne matrice A et la nouvelle matrice diagonale A0 , et ce par la formule de changement
de base i.e., A0 = matB0 ( f ) = P−1 AP.
ẋ1 (t) = x1 (t) + 2x2 (t) − 3x3 (t)
(SD) ẋ2 (t) = x1 (t) + 4x2 (t) − 5x3 (t)
ẋ3 (t) = 2x2 (t) − 2x3 (t) .
x1 (t) ẋ 1 (t)
On pose X(t) = x2 (t) et on a alors Ẋ(t) = ẋ2 (t)
.
x3 (t) ẋ3 (t)
On voit ainsi que (SD) peut s’écrire sous la forme matricielle suivante:
Ẋ(t) = AX(t)
1 cette condition est équivalente à dire que: Les valeurs propres λ1 , ..., λk sont d’ordres de multiplicités m1 , ...mk respective-
ment avec dim(Ker( f − λi I)) = mi pour tout i ∈ {1, ..., k}.
3.2 Trigonalisation 43
1 2 −3
0 −1
avec A = 1 4 −5
. On a A = P AP, donc
0 2 −2
3.2 Trigonalisation
I u est trigonalisable ssi il existe une base de E par rapport à laquelle la matrice de u est triangulaire
supérieure.
I A est trigonalisable ssi elle est semblable à une matrice triangulaire supérieure.
I Un endomorphisme u (resp. une matrice A) est trigonalisable sur E (resp. dans Mn (K)) ssi χu (resp.
χA ) est scindé dans K.
I Si E est un C-ev, tout endomorphisme de E est trigonalisable.
I Toute matrice de Mn (K) (K = R ou C) est trigonalisable dans Mn (C).
1−X 1 0
On a χA (X) = 1 −1 − X 1 = (1 − X)3 .
2 −5 3−X
Notons par f l’endomorphisme de R3 canoniquement associé à A.
Cherchons d’abord un vecteur propre associé à la valeur propre 1.
Soit (x, y, z) ∈ E1 (A). Alors
x 0
(A − I3 )
y = 0 .
z 0
c’est à dire
x = −z
.
y = 0
Une base de Ker( f − IdR3 ) est {e1 = (1, 0, −1)}. On la complète en une base (e1 , e2 , e3 ) de R3 avec e2 = (0, 1, 0)
et e3 = (0, 0, 1). Par rapport à cette base la matrice de f est
1 1 0
B = 0 -1 1
.
0 -4 3
• χA1 = (X − 1)2 .
• Soit (x, y) un vecteur de E1 (A1 ). On a −2x + y = 0. Donc {e01 = (1, 2)} est une base de E1 (A1 ).
• On complète {e01 } en une base (e01 , e02 ) de R2 avec e02 = (0, 1). Par rapport à cette base la matrice de g
est
1 1
.
0 1
• On conclut que
3.2 Trigonalisation 45
1 1 1 0
A1 = Q Q−1 avec Q = .
0 1 2 1
Finalement
1 1 0
−1
A = PR
0 1 1 (PR)
0 0 1
avec
1 0 0
R=
0 1 0 .
0 2 1
1 0 0
1 0 0
PR =
−1
et (PR) =
.
0 1 0 -1 1 0
-1 2 1
-1 1 1
Soient n ∈ N? et A ∈ Mn (K).
I On calcule χA .
I On détermine les racines de χA i.e., trouver les valeurs propres de A.
I Si χA n’est pas scindé i.e., les racines de χA ne sont pas tous dans K alors A n’est pas trigonalisable
et le processus s’arrête ici2 .
I Si χA est scindé i.e., les racines de χA sont tous dans K alors A est trigonalisable et on continue le
processus comme indiqué dans les étapes suivantes:
2 Ceci concerne uniquement les matrices à coefficients réels, celles qui sont à coefficients complexes sont toujours
trigonalisables en vertue du Théorème de D’Alembert-Gauss.
46 3 Diagonalisation et Trigonalisation
λ 1 a1 · · · a
n−1
0
à =
.
.
. B
0
H On remarquera que χA (X) = (λ1 − X) χB (X). Donc χB est scindé dans K en tant que diviseur
d’un polynôme scindé, et par conséquent B est trigonalisable dans Mn−1 (K). Dans les étapes
suivantes on trigonalise la matrice B qui est d’ordre inférieur i.e., n − 1.
H On détermine une matrice Q ∈ GLn−1 (K) et une matrice triangulaire supérieure T de Mn−1 (K)
telles que
−1
B = QT Q .
et on a
3.2 Trigonalisation 47
λ 1 a1 · · · a
n−1
λ 1 a1 · · · a
n−1
0 0
−1
R R =
. .
.
. B
.
. Q
−1
B Q
0 0
λ a
1 1 · · · a
n−1
0
= .
..
. T
0
3.3 T.D 3
00
Exercice 1 Soit B = .
11
x(0) = −1
ẋ(0) = 1.
1. Trouver la matrice A ∈ M2 (R) qui exprime l’équation (E0 ) : 2ẍ+3ẋ−4x = 0. Ind: Utiliser le changement
ẋ ab
de variable X = puis trouver A ∈ M2 (R) telle que Ẋ = AX, poser pour cela A = .
x cd
2. Montrer que A est diagonalisable.
3. Diagonaliser la matrice A (Vecteurs propres, sous espaces propres, base de vecteurs propres, ma-
trice de passage et formule de changement de base).
4. Trouver la solution de l’équation (E0 ) (sans utiliser la méthode de l’équation caractéristique, Tenir
compte des conditions initiales).
5. En utilisant la matrice A, déterminer le terme général de chacune des suites récurrentes (un , vn )
définies par:
2un+1 = −3un + 4vn ;
vn+1 = un
u0 = 1, v0 = −1.
Exercice 1 :
α 1
Soit α ∈ R et soit la matrice Aα = .
-1 -α
3.4 Exercices supplémentaires 49
3. Diagonaliser A2 .
4. Résoudre le système différentiel suivant:
ẋ(t) = 2x(t) + y(t)
ẏ(t) = −x(t) − 2y(t).
x(0) = 0, y(0) = 1.
Exercice 2 :
Les matrices suivantes sont-elles diagonalisables?
0 -8 6
1. A = -1 -8
;
7
1 -14 11
2 0 4
2. A =
3 -4 12 .
1 -2 5
-1 0
3. A = −I2 = .
0 -1
Exercice 3 :
2 0 1
3
Soit f l’endomorphisme de R dont la matrice dans la base canonique Bc est A =
1 1 0 .
-1 1 3