SMPC S2 Algebre2 v2020 Cor3

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 54

UCAM

FP-Safi
SMP/SMC
A. U: 2019-2020

Algèbre 2: Cours et exercices

Prof. M. Ait Mansour

March 16, 2020


TABLE DES MATIÈRES

1 Espaces vectoriels de dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1


1.1 Rappel sur les espaces et sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Définition et règles de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.3 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.4 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.5 Somme de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.6 Somme directe de sous-espaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.7 Sous-espaces supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.8 Projecteurs, symétries et involutions vectorielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 Familles libres, génératrices et Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3 Rang d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4 T.D 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5 Exercices supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.1 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.1.2 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.1.3 L’espace vectoriel Mn,p (K). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.1.4 Produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.1.5 Expression matricielle d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1.6 Transposition d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.1.7 Matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.1.8 Groupe linéaire GLn (K). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

v
vi TABLE DES MATIÈRES

2.1.9 Trace d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26


2.1.10 Matrices remarquables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.1.11 Changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.1.12 Changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.1.13 Changement de matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.1.14 Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2 Déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2.1 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2.2 Déterminant d’un système fini de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.2.3 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.3 TD 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.4 Exercices Supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

3 Diagonalisation et Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.1 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.1.1 Exemple de diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.1.2 Applications de la diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.1.3 Mise en forme de la démarche de la diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.1.4 Systèmes différentiels linéaires de premier ordre. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2 Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2.1 Définition et cacractérisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2.2 Exemple de trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2.3 Mise en forme de la démarche de trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3 T.D 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.4 Exercices supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
Chapitre 1

Espaces vectoriels de dimension finie

——————————————–

1.1 Rappel sur les espaces et sous-espaces vectoriels

1.1.1 Définition et règles de calcul

Dans toute la suite, K est un corps qui sera souvent R ou C, d’élément unitaire (pour la multiplication)
noté par 1.

Définition 1.1. Un ensemble non vide E est dit K-espace vectoriel ou espace vectoriel sur K si E est
muni

• d’une loi de composition interne (LCI) additive notée + telle que (E, +) est un groupe commutatif
d’élément neutre noté 0E ;
• d’une loi de composition externe (LCE), c’est à dire une applications de K × E dans E appelée produit
externe et notée · : (λ , x) 7→ λ .x := λ x, et possédant les propriétés suivantes:

1. Distributivité par rapport à la somme des scalaires:


P1: ∀(α, β , x) ∈ K2 × E, (α + β )x = αx + β x;
2. Distributivité par rapport à la somme des vecteurs:
P2: ∀(α, x, y) ∈ K × E 2 , α(x + y) = αx + αy;
3. Associativité mixte :
P3: ∀(α, β , x) ∈ K2 × E, α(β x) = (αβ )x;
4. Opérateur neutre :
P4: ∀x ∈ E, 1.x = x.

1
2 1 Espaces vectoriels de dimension finie

Remarque 1.1. L’ensemble des vecteurs du plan physique (ou encore l’ensemble des vecteurs de
l’espace physique) vérifie exactement les mêmes axiomes de la définition ci-dessus, d’où l’appellation
espace vectoriel.

Exemple: Le corps (K, +, .) est un K-espace vectoriel.


Notation: Un K-espace vectoriel sera souvent noté par la suite par K-ev.

Proposition 1.1. Soit E un K-ev. Alors

1. ∀x ∈ E, 0.x = 0E ;
2. ∀λ ∈ K, λ .0E = 0E .

Remarque 1.2. Soit E un K-ev. Alors,


∀x ∈ E, (−1)x = −x.

En effet, la propriété P1 et 1. de la proposition 1.1 entraînent que

(−1)x + x = [(−1) + 1]x

= 0x = 0E .

Donc (−1)x est le symétrique de x i.e., (−1)x = −x.

Proposition 1.2. Soit E un K-ev. Alors, ∀x ∈ E, ∀λ ∈ K,

λ .x = 0E =⇒ (λ = 0 ou x = 0E ).

Proposition 1.3. Soit E un K-ev. Alors

1. ∀x ∈ E, ∀λ ∈ K, (−λ )x = λ (−x) = −(λ x);


2. ∀(λ , x, y) ∈ K × E 2 , λ (x − y) = λ x − λ y;
3. ∀(λ , µ, x) ∈ K2 × E, (λ − µ)x = λ x − µx.

1.1.2 Exemples

1. Espace vectoriel produit:


Soient E1 , ...En des K-ev. On considère E = E1 × E2 × ...En et on définit sur E les lois suivantes:

• L’addition: (x1 , ..., xn ) + (y1 , ..., yn ) = (x1 + y1 , ..., xn + yn );


• Le produit externe: λ (x1 , ..., xn ) = (λ x1 , ..., λ xn ), où (x1 , ..., xn ), (y1 , ..., yn ) ∈ E, λ ∈ K.
1.1 Rappel sur les espaces et sous-espaces vectoriels 3

Alors, E muni de ces deux lois est un K-ev.

Remarque 1.3. En particulier, pour n ≥ 2, Rn est un K-espace vectoriel par rapport à l’addition et
produit externe définis plus haut.

2. Espace vectoriel des fonctions:

Soit A un ensemble non vide et E un K-ev. On note par E A l’ensemble des applications de A dans E.
On définit sur E A :

• Addition: ( f + g) =: x 7−→ f (x) + g(x);

• Produit externe: λ f : x 7−→ λ f (x), où x ∈ A, f ∈ E A , λ ∈ K.

Alors, E A muni de ces deux lois est un K-ev


En particulier,

• Soient E et F deux K-ev, alors F E l’ensemble des applications de E dans F est un K-ev.

• L’ensemble RN des suites réelles est un R-espace vectoriel pour les opérations usuelles d’addition
et produit par un réel.

• L’ensemble CN des suites complexes est un C-ev pour les opérations usuelles d’addition et produit
par un complexe.

• L’ensemble RI des fonctions réelles définies sur une partie I de R est un R-ev pour les opérations
usuelles d’addition et produit par un réel.

1.1.3 Sous-espaces vectoriels

Définition 1.2. Une partie F d’un K-ev E est dite sous-espace vectoriel de E si, et seulement si

i) F 6= 0;
/
ii) F est stable pour l’addition i.e., ∀x, y ∈ F, x + y ∈ F;
iii) F est stable pour le produit externe i.e., ∀x ∈ F, ∀λ ∈ K, λ x ∈ F.

Notation: On écrit parfois s.e.v de E pour dire sous-espace vectoriel de E.


Exemple
L’axe des abscisses (ou celui des ordonnées) est un s.e.v du plan R2 .
4 1 Espaces vectoriels de dimension finie

Remarque 1.4. Il est à remarquer que:

• Tout s.e.v de E contient 0E ;


• {0E } et E sont des s.e.v de E;
• Pour tout a ∈ E, l’ensemble Ka = {λ a : λ ∈ K} est un s.e.v de E. Si a 6= 0E , Ka est appelée la droite
vectorielle engendrée par a.

Contre-exemple:
Le complémentaire d’un s.e.v n’est pas un s.e.v (car il ne contient pas 0E ).

Autre exemple:
K[X] est un s.e.v de KN .

Proposition 1.4. Soit E un K-ev et F un sous-espace vectoriel de E. Alors,

1. les lois de composition interne et externe de E induisent des lois de compositions interne et externe
sur F;
2. F est un K-ev pour les lois induites.

Exemples

• L’ensemble des fonctions dérivables D(I, R) est un R-ev.

• L’ensemble des suites bornées B(KN ) est un K-ev.


En effet, on vérifie aisément que D(I, R) (resp. B(KN ) ) est un s.e.v du R-ev RI (resp. K-ev KN ).

Exercice 1.1. Montrer que Kn [X] := {P ∈ K[X] : deg(P) ≤ n} est un s.e.v de K[X].

1.1.3.1 Caractérisation

Théorème 1.1. Soit E un K-ev et F une partie de E. Alors, F est un s.e.v de E si, et seulement si

i) F 6= 0;
/
ii) ∀(x, y) ∈ F 2 , ∀(λ , µ) ∈ K2 , λ x + µy ∈ F .

Remarque 1.5. Pour montrer qu’une partie F d’un espace vectoriel E est un s.e.v, on vérifie d’abord si
0E ∈ F ou non. Si oui, on passe à vérifier la stabilité.

Exercice 1.2. Montrer que les parties suivantes:

• F = {P ∈ K[X]; (2X 2 + 1)P0 − 4XP = 0};


• G = {P0 + P00 ; P ∈ K[X]}

sont des s.e.v de K[X].


1.1 Rappel sur les espaces et sous-espaces vectoriels 5

1.1.3.2 Intersection de sous-espaces vectoriels

Proposition 1.5. Soit E un K-ev et (Fi )i∈I une famille de sous-espaces vectoriels de E. Alors
T
Fi est un
i∈I
s.e.v de E.

Définition 1.3. Soit A une partie d’un K-ev E. L’intersection de tous les sous-espaces vectoriels de E
contenant A est un s.e.v de E qui s’appelle le sous-espace vectoriel engendré par A, on le note par
Vect(A).

Remarque 1.6. Vect(A) est le plus petit (au sens de l’inclusion ) sous-espace vectoriel de E contenant
/ = {0E }.
A. On convient que Vect(0)

1.1.4 Applications linéaires

Définition 1.4. Soient E et F deux K-ev et f une application de E dans F. f est dite linéaire si, et
seulement si

i) ∀(x, y) ∈ E 2 , f (x + y) = f (x) + f (y);


ii) ∀(λ , x) ∈ E × K, f (λ x) = λ f (x).

Exemples 1.1.

1. Soit E = Rn . L’application ϕa : E −→ E, x 7−→ ax est linéaire.


2. Soit E = K[X], l’application f : E −→ E, P 7−→ P0 est linéaire.
3. Soit E = C([a, b], R) l’espace vectoriel des fonctions numériques continues sur un intervalle [a, b].
Rb
L’application ϕ : E −→ R, f 7−→ ϕ( f ) = a f (t)dt est linéaire.

Définition 1.5.

 Un isomorphisme d’espaces vectoriels est une application linéaire bijective.

 Un endomorphisme de E est une application linéaire de E dans E;

 Un automorphisme de E est un endomorphisme bijectif de E.

Notations

• L’ensemble des applications linéaires de E dans F sera noté par LK (E, F) ou tout simplement L (E, F)
lorsqu’il n’y a pas de risque de confusion sur le corps K.
6 1 Espaces vectoriels de dimension finie

• Quand il y a un isomorphisme de E dans F on écrit E ' F et on dit que E et F sont isomorphes.

• L’ensemble des isomorphismes de E dans F est noté par I so(E, F);

• L’ensemble des endomorphismes de E est noté par L (E);

• L’ensemble des automorphismes de E est noté par A ut(E, F).

Exercice 1.3. On considère R2 et C comme des R−espaces vectoriels.


Montrer que R2 est isomorphe à C.

Proposition 1.6. Soient E et F deux K-espaces vectoriels et f ∈ L (E, F). Alors,

i) f (0E ) = 0F ;
ii) ∀x ∈ E, f (−x) = − f (x).

Proposition 1.7. Soient E et F deux K-espaces vectoriels. Une application f de E dans F est linéaire si,
et seulement si
∀(x, y) ∈ E 2 , ∀(λ , µ) ∈ K2 , f (λ x + µy) = λ f (x) + µ f (y).

1.1.4.1 Image-Noyau

Proposition 1.8. Soient E et F deux K-espaces vectoriels, f ∈ L (E, F) et A un sous-espace vectoriel de E.


Alors, f (A) est un sous-espace vectoriel de F.

Définition 1.6. L’ensemble f (E) est un sous-espace vectoriel de F, appelé l’image de f , noté par Im( f ).

Proposition 1.9. Soit E et F deux K-espaces vectoriels, f ∈ L (E, F) et B un sous-espace vectoriel de F.


Alors, f −1 (B), l’image réciproque de B par f , est un sous-espace vectoriel de E.

Définition 1.7. L’ensemble f −1 ({0F }) est un sous-espace vectoriel de E, appelé le noyau de f , noté par
Ker( f ).

Remarque 1.7. Notons que

1. 0E ∈ Ker( f ) 6= 0;
/
2. Ker( f ) = {x ∈ E, f (x) = 0F }.

Proposition 1.10. Soient E et F deux K-espaces vectoriels et f ∈ L (E, F). Alors

• f est injective si, et seulement si Ker( f ) = {0E };


• f est surjective si, et seulement si Im( f ) = F.
1.1 Rappel sur les espaces et sous-espaces vectoriels 7

Exemples 1.2. Surjections et Injections canoniques:


Soit E1 , ..., En des K-espaces vectoriels et E = E1 × E2 × ...En l’espace vectoriel produit.

a) Pour tout k ∈ Nn , l’application

pk : E −→ Ek

x = (x1 , ..., xk , ...xn ) 7−→ xk

est linéaire et surjective, elle s’appelle la k-ième surjection canonique.


b) Pour tout k ∈ Nn , l’application

qk : Ek −→ E

x = y 7−→ (0E , ..., y, ..., 0E )

est linéaire et injective, elle s’appelle la k-ième injection canonique.

Soient E et F deux K-espaces vectoriels. L’ensemble L (E, F), des applications linéaires de E dans F,
est un K-ev par rapport à l’addition des applications et produit externe usuel (des applications par les
scalaires).

Théorème 1.2. Soient E, F et G des K-evs. Alors,

∀ f ∈ L (E, F), ∀g ∈ L (F, G), g ◦ f ∈ L (E, G).

Exercice 1.4. Montrer que ∀ f ∈ L (E, F), ∀g ∈ L (F, G), on a

a) Im(g ◦ f ) ⊂ Im(g) et Ker( f ) ⊂ Ker(g ◦ f );


b) g ◦ f = 0 ⇐⇒ Im( f ) ⊂ Ker(g).

Exercice 1.5. Soit E et F deux K-espaces vectoriels et f ∈ L (E, F).


Montrer que si f est bijective, alors f −1 est linéaire.

1.1.5 Somme de sous-espaces vectoriels

Soient F1 et F2 des sous-espaces vectoriels d’un K-espaces vectoriel E. On rappelle que F1 × F2 est un
K-espaces vectoriel.

Définition 1.8. L’ensemble F1 + F2 = {x1 + x2 /xi ∈ Fi , i = 1, 2} est appelé la somme des sous-espaces F1 et
F2 .
8 1 Espaces vectoriels de dimension finie

Proposition 1.11. F1 + F2 est un sous-espace vectoriel de E.

Proposition 1.12. F1 + F2 = Vect(F1 ∪ F2 ).

Exercice 1.6. Soit E un K-ev, F1 , F2 , ...Fn des sous-espaces de E. Montrer que F1 + F2 + ... + Fn est un s.e.v
de E.

1.1.6 Somme directe de sous-espaces

Sous les notations du paragraphe précédent, on définit

Définition 1.9. La somme F1 + F2 est directe si, et seulement si F1 ∩ F2 = {0E }, on la note par F1
L
F2 .

Exemples 1.3.

• Soit E = K3 [X], F = Vect(1, X, X 2 ) et G = Vect(X 3 ). Alors la somme F + G est directe.


• Soit E = R2 , F = R × {0} et G = {0} × R, la somme F + G est directe.

Proposition 1.13. Soit E un K-ev, F1 et F2 deux sous-espaces de E. Alors, il est équivalent de dire:

a) La somme F1 + F2 est directe;


b) Pour tout x ∈ F1 + F2 , ∃!(x1 , x2 ) ∈ F1 × F2 tel que x = x1 + x2 .

Définition 1.10. Soient E un K-ev et F1 , F2 , ...Fn des sous-espaces de E. La somme F1 + F2 + ... + Fn est
dite directe si tout vecteur x ∈ F1 + F2 + ... + Fn se décompose de manière unique en x = x1 + x2 + ... + xn
n
M
avec xi ∈ Fi pour tout i ∈ Fi , et on écrit dans ce cas F1 + F2 + ... + Fn = F1 ⊕ F2 ⊕ ... ⊕ Fn = Fi .
i=1

Exercice 1.7. Soit E un K-ev, F1 , F2 , ...Fn des sous-espaces de E. Montrer que la somme F1 + F2 + ... + Fn
est directe si, et seulement si l’une des assertions suivantes est satisfaite.

1. ∀(x1 , x2 , ..., xn ) ∈ F1 × F2 × ... × Fn tel que x1 + x2 + ... + xn = 0E , alors xi = 0E pour tout i ∈ {1, 2, ..., n}.
n
2. ∀ j ∈ {1, 2, ..., n}, Fj ( Fi ) = {0E }.
T

i=1,i6= j
j−1
3. ∀ j ∈ {1, 2, ..., n}, Fj ( ∑ Fi ) = {0E }.
T
i=1

1.1.7 Sous-espaces supplémentaires

Définition 1.11. Soient E un K-ev, F1 et F2 deux sous-espaces de E. Les sous-espaces F1 et F2 sont dits
supplémentaires dans E si, et seulement si F1
L
F2 = E.
1.1 Rappel sur les espaces et sous-espaces vectoriels 9

Proposition 1.14. Soient E un K-ev, F1 et F2 deux sous-espaces de E et ϕ l’application linéaire définie


par ϕ : F1 × F2 −→ E, (x1 , x2 ) 7−→ x1 + x2 . Alors les PSSE:

i) F1 et F2 sont supplémentaires dans E;


ii) F1 + F2 = E et F1 ∩ F2 = {0E };
iii) ϕ est bijective.

Exercice 1.8. Soient E et F des K-espaces vectoriels et f ∈ L (E, F).


Montrer que Im( f ) est isomorphe à tout supplémentaire de Ker( f ).

1.1.8 Projecteurs, symétries et involutions vectorielles

B. Donc ∀x ∈ E, ∃!xA ∈ A,
L
Soient A et B des sous-espaces supplémentaires dans un K-ev E i.e., E = A
∃!xB ∈ B tels que: x = xA + xB .

Définition 1.12. On appelle projection sur A parallèlement à B l’endomorphisme

pA : E −→ E

x 7−→ xA , où x = xA + xB .

Définition 1.13. Un endomorphisme f de E est dit idempotent lorsque f ◦ f = f . On appelle projecteur


de E tout endomorphisme idempotent de E.

Proposition 1.15. Soit E un K-ev et p ∈ L (E). Alors,

(p est un projecteur de E) =⇒ (Ker(p) ⊕ Im(p) = E).

Proposition 1.16. Soit E un K-ev et p ∈ L (E). Si p est un projecteur de E, alors p est la projection sur
Im(P) parallèlement à Ker(p).

Proposition 1.17. Soit E un K-ev et p ∈ L (E). Alors p est un projecteur de E si, et seulement si idE − p
est un projecteur, et on a dans ce cas

Ker(idE − p) = Im(p)

et

Im(idE − p) = Ker(p).

Exercice 1.9. Soient E un K−espace vectoriel, f ∈ LK (E) et p un projecteur de E. Montrer que:


10 1 Espaces vectoriels de dimension finie

1. Ker( f ◦ p) = Ker(p) ⊕ (Ker( f ) ∩ Im(p)).


2. Im(p ◦ f ) = Im(p) ⊕ (Im( f ) + Ker(p)).

Définition 1.14. Soit E un K-ev et f ∈ L (E). f est dit une involution linéaire de E ssi f 2 = idE .

Notation:
Soit E un K-ev et f ∈ L (E). Dans la suite on adopte les notations suivantes:

• Inv( f ) = {x ∈ E : f (x) = x}, l’ensemble des vecteurs de E invariants par f ;


• 0pp( f )) = {x ∈ E : f (x) = −x}, l’ensemble des vecteurs de E dont les images par f sont les opposés de
ces vecteurs.

Remarque 1.8. Inv( f ) et Opp( f ) sont des s.e.v de E.

Définition 1.15. Soit E un K-ev et F et G deux s.e.v de E tels que E = F ⊕ G. L’endomorphisme, noté
par sF,G , de E tel que Inv(sF,G ) = F et Opp(sF,G ) = G est dit symétrie par rapport à F parallélement à G.

Remarque 1.9. Sous les mêmes notations de la définition précédente, pour tout x = xF + xG ∈ F ⊕ G = E,
on a
sF,G (x) = xF − xG .

Ainsi, toute symétrie est une involution linéaire.

Exercice 1.10. Soit E un K-ev et F et G deux s.e.v de E tels que E = F ⊕ G. On note par sF,G (resp. pF,G )
la symétrie (projection) par rapport à (resp. sur) F parallélement à G.
Montrer que
sF,G = 2pF,G − IdE .

Exercice 1.11. Soit E un K-ev et f ∈ L (E) f une involution linéaire.


Montrer que E = Inv( f ) ⊕ Opp( f ), et que f est la symétrie par rapport à Inv( f ) parallélement à Opp( f ).

1.2 Familles libres, génératrices et Bases

Soit E un K-ev.

Définition 1.16. (Combinaison linéaire (CL)). Soit F = (ai )i∈I famille. On dit que x ∈ E est une CL de
cette famille s’il existe une sous-famille (ai )i∈J finie de F, et il existe une famille finie de scalaires (λi )i∈J
telle que x = ∑ λi ai , et on écrit x = CL(ai )i∈I .
j∈J
1.2 Familles libres, génératrices et Bases 11

Proposition 1.18. L’ensemble des CL (ai )i∈I est un s.e.v de E.

Définition 1.17. Soit A une partie de E, on dit que x ∈ E est CL de A si x est CL de la famille (a)a∈A .

Définition 1.18. Étant donné un s.e.v G de E, une famille A de E est dite génératrice de G si, et
seulement si
G = Vect({a})a∈A .

Proposition 1.19. Toute sur-famille d’une famille génératrice est génératrice.

Exemples 1.4. 1. Kn [X] admet (1, X, ...X n ) pour famille génératrice.


2. Pour tout a ∈ K, (1, X − a, ..., (X − a)n ) est également une famille génératrice (grâce à la formule de
Taylor).
3. La famille {e1 , e2 , e3 } où e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1) est une famille génératrice de R3 . En
effet, soit X = (x, y, z) ∈ R3 (quelconque). Alors

X = (x, 0, 0) + (0, y, 0) + (0, 0, z)

= x(1, 0, 0) + y(0, 1, 1) + z(0, 0, 1)

= xe1 + ye2 + ze3 .

Définition 1.19.

• Une famille finie non vide (xi )i=1,...p d’éléments de E est dite libre ssi ∀λ1 , ...λ p ∈ K,
p
∑ λi xi = 0E =⇒ λi = 0, ∀i = 1, ...p.
i=1

• Une famille (quelconque) non vide est dite libre ssi toutes ses sous-familles finies sont libres. Une
famille est dite liée s’elle n’est pas libre.

Remarque 1.10. Une famille (xi )i∈I est liée ssi ∃ une famille finie de scalaires (λi )i∈J⊂I non tous nuls
tels que

∑ λi xi = 0E .
i∈J

Proposition 1.20. Les PSSS:

1. Une famille à un seul élément x est libre ssi x 6= 0E ;


2. Les éléments d’une famille libre sont deux à deux distincts;
3. Toute sur-famille d’une famille liée est liée;
4. Toute sous-famille d’une famille libre est libre.

Définition 1.20. Une base de E est une famille de E à la fois libre et génératrice.
12 1 Espaces vectoriels de dimension finie

Exemples 1.5.

1. ∀a ∈ K, la famille (1, X − a, ..., (X − a)n ) est une base de Kn [X].


2. La famille (e1 , e2 , ..., en ) définie par ei = (0, ...0, 1, 0, ...0), où 1 prend la i-ème place, est une base Rn , elle
est appelée la base canonique de Rn .

Proposition 1.21. Soit B = (bi )i∈{1,...,n} une base de E. Alors, ∀x ∈ E, ∃! (λi )i∈I .

Définition 1.21. Dans les hypothèses de la proposition précédente, les scalaires λi s’appellent les
coordonnées de x par rapport à la base B.

Définition 1.22. Un espace vectoriel est dit de dimension finie s’il admet une famille génératrice finie.

Théorème 1.3. (Théorème de la base incomplète) Soit E un K-espace vectoriel de dimension finie
et G = (gi )i∈I une famille génératrice finie de E (i.e., card(I) ∈ N). Alors, pour toute sous-famille libre
L = (gi )i∈J de G, il existe une partie M de I contenant J telle que B = (gi )i∈M est une base de E.

Proposition 1.22. Si E admet une partie génératrice de cardinal n, alors les deux PSSS:

1. Toute famille à n + 1 vecteurs est liée;


2. Toute famille libre est au plus de cardinal n.

Théorème 1.4. Dans un K−espace vectoriel non nul de dimension finie, toutes les bases ont le même
cardinal.

Définition 1.23. Le cardinal commun de toutes les bases d’un K−espace vectoriel non nul de dimen-
sion finie E s’appelle la dimension de E, on le note dimK (E). Lorsqu’il n’ y a pas de risque de confusion
sur le corps K on écrit tout simplement dim(E). On convient que dimK ({0E }) = 0.

Proposition 1.23. Des K−espaces vectoriels de dimensions finies sont isomorphes si, et seulement si ils
sont la même dimension.

Proposition 1.24. Soit E un K−espace vectoriel de dimension n et F un sous-espace de E. Alors:

a) F est de dimension finie et on a dimK (F) ≤ dimK (E).


b) dimK (F) = dimK (E) ⇐⇒ E = F.

Théorème 1.5. Tout sous-espace F d’un K−espace vectoriel de dimension finie admet un supplémen-
taire G dans E, et on a dimK (F) + dimK (G) = dimK (E).

Exemples 1.6. Il est facile de remarquer que:


1.3 Rang d’une application linéaire 13

• R3 = (R2 × {0}) ⊕ ({0} × {0} × R).


• K3 [X] = K2 [X] ⊕Vect(X 3 ).

Théorème 1.6. Soit E un K−espace vectoriel de dimension finie. Soient F et G sont des sous-espaces,
non nuls (de E), supplémentaires dans E.
Alors E est de dimension finie et on a

dimK (E) = dimK (G) + dimK (F).

Théorème 1.7. Soit E un K−espace vectoriel de dimension finie.


Alors, pour tous sous-espaces F et G de E, on a :

dimK (F + G) = dimK (F) + dimK (G) − dimK (F ∩ G).

Théorème 1.8. Soit E et F deux K−espaces vectoriels de dimension finie. Alors E × F est de dimension
finie et on a
dimK (E × F) = dimK (E) + dimK (F).

Théorème 1.9. Soient E et F des K−espaces vectoriels de dimensions finies. Alors, l’espace L (E, F) est
de dimension finie et on a
dimK (L (E, F)) = dimK (E).dimK (F).

1.3 Rang d’une application linéaire

Théorème 1.10. (du Rang)


Soient E et F des K−espaces vectoriels et f ∈ L (E, F). Si E est de dimension finie, alors Im( f ) est de
dimension finie et on a :
dimK (Im( f )) + dimK (Ker( f )) = dimK (E).

Définition 1.24. Soient E et F des K−espaces vectoriels et soit f ∈ L (E, F).


Si Im( f ) est de dimension finie, sa dimension est appelée le rang de f et la note rg( f ).

Théorème 1.11. Soient E et F des K-ev de même dimension finie égal à n et f ∈ L (E, F). Alors, il est
équivalent de dire:

a) f est injective;
b) f est surjective;
c) f est bijective;
14 1 Espaces vectoriels de dimension finie

d) rg( f ) = n.
1.4 T.D 1 15

1.4 T.D 1

Exercice 1 Montrer que les parties suivantes sont des s.e.v de K[X] :

1. F = {P ∈ K[X]; (2X 2 + 1)P0 − 4XP = 0};


2. G = {P0 + P00 ; P ∈ K[X]}

Exercice 2 Soient λ ∈ R un paramètre réel et f l’application définie par :

f : R2 −→ R

(x, y) 7−→ f (x, y) = λ x2 + y.

Pour quelles valeurs de λ , l’application f est linéaire? (R2 est considéré comme R-espace vectoriel).

Exercice 3 Les applications suivantes sont-elles linéaires?

1. f : R3 → R, v = (x, y, z), f (v) = kvk = (x2 + y2 + z2 )1/2 .


R1
2. f : X = C([0, 1], R) → R, f (g) = 0 g(t)dt.
3. f : R3 → R : f (x, y, z) = x2 − z.

Exercice 4 On note (e1 , e2 , e3 ) la base canonique de R3 . On définit l’endomorphisme f : R3 → R3 par


f (e1 ) = 3e1 + 4e2 − 2e3 , f (e2 ) = −e1 − e2 + e3 , f (e3 ) = e1 + 2e2 et on pose g = f − IdR3 .

1. Déterminer f (x, y, z) et g(x, y, z) pour tout (x, y, z) ∈ R3 ;


2. Déterminer Ker( f ), Ker(g), Im( f ) et Im(g).
16 1 Espaces vectoriels de dimension finie

1.5 Exercices supplémentaires

Exercice 1 :
Soit E = R3 (comme R-espace vectoriel). Soient λ ∈ R un paramètre réel et f l’application définie par:
fλ : R3 −→ R3 (x, y, z) 7−→ f (x, y, z) = (λ |x|, y, z).

1. Montrer que fλ est linéaire si, et seulement si λ = 0.


2. Déterminer Ker( f0 ).
3. f0 est-elle injective?
4. L’équation f0 (x, y, z) = (1, 0, 0) admet-elle des solutions dans R3 ?
5. f0 est-elle surjective?

Exercice 2 :
Soit E = R[X]. On considère l’application f : R[X] −→ R[X] P 7−→ P0 (P0 est le polynôme dérivé de P).

a.) Vérifier que f est linéaire.


b.) Montrer que f est surjective.

Exercice 3 :
On considère E = R3 comme R-ev.
Soient a = (1, 1, 1), A = Ra = Vect({a}) et B la partie définie par

B = {x = (x1 , x2 , x3 ) ∈ R3 | x1 + x2 + x3 = 0}.

1. Montrer que A est un sous-espace vectoriel de E.


2. Montrer que l’application f : E −→ R, (x1 , x2 , x3 ) 7−→ x1 + x2 + x3 est linéaire.
3. • Déterminer Ker( f ).
• En déduire que B est un sous-espace vectoriel de E.
4. Soit x ∈ E. Montrer qu’il existe un unique λ ∈ R tel que f (x) = λ f (a).
5. Vérifier que A ∩ B = {0E }.
6. En déduire que E = A ⊕ B.

Exercice 4 :
Donner la dimension et déterminer une base de chacun des espaces vectoriels suivants:

1. C comme R-espace vectoriel;


2. C comme C-espace vectoriel;
3. R5 [X] comme R-espace vectoriel.
Chapitre 2

Matrices

——————————————–

2.1 Matrices

Dans tout ce chapitre, K est un corps. Les éléments neutres des lois addition + et produit . seront
notés par 0 et 1. n, p désignent des entiers naturels non nuls.

Définition 2.1. Une matrice de type (n, p) sur K est une application M :

M : [[1, n]] × [[1, p]] −→ K

(i, j) 7−→ M(i, j) = ai j .

On écrit M = (ai j )(i, j)∈[[1,n]]×[[1,p]] ou encore M = [ai j ]n,p (K). Les scalaires ai j s’appellent les coefficients de la
matrice.

L’ensemble de départ de l’application M étant fini, il est plus commode de représenter la matrice M
sous-forme du tableau suivant:

 
a11 · · · a1p 
 . . .. 
.
M= .
 . . .  
 
an1 · · · anp

Définition 2.2. Une matrice de type (1, p) est dite matrice ligne. Une matrice de type (n, 1) est dite
matrice colonne.

17
18 2 Matrices

Définition 2.3. Soit M = (ai j )(i, j)∈[[1,n]]×[[1,p]] une matrice.


Soit I = {i1 , ...ir } ⊂ [[1, n]] et J = { j1 , ... js } ⊂ [[1, p]] .
La restriction de la matrice M à I × J est dite matrice extraite de M.

Remarque 2.1. Une matrice de type (n, p) admet Cnr ×Csp matrices extraites.

Notation
L’ensemble des matrices de type (n, p) à coefficients dans K sera noté dorénavant par Mn,p (K).

Définition 2.4. Soit M = (ai j )(i, j)∈[[1,n]]×[[1,p]] une matrice. Soit k ∈ [[1, n]] , h ∈ [[1, p]] .

• La matrice extraite M|{k}×[[1,p]] est dite k-ièm matrice ligne de M.


• La matrice extraite M|[1,p]]×{h} est dite h-ièm matrice colonne de M.

Définition 2.5. Soit B = (ei )i=1,...,p et B0 = (e0i )i=1,...,n les bases canoniques respectives de K p et Kn . Soit
M = [mi j ]n,p (K).
n
• Le vecteur C j = ∑ mk j e0k est appelé j-ème vecteur colonne de M.
k=1
p
• Le vecteur li = ∑ mih eh est appelé i-ème-vecteur ligne de M.
h=1

2.1.1 Matrice d’une application linéaire

Soient E et F des K−espaces vectoriels de dimensions finies respectives p et n, U = (u1 , ..., u p ) une base
de E, V = (v1 , ..., vn ) une base de F. Soit f ∈ L (E, F). f est caractérisée par: ∀ j ∈ {1, ..., p},
n
f (u j ) = ∑ αi j vi .
i=1

Par ailleurs, soit x = (x1 , ..., x p ) ∈ E, on pose y = f (x) et on écrit


p
x= ∑ x ju j.
j=1

Alors on a
p
y = f ( ∑ x ju j)
j=1
p
= ∑ x j f (u j )
j=1
p n
= ∑ x j ( ∑ αi j vi )
j=1 i=1
n p
= ∑ ( ∑ αi j x j )vi .
i=1 j=1
2.1 Matrices 19

D’autre part on a
n
y = (y1 , ..., yn ) = ∑ yi vi .
i=1

Donc l’égalité précédente, compte tenu de l’unicité des coordonnées dans une base, entraîne que
p
yi = ∑ αi j x j , ∀i = 1, ...n.
j=1

Ceci nous conduit à la définition suivante:

Définition 2.6. La matrice définie par M = [αi j ]n,p est dite matrice de f dans les bases U et V , notée
matU ,V ( f ).

Exemples de matrices d’applications linéaires:

1. Matrice d’une rotation de R2 d’angle α.


R2 étant muni d’une base orthonormée (e1 , e2 ).
Soit ρα la rotation d’angle α. Tenant compte des coordonnées des transformées de e1 et e2 , la matrice
correspondante de cette application est

 
cosα −sinα 
 
Mα = 
 .

 
sinα cosα

2. Matrice d’une symétrie dans R2 .

R2 étant muni de la base canonique (e1 , e2 ).


Soit σ : R2 −→ R2 la symétrie par rapport à l’axe des abscisses (OX) parallèlement à l’axe des ordon-
nées (OY ). On vérifie facilement que la matrice de σ est
 
1 0 
 
Mσ =  .

 
0 −1

3. Matrice

Dans R2 muni de la base canonique on considère π : R2 −→ R2 la projection sur l’axe des abscisses
(Ox) parallèlement à l’axe des des ordonnées (Oy). La matrice de π est:
 
 1 0 
 
Mπ = 
 .

 
0 0
20 2 Matrices

Proposition 2.1. Soient E et F des K−espaces vectoriels de dimensions finies p et n respectivement. Soit
U une base de E et V une base de F. L’application

Ψ : L (E, F) −→ Mn,p (K)

f 7−→ matU ,V ( f )

est bijective.

Définition 2.7. Soient B et B0 les bases canoniques de K p et Kn respectivement. Soit f ∈ L (K p , Kn ).


Alors la matrice M = matB,B0 ( f ) est dite matrice canoniquement associée à f .

Proposition 2.2. Soit B une base de K p et B0 une base de Kn .


L’application

Ψ : L (K p , Kn ) −→ Mn,p (K)

f 7−→ matB,B0 ( f )

est bijective.

Proposition 2.3. Soient E et F des R−espaces vectoriels de dimensions finies p et n respectivement. Soit
f ∈ L (E, F) telle que rg( f ) = r. Alors, il existe une base U de E et une base γ de F telles que
 
Ir 0 p−r
matU ,γ ( f ) =  
0n−r 0n−r,p−r

i.e., matU ,γ ( f ) = [αi j ] ∈ Mn,p (K) avec



 1 si i = j ∈ [[1, r]]
αi j =
0 Sinon.

2.1.2 Opérations sur les matrices

2.1.3 L’espace vectoriel Mn,p (K).

Soit E et F des K−espaces vectoriels de bases U = (u j ) j=1,...p et V = (vi )i=1,...n respectivement. Soit f , g ∈
L (E, F). On pose A = [ai j ] = matU ,V ( f ) et B = [ai j ] = matU ,V (g).

Proposition 2.4. Les PSSS:


2.1 Matrices 21

a) matU ,V ( f + g) = [ai j + bi j ]n,p ;


b) ∀λ ∈ K, matU ,V (λ f ) = [λ ai j ]n,p .

Définition 2.8. On définit sur Mn,p (K) une addition et un produit externe comme suit:

• [ai j ] + [bi j ] := [ai j + bi j ] ;


• λ [ai j ] = [λ ai j ] .

Proposition 2.5. L’ensemble (Mn,p (K), +, .), où + et . sont les lois définies ci-dessus, est un K−espace
vectoriel. L’élément neutre de (K), +) est la matrice nulle, dont tout les coefficients sont nuls, notée par
0n,p ou 0 tout simplement s’il n’y a pas risque de confusion.

Proposition 2.6. Soit E et F des K−espaces vectoriels de bases U = (u j ) j=1,...p et V = (vi )i=1,...n respec-
tivement. L’application

Ψ : L −→ Mn,p (K)

f 7−→ matU ,V ( f )

est un isomorphisme d’espaces vectoriels.

Corollaire 2.1. Soient E et F des K−espaces vectoriels de bases U = (u j ) j=1,...p et V = (vi )i=1,...n respec-
tivement. Alors, Mn,p (K) est de dimension finie et on a

dimK (Mn,p (K)) = np.

De plus, la famille des np matrices (Esr )(s,r)∈[|1,n|]×[|1,p|] , dont tous les termes sont nuls sauf le terme (s, r)
qui vaut 1, est une base de Mn,p (K).

Remarque 2.2. On peut démontrer directement (et facilement) que (Ei j ) est libre et génératrice de
Mn,p (K).

• La matrice Ei j s’appelle matrice élémentaire.

• (Ei j )(i, j)∈[[1,n]]×[[1,p]] s’appelle la base canonique de Mn,p (K).

2.1.4 Produit matriciel

Soit E, F, G des K−espaces vectoriels de dimensions finies non nulles p, n, m et munis respectivement de
bases notées par
22 2 Matrices

U = (u j ) j∈[[1,p]] ;

V = (vk )k∈[[1,n]] ;

W = (u j ) j∈[[1,m]] .

Soit f ∈ L (E, F) et ∈ L (F, G).


On pose
A = [ak j ] = matU ,V ( f ) ∈ Mn,p (K)

et

B = [bik ] = matV ,W ( f ) ∈ Mm,n (K).

Proposition 2.7. Sous les hypothèses ci-dessus on a :

matU ,W (g ◦ f ) = [ci j ] ∈ Mm,p (K),

avec
n
ci j = ∑ bik ak j .
k=1

Définition 2.9. Le produit de B = [bik ] ∈ Mm,n (K) par A = [ak j ] ∈ Mn,p (K) est la matrice C notée B  A (ou
indifférement par BA) définie par:

C = [ci j ] ∈ Mm,p (K)

avec
n
ci j = ∑ bik ak j .
k=1

Exemple:  √
 √ 
2
0 1 − 2 1 + 22 
   
Soit A = 

 et B = 
 


   √ √ 
1 0 1 + 22 2
2

Alors √ 
1  2+1 1
AB = √ √
.
2 -1 2+1

Remarques 2.1. Il est à remarquer que:

• C = BA ⇐⇒ matU ,W (g ◦ f ) = matV ,W (g).matU ,V ( f ).


• Le produit matriciel est bien défini (possible) seulement si le nombre de colonnes de la matrice de
gauche est égal au nombre de lignes de la matrice de droite.
2.1 Matrices 23

• Pour toute matrice M = [mi j ] ∈ Mn,p (K),


n p
M = ∑ ∑ mi j Ei j .
i=1 j=1

• Le produit matriciel n’est pas commutatif. En effet, pour

   
 0 1  1 0 
   
A=  et B = 
   ,

   
1 1 0 -1
   
0 -1 0 1
   
on voit que AB =   alors que BA =   . Donc AB 6= BA.
   
   
1 -1 -1 -1

Proposition 2.8. (Associativité du produit matriciel)


Pour des matrices A = [ai j ] ∈ Mm,n (K), B = [b jk ] ∈ Mn,p (K), C = [ckl ] ∈ M p,q (K), on a

(AB)C = A(BC) = [λil ] ∈ Mm,q (K)

avec
n p
λil = ∑ ∑ ai j b jk ckl .
j=1 k=1

Proposition 2.9. L’application

Mm,n (K) × Mn,p (K) −→ Mm,p (K),

(A, B) 7−→ BA

est bilinéaire dans le sens que:

• B(A1 + A2 ) = BA1 + BA2 ;


• (B1 + B2 )A = BA1 + B2 A;
• λ (BA) = (λ B)A = B(λ A).

2.1.5 Expression matricielle d’une application linéaire

Soient E et F des K−espaces vectoriels de dimensions finies p et n, rapporés à des bases U = (u j ) j∈[[1,p]]
et V = (vi )i∈[[1,n]] .
24 2 Matrices
p n
Soit f ∈ L (E, F), et (x, y) ∈ E × F, x = ∑ x j u j , y = ∑ yi vi .
j=1 i=1
On pose

A = [ai j ] = matU ,V ( f ) ∈ Mn,p (K);

X = [x j ] ∈ M p,1 (K);

Y = [yi ] ∈ Mn,1 (K).

Proposition 2.10. Sous les hypothèses ci-dessus on a :

y = f (x) ⇐⇒ Y = AX.

Réciproquement, si une matrice B vérifie Y = BX pour tout (x, y) ∈ E ×F tel que y = f (x), alors B est la matrice
de f dans les bases U et V .

2.1.6 Transposition d’une matrice

Définition 2.10. Soit M = [ai j ] ∈ Mn,p (K). La transposée de M est la matrice de type (p, n) [a0i j ] définie
par a0i j = a ji , ∀(i, j) ∈ [[1, p]] × [[1, n]] . On la note par t M.

Proposition 2.11. L’application

Γ : Mn,p (K) −→ M p,n (K)

M 7−→ t M

est un isomorphisme d’espaces vectoriels.

Remarque 2.3. Un calcul immédiat montre que si A ∈ M p,n (K) et B ∈ Mn,q (K) alors

t
(AB) = t B t A.
2.1 Matrices 25

2.1.7 Matrices carrées

L’espace vectoriel Mn,n (K) sera noté dans la suite par Mn (K).

Définition 2.11. Une matrice de Mn (K) est dite matrice carrée d’ordre n.

Définition 2.12. Soit E un K−espace vectoriel non nul de dimension finie n muni d’une base U =
(ui )i∈[[1,n]] .
La matrice d’un endomorphisme f de E dans la base U est la matrice matU ,U ( f ) qui sera notée
matU ( f ).

Définition 2.13. On appelle diagonale d’une matrice carrée, d’ordre n, M = [mi j ] ∈ Mn (K) le n−uplet
(m11 , m22 , · · · , mnn ) formé par les éléments diagonaux de M.
On appelle matrice unité d’ordre n notée par1 In la matrice [δi j ] ∈ Mn (K).

Remarques 2.2. Notons que

• Le produit matriciel sur Mn (K) est une loi de composition interne.


• Mn (K) muni de l’addition et produit matriciel est un anneau.
• L’application

L (E) −→ Mn (K)

f 7−→ matU ( f )

est une bijection.


• Mn (K) est isomorphe à L (E).
• In = matU (IE ).

2.1.8 Groupe linéaire GLn (K).

Définition 2.14. Une matrice A ∈ Mn (K) est inversible si, et seulement s’il existe une matrice B ∈ Mn (K)
telle que:
AB = BA = In .

Et on écrit dans ce cas A−1 = B.

1 On la note aussi par I lorsqu’il n’y a pas de risque de confusion sur la dimension n.
26 2 Matrices

Définition 2.15. On appelle groupe linéaire d’ordre n sur le corps K le groupe multiplicatif des élé-
ments inversibles de l’anneau Mn (K). Il sera noté par GLn (K).

Remarque 2.4. Pour un K-ev, GL(E) désignera le groupe des automorphismes de E.

Théorème 2.1. Une matrice A ∈ Mn (K) est inversible si, et seulement si l’une des deux conditions
suivantes est satisfaite:

• ∃B ∈ Mn (K) telle que: AB = In , et alors B = A−1 .


• ∃C ∈ Mn (K) telle que: CA = In , et alors C = A−1 .

Remarque 2.5. Si A et B sont des matrices inversibles de Mn (K), alors AB est inversible et on a

(AB)−1 = B−1 A−1 .

Corollaire 2.2. Si A est une matrice inversible de Mn (K), alors t A est inversible et on a

(t A)−1 = t (A−1 ).

2.1.9 Trace d’une matrice carrée

Définition 2.16. On appelle trace d’une matrice carrée M = [mi j ] ∈ Mn (K), le scalaire somme des élé-
ments diagonaux de M, noté tr(M), i.e.,
n
tr(M) = ∑ mii .
i=1

Exercice 2.1. Montrer que l’application

Mn (K) −→ K

M 7−→ Tr(M)

est une forme linéaire non nulle. Montrer également que ∀A ∈ Mn,p (K), ∀B ∈ M p,n (K),

tr(AB) = tr(BA).

2.1.10 Matrices remarquables


2.1 Matrices 27

Définition 2.17. On appelle matrice scalaire d’ordre n toute matrice sous la forme αIn de Mn (K) où
α ∈ K.

Définition 2.18. Soit (α1 , ..., αn ) ∈ Kn (quelconque). On appelle matrice diagonale toute matrice de type
[αi δi j ] ∈ Mn (K), où δi j est le symbole de Kronecker.

Notation Une matrice diagonale [αi δi j ] est également notée diag(α1 , ..., αn ). L’ensemble des matrices

diagonales sera noté Dn (K).

Exercice 2.2. Soit D = diag(α1 , ..., αn ) et D0 = diag(α10 , ..., αn0 ). Montrer que

DD0 = dig(α1 α10 , ..., αn αn0 ).

Définition 2.19. Une matrice M = [mi j ] ∈ Mn (K) est dite:

• symétrique si t M = M;
• antisymétrique si t M = −M.

Notations

• L’ensemble des matrices symétriques de Mn (K) sera noté Sn (K).


• L’ensemble des matrices antisymétriques de Mn (K) sera noté An (K).

Définition 2.20. Une matrice M = [mi j ] de Mn (K) est dite:

• Triangulaire supérieure si ∀(i, j) ∈ [[1, n]]2 , j < i =⇒ mi j = 0.


• Triangulaire inférieure si ∀(i, j) ∈ [[1, n]]2 , i < j =⇒ mi j = 0.

Remarque 2.6. Une matrice carrée est triangulaire supérieure si, et seulement si tout ses coefficients
situés en dessous de la diagonale sont nuls. De même une matrice carrée est triangulaire inférieure
si, et seulement si tout ses coefficients situés en dessus de la diagonale sont nuls
   
1 3 2  0 0 0
   
Exemple 2.1. La matrice  0 1 -1 est triangulaire supérieure alors que la matrice
 1 0 0 est tri-
 
   
0 0 4 2 -1 0
angulaire inférieure.
28 2 Matrices

2.1.11 Changement de base

2.1.12 Changement de base

Définition 2.21. Soient U = (e j ) j∈[[1,p]] et V = (e0j ) j∈[[1,p]] des bases d’un K−espace vectoriel E non nul de
dimension finie p. La matrice de passage de la base U à la base V notée PU V = [pi j ] ∈ M p (K) est la
matrice définie par
PU V = matV U (idE ).

Remarque 2.7. La matrice PU V est inversible et on a PV−1U = PU V .

Exemple: Soit E = R3 muni la base canonique Bc = {e1 , e2 , e3 }. On considère une autre base B formée
par les vecteurs suivants: 
b1 = (1, 1, 1)





b2 = (1, 3, 2) .



 b3 = (1, 2, 1)

Alors la matrice de passage de la base Bc à la base B est


 
1 1 1
 
P = PBc B = matBBc (idE ) = 1 3 2

.
 
1 2 1

Proposition 2.12. Soit U , V et W des bases de E. Alors on a

PU V .PV W = PU W .

Proposition 2.13. (Formule de changement de base)


Soient U = (e j ) j∈[[1,p]] et V = (e0j ) j∈[[1,p]] des bases d’un K−espace vectoriel E non nul de dimension finie
p.
Un vecteur x de E est donné par ses coordonnées dans les bases U et V :
p p
x = ∑ xi ei = ∑ xi0 e0i , X = [xi ] ∈ M p,1 (K), X 0 = [xi0 ] ∈ M p,1 (K).
i=1 i=1

Alors on a
X = PU V X 0 , X 0 = PU−1V X.
2.1 Matrices 29

2.1.13 Changement de matrice d’une application linéaire

Soit:

• E et F des K−espaces vectoriels de dimenisons finies p et n;

• deux bases de E, U et U 0 , et leur matrice de passage P = PU U 0 ;

• deux bases de F, V et V 0 , et leur matrice de passage Q = PV V 0 ;

• une application linéaire f ∈ L (E, F) et ses matrices associées:

M = matU ,V ( f )

et
M 0 = matU 0 ,V 0 ( f ).

Proposition 2.14. (Formule de changement de matrice)


Les matrices M et M 0 sont liées par la formule suivante:

M 0 = Q−1 MP.

Définition 2.22. Soit (A, B) ∈ Mn (K ). On dit que les deux matrices A et B sont semblables ssi il existe
une matrice inversible P ∈ GLn K tel que
A = P−1 BP.

Remarque 2.8. Une matrice d’un endomorphisme par rapport à une base (initiale) est semblable à la
nouvelle matrice dans une nouvelle base.

2.1.14 Rang d’une matrice

Définition 2.23. (Matrice d’un système de vecteurs)


Soient F un K−espace vectoriel non nul de dimension finie n, V = (v1 , · · · , vn ) une base de F et c1 , · · · c p
p vecteurs de F. La matrice du système (c1 , · · · , c p ) est la matrice de p colonnes et n lignes dont la ième
colonne, i = 1, · · · , p, est formée par les coordonnées du ième vecteur ci . Cette matrice sera notée par
matV (c1 , · · · , c p ).
30 2 Matrices

Définition 2.24. Le rang d’une matrice M est celui du système de ses vecteurs-colonnes, on le note
par rg(M).

Remarque 2.9. Le rang d’un système fini de vecteurs d’un espace vectoriel de dimension finie est égal
au rang de la matrice de ce système dans une base.

Proposition 2.15. (Rang d’une application linéaire et d’une matrice associée)


Soient E et F deux K−espaces vectoriels non nuls de dimensions finies p et n, U = (u j ) j∈[[1,p]] , V =
(vi )i∈[[1,n]] des bases de E et F. On considère une application linéaire f ∈ L (E, F). Si M = matU ,V ( f ), alors

rg( f ) = rg(M).

Remarque 2.10. Le rang d’une matrice est égal au rang de l’application linéaire qui lui est canonique-
ment associée.

Proposition 2.16. Soit A une matrice carrée d’ordre n. Montrer que A est inversible si, et seulement si
rg(A) = n.

Exercice 2.3. Soit A ∈ Mn,p (K) et B ∈ Mn,p (K).


Montrer que:

1. rg(AB) ≤ inf{rg(A), rg(B)};

2. Si A ∈ GL p (K), alors
rg(AB) = rg(B).

2.2 Déterminants

2.2.1 Déterminant d’une matrice carrée

Soit A = (ai j ) une matrice d’ordre n. Pour tout (i, j) ∈ [|1, n|]2 , on désigne par Ai j la matrice extraite de A
obtenue en supprimant la i-ème ligne et la j-ème colonne de A.

Définition 2.25. (Par développement suivant la 1-ère ligne)


2.2 Déterminants 31

• Si n = 1, A = (a11 ), on définit le déterminant de A par: det(A) := a11 .


 
a11 a12
• Si n = 2, A =   , on définit det(A) par
a21 a22

det(A) := a11 a22 − a12 a21 .

On remarque que
det(A) = a11 det(A11 ) − a12 det(A12 ) .

• Si n ≥ 3, on définit

det(A) : = a11 det(A11 ) − a12 det(A12 ) + ... + (−1)1+n a1n det(A1n )


n
= ∑ (−1)1+ j a1 j det(A1 j ).
j=1

On dit alors que le déterminant de A est obtenu en développant selon la 1-ère ligne.

Notation

On note également le déterminant d’une matrice A en conservant les coefficients de la matrice entre
deux barres, par exemple dans le cas n = 2, on écrit

a11 a12

det(A) = .

a21 a22

2.2.2 Déterminant d’un système fini de vecteurs

Soit E un K−espace vectoriel de dimension finie égal à n muni d’une base B = (e1 , ..., en ) et soit S =
(u1 , ..., un ) une famille de n vecteurs de E. Notons par A = [ai j ] la matrice carrée d’ordre n dont les colonnes
sont formés par les coordonnées des vecteurs ui dans la base B i.e., la i-ème colonne Ci de la matrice A
est formée par les coordonnées du vecteur ui dans la base B.

Définition 2.26. On définit le déterminant du système S par

detB (S) = det(A).

Exemple: detB (B) = det(In ) = 1.


32 2 Matrices

Proposition 2.17. Soit E un K−espace vectoriel de dimension finie égal à n muni d’une base B = (e1 , ..., en )
et soit S = (u1 , ..., un ) une famille de n vecteurs de E. Pour tout σ ∈ Sn , les PSSS:

1. ] Le déterminant de S change de signe quand on échange deux colonnes.


3) Si deux vecteurs ui et u j , i 6= j, sont égaux, alors le déterminant de S est nul.

Remarque 2.11. Observons que

detB (λ u1 , ..., un ) = λ detB (u1 , ..., un ).

et que
detB (λ (u1 , ..., un )) = λ n detB (u1 , ..., un ).

Proposition 2.18. Soit A une matrice carrée. Montrer que det(t A) = det(A)

Corollaire 2.3. Les PSSS:

• Le déterminant change de signe quand on échange deux lignes;


• Le déterminant est linéaire par rapport à chaque ligne;
• Le déterminant ne change pas si on rajoute à une ligne une combinaison linéaire des autres lignes.

Exercice 2.4. Soit A = (ai j ) une matrice triangulaire supérieure. Montrer que

det(A) = ∏ aii .
1≤i≤n

En déduire le déterminant d’une matrice triangulaire inférieure.

Développement suivant une ligne quelconque.

Soit i, 1 ≤ i ≤ n. Alors on a
det(A) = ∑ (−1)i+ j ai j det(Ai j ) .
1≤ j≤n

Développement suivant une colonne quelconque.

Par transposition, on déduit de la formule précédente que

det(A) = ∑ (−1)i+ j ai j det(Ai j ) .


1≤i≤n
2.2 Déterminants 33

2.2.3 Déterminant d’un endomorphisme

Proposition 2.19. (Caractérisation d’une base )


Soit E un K-espace vectoriel de dimension finie n et B = (e1 , ..., en ) une base de E. Une famille C = (c1 , ..., cn )
de n vecteurs de E est une base de E si, et seulement si detB (C) 6= 0 et on a dans ce cas

detB (C).detC (B) = 1.

Proposition 2.20. Soit E un K-espace vectoriel de dimension finie n, f ∈ L (E), B = (e1 , ..., en ) et C =
(c1 , ..., cn ) deux bases de E. Alors on a

detB ( f (e1 ), ..., f (en )) = detC ( f (c1 ), ..., f (cn )).

On constate de la proposition ci-dessus que pour toutes bases B et C de E on a

detB ( f (B)) = detC ( f (C)).

Donc la valeur detB ( f (B)) ne dépend pas de la base B. On définit alors le déterminant d’un endomor-
phisme f par
det( f ) := detB ( f (B))

avec B est une base quelconque de E.

Proposition 2.21. (Formule du volume)


Soit E un K-espace vectoriel de dimension finie n et f ∈ L (E). Pour toute base B = (e1 , ..., en ) de E, on a

detB ( f (u1 ), ..., f (un )) = det( f ).detB (u1 , ..., un ).

Proposition 2.22. Soit E un K-espace vectoriel de dimension finie n, f ∈ L (E). Alors f est inversible si,
et seulement si det( f ) 6= 0.

Exercice 2.5. Soit E un espace vectoriel de dimension finie, f et g deux endomorphismes de E.


Montrer que
det(g ◦ f ) = det(g).det( f ).

Exercice 2.6. Soit E un espace vectoriel de dimension finie, f un endomorphisme de E et B une base
de E. Montrer que
det( f ) = det(matB ( f )).
34 2 Matrices

Corollaire 2.4. Soient A et B deux matrices carrées d’ordre n. Alors les PSSS:

• det(AB) = det(A).det(B);
• A est inversible si, et seulement si det(A) 6= 0;
• Si A est inversible, alors det(A−1 ) = 1
det(A) .

Définition 2.27. Soit A = (ai j ) une matrice carrée d’ordre n. Pour tout i, j ∈ {1, ..., n}, on désigne par Ai j
la matrice extraite de A définie (auparavant), obtenue en supprimant la ième ligne et la jème colonne
de A. On appelle (i, j)-cofacteur de A le nombre (−1)i+ j det(Ai j ), qu’on note par co fi j (A). La matrice carrée
d’ordre n définie par (co fi j (A)) s’appelle matrice des cofacteurs de A ou encore co-matrice de A, on la
note co f (A).

Proposition 2.23. Soit A = (ai j ) ∈ Mn (K). Si A est inversible alors

1
A−1 = co f (t A) .
det(A)

Avec co f (A) est la matrice des cofacteurs (ou co-matrice) de A définie par:

co f (A) := [co fi j (A)]i, j


co fi j (A) = (−1)i+ j det(Ai j ) .
2.3 TD 2 35

2.3 TD 2

Exercice 1 (Vrai-Faux)
Soient n ∈ N? et A ∈ Mn (R).
a ∀λ ∈ R, det(λ A) = λ det(A).
b ∃λ ∈ R, det(λ A) = λ det(A).
c ∀λ ∈ R, det(λ A) = λ n det(A).
d ∀λ ∈ R, det(λ A) = nλ det(A).
λ
e ∀λ ∈ R, det(λ A) = det(A).
n

Exercice 2
En calculant le déterminant, dire si le système S = (X,Y, Z) est libre ou non dans chacun des cas
suivants :
     
 0 4
   11 
     
1. X = 
 1 , Y =  5 , Z =  7  .
    
     
-1 -2 3

     
 3 4
   10 
     
2. X = 
 0 , Y =  1 , Z =  9  .
    
     
-7 -4 -6

Exercice 3

1 2 -1
1. Calculer le déterminant 2 3 2 .

6 8 4
 
1 2 -1 
 
2. Soit A la matrice donnée par : A = 2 3 2 

 . Vérifier que A est inversible.
 
6 8 4
3. En utilisant la co-matrice (ou matrice des cofacteurs), donner l’inverse de A.
4. Résoudre le système suivant : 
x + 2y − z = 1





2x + 3y + 2z = −1



 6x + 8y + 4z = 0 .

Exercice 2 En utilisant le pivot de Gauss, résoudre les systèmes suivants :


 
x1 + 2x2 − x3 = 1

x − 2y + 3z = 4

 


 

 
S1 2x + y − 2z = 25 ; S2 = 2x1 − 3x2 + 2x3 = −2

 

 
 5x − 7y + z = −25 .
  3x1 + x2 − x3 = 3

 .
36 2 Matrices

2.4 Exercices Supplémentaires

Exercice 1 :
Soit E = R3 muni la base canonique Bc = {e1 , e2 , e3 }. On considère la famille B formée par les vecteurs
suivants: 
b1 = (1, 1, 1)





b2 = (1, 3, 2) .



 b3 = (1, 2, 1)

1. Montrer que B est une base de R3 .


2. Donner la matrice P = PBc B = matBBc (Id3 ) de passage de la base Bc à la base B.
R

Exercice 2 :
Déterminer les applications linéaires canoniquement associées aux matrices suivantes:
 
1 3 2 
 
• A = 0 1 -1

;
 
0 0 4
 
0 0 0
 
• B= 1 0 0 .

 
2 -1 0

Exercice 3 :
On considère l’application linéaire f dont la matrice par rapport à la base canonique (notée par Bc ) est
donnée par:  
 9 -6 10 
 
A =  -5 2 -5 

.
 
-12 6 -13

1. Soit S = {(2, −1, −2), (1, 0, −1), (−2, 1, 3)}.

Montrer que S est une base de R3 .

Dans la suite on note par Id3 l’application identité de R3 .

2. Déterminer les matrices de passage: P = mat(Id3 , S, Bc) et Q = mat(Id3 , Bc, S).

3. Donner la matrice de f dans la base S.


2.4 Exercices Supplémentaires 37

Exercice 4 :  
 cosα -sinα 
 
Pour tout α ∈ R, on considère la matrice Aα définie par: Aα = 
 .

 
sinα cosα

1. Montrer que ∀(α, β ) ∈ R2 , Aα Aβ = Aα+β .


2. En déduire que pour tout α ∈ R, Aα est inversible et donner l’inverse de Aα .

Exercice 5 :

1 2 -1
1. Calculer le déterminant 2 3 2 .

6 8 4
 
 1 2 -1 
 
2. Soit A la matrice donnée par: A = 2 3 2 

.
 
6 8 4
Vérifier que A est inversible.
3. En utilisant la co-matrice (ou matrice des cofacteurs) donner l’inverse de A.
4. Résoudre le système 
x + 2y − z = 1






2x + 3y + 2z = −1



 6x + 8y + 4z = 0 .


Chapitre 3

Diagonalisation et Trigonalisation

———————————————————————-

3.1 Diagonalisation

Soit E un K-ev de dimension finie n, f ∈ L (E), B une base de E et A = matB ( f ) = (ai j ) ∈ Mn (K).

I Le polynôme (en λ ) P = P(A) = det(A − λ I) est appelé polynôme caractéristique de f (ou de A), noté
par χ( f ), notons que deg(P) = n.
I Toute racine du polynôme caractéristique χ( f ) est dite valeur propre de f .
I L’ensemble des valeurs propres de f (ou de A) est noté par spK ( f ) ou sp( f ) s’il n’y a pas de risque
de confusion sur le corps K.
I ∀λ ∈ sp( f ), f − λ I n’est pas injective, c’est à dire A − λ I n’est pas inversible.
I On appelle vecteur propre de f (ou de A) associé à une valeur propre λ tout vecteur non nul de
Eλ = Ker( f − λ I).
I ∀λ ∈ sp( f ), Eλ = Ker( f − λ I) est appelé sous-espace propre de f associé à λ .
I ∀λ , µ ∈ sp( f ) telles que λ 6= µ, Ker( f − λ I) ∩ (Ker( f − µI) = {0}.
I On suppose que sp( f ) = {λ1 , ..., λk } et que

E = Ker( f − λ1 I) ⊕ Ker( f − λ2 I) ⊕ ... ⊕ Ker( f − λk I).

Alors f est diagonalisable.


I Si χ( f ) admet n racines deux à deux distinctes alors f est diagonalisable.
I f est diagonalisable si, et seulement si:

1. χ( f ) est scindé dans K[X];

39
40 3 Diagonalisation et Trigonalisation

2. Si λ1 , ..., λk sont les racines de χ( f ) d’ordres de multiplicités m1 , ...mk respectivement, alors


dim(Ker( f − λi I)) = mi pour tout i ∈ {1, ..., k}.

I 1. Si χ( f ) n’est pas un polynôme scindé (i.e., la somme des ordres de multiplicité des racines6=
deg(χ( f ))) alors f n’est pas diagonalisable.
2. Si χ( f ) admet une valeur propre λi dont l’ordre de multiplicité est strictement supérieur à
dim(Ker( f − λi I), alors f n’est pas diagonalisable.

3.1.1 Exemple de diagonalisation

On reprend la matrice de l’exemple précédent:


 
 1 2 -3 
 
A =  1 4 -5 

.
 
0 2 -2

• On calcule χ( f ) = det(A − λ I) et on trouve

χ( f ) = −λ (λ − 1)(λ − 2).

χ( f ) a donc trois racines λ1 = 0, λ2 = 1 et λ3 = 2.

• La deuxième étape est de déterminer les vecteurs/sous-espaces propres:

1. On cherche un vecteur v = (x, y, z) tel que

( f − λ1 )(v) = 0.

En utilisant la base Bc cela revient à résoudre le système suivant:



x + 2y − 3z = 0





x + 4y − 5z = 0



 2y − 2z = 0 .

Ce qui conduit à Ker( f ) = Vect({v1 }) avec v1 = (1, 1, 1).

2. De même par le système suivant


3.1 Diagonalisation 41

2y − 3z = 0





x + 3y − 5y = 0



 2y − 3z = 0

on obtient

Ker( f − λ2 I) = Ker( f − I) = Vect({v2 }) avec v2 = (1, 3, 2).

3. La même méthode pour λ3 permet de trouver

Ker( f − λ3 ) = Ker( f − 2I) = Vect({v3 }) avec v3 = (1, 2, 1).

• Soit B = (v1 , v2 , v3 ). On a detBc (B) 6= 0 donc B est libre et fournit par conséquent une base de R3 .

• Maintenant, on a f (v1 ) = 0, f (v2 ) = v2 et f (v3 ) = 2v3 et on écrit alors la matrice A0 de f dans la nouvelle
B (formée par les vecteurs propres):  
0 0 0
0
 
A =
 0 1 0 .

 
002

3.1.2 Applications de la diagonalisation

3.1.2.1 Calcul des puissances

Soit M une matrice carrée. Pour tout k ∈ N? , M k désigne le produit de M par elle même k fois. Si de plus
M est inversible alors pour tout k ∈ N? , M −k = (M −1 )k .
Soit A une matrice carrée diagonalisable et soit A0 la matrice diagonale associée à A i.e. A0 = P−1 AP où P
est la matrice de passage de la base canonique à une base de vecteurs propres. Alors An = PA0n P−1 pour
tout n ≥ 0. Si A est inversible alors A p = PA0p P−1 pour tout p < 0.

3.1.3 Mise en forme de la démarche de la diagonalisation

• On calcule le polynôme caractéristique de f : χ( f ) = det(A − λ I).


• On résout l’équation χ( f ) = 0 pour déterminer les valeurs propres λi .
• Si χ( f ) admet
42 3 Diagonalisation et Trigonalisation

I n racines deux à deux distinctes


ou

I k racines distinctes λ1 , ..., λk et que1

E = Ker( f − λ1 I) ⊕ Ker( f − λ2 I) ⊕ ... ⊕ Ker( f − λk I),

alors A est diagonalisable et on commence à résoudre les systèmes linéaires donnés par les équa-
tions ( f −λi I)(v) = 0 pour déterminer les vecteurs propres vi associés aux valeurs propres λi . La famille
B0 = (v1 , ..., vn ) serait une base de E.
• La nouvelle matrice diagonale A0 est donnée par A0 = diag(λ1 , ..., λk ) (où chaque valeur propre λk se
répète mk fois, avec mk est l’ordre de multiplicité de λk ).
• On calcule les matrices des passages P = matB0 ,B (IdE ) et P−1 = matB,B0 (IdE ) et on en déduit la relation
entre l’ancienne matrice A et la nouvelle matrice diagonale A0 , et ce par la formule de changement
de base i.e., A0 = matB0 ( f ) = P−1 AP.

3.1.4 Systèmes différentiels linéaires de premier ordre.

Soit le système différentiel linéaire suivant:


 ẋ1 (t) = x1 (t) + 2x2 (t) − 3x3 (t)




(SD) ẋ2 (t) = x1 (t) + 4x2 (t) − 5x3 (t)



 ẋ3 (t) = 2x2 (t) − 2x3 (t) .

   
 x1 (t)   ẋ 1 (t) 
   
On pose X(t) =  x2 (t)  et on a alors Ẋ(t) =  ẋ2 (t) 
  
.
   
x3 (t) ẋ3 (t)
On voit ainsi que (SD) peut s’écrire sous la forme matricielle suivante:

Ẋ(t) = AX(t)

1 cette condition est équivalente à dire que: Les valeurs propres λ1 , ..., λk sont d’ordres de multiplicités m1 , ...mk respective-
ment avec dim(Ker( f − λi I)) = mi pour tout i ∈ {1, ..., k}.
3.2 Trigonalisation 43
 
 1 2 −3 
0 −1
 
avec A =  1 4 −5 

 . On a A = P AP, donc
 
0 2 −2

(SD) ⇐⇒ Ẋ(t) = PA0 P−1 X(t)

⇐⇒ P−1 Ẋ(t) = A0 P−1 X(t)

⇐⇒ Ẏ (t) = A0Y (t), Y (t) = P−1 X



ẏ1 = 0





⇐⇒ ẏ2 = y2



 y3 = 2y3


y1 = c1





⇐⇒ y2 = c2 et



 y3 = c3 e2t .

3.2 Trigonalisation

3.2.1 Définition et cacractérisation

I u est trigonalisable ssi il existe une base de E par rapport à laquelle la matrice de u est triangulaire
supérieure.
I A est trigonalisable ssi elle est semblable à une matrice triangulaire supérieure.
I Un endomorphisme u (resp. une matrice A) est trigonalisable sur E (resp. dans Mn (K)) ssi χu (resp.
χA ) est scindé dans K.
I Si E est un C-ev, tout endomorphisme de E est trigonalisable.
I Toute matrice de Mn (K) (K = R ou C) est trigonalisable dans Mn (C).

3.2.2 Exemple de trigonalisation


 


 1 1 0 


 

 
Soit A = 


 1 -1 1



 .

 


 2 -5 3 

44 3 Diagonalisation et Trigonalisation

1−X 1 0
On a χA (X) = 1 −1 − X 1 = (1 − X)3 .

2 −5 3−X
Notons par f l’endomorphisme de R3 canoniquement associé à A.
Cherchons d’abord un vecteur propre associé à la valeur propre 1.
Soit (x, y, z) ∈ E1 (A). Alors    
x 0
   
(A − I3 ) 
 y  =  0 .
  
   
z 0

c’est à dire 
 x = −z
.
y = 0

Une base de Ker( f − IdR3 ) est {e1 = (1, 0, −1)}. On la complète en une base (e1 , e2 , e3 ) de R3 avec e2 = (0, 1, 0)
et e3 = (0, 0, 1). Par rapport à cette base la matrice de f est
 
 1 1 0 
 
B =  0 -1 1 

.
 
0 -4 3

Compte tenu de la formule de changement de base on obtient:


 
 1 0 0 
−1
 
A = PBP où P =  0 1 0 

.
 
-1 0 1

Maintenant, on va trigonaliser le bloc:


 
-1 1
A1 :=  .
-4 3

Notons par g l’endomorphisme de R3 canoniquement associé à A1 .

• χA1 = (X − 1)2 .
• Soit (x, y) un vecteur de E1 (A1 ). On a −2x + y = 0. Donc {e01 = (1, 2)} est une base de E1 (A1 ).
• On complète {e01 } en une base (e01 , e02 ) de R2 avec e02 = (0, 1). Par rapport à cette base la matrice de g
est  
1 1
 .
0 1
• On conclut que
3.2 Trigonalisation 45
   
1 1 1 0
A1 = Q   Q−1 avec Q =  .
0 1 2 1
Finalement  
1 1 0
−1
 
A = PR 
0 1 1 (PR)
 
0 0 1
avec  


 1 0 0


 

 
R=


 0 1 0 .




 


0 2 1 
   


 1 0 0 




 1 0 0 



 
 
 


PR = 
 −1 
et (PR) = 

.
0 1 0 -1 1 0
 
  


 
 
 


 
 
 

 
 -1 2 1   
 -1 1 1 

3.2.3 Mise en forme de la démarche de trigonalisation

Soient n ∈ N? et A ∈ Mn (K).

I On calcule χA .
I On détermine les racines de χA i.e., trouver les valeurs propres de A.
I Si χA n’est pas scindé i.e., les racines de χA ne sont pas tous dans K alors A n’est pas trigonalisable
et le processus s’arrête ici2 .
I Si χA est scindé i.e., les racines de χA sont tous dans K alors A est trigonalisable et on continue le
processus comme indiqué dans les étapes suivantes:

H On note par u l’endomorphisme de Kn canoniquement associé à A.


H On choisit λ = λ1 ∈ spK (A) (une valeur propre de u).
H On cherche un vecteur propre e1 associé à λ1 .
H On complète {e1 } en une base de Kn .
H On pose la matrice de u dans cette base qui serait de la forme:

2 Ceci concerne uniquement les matrices à coefficients réels, celles qui sont à coefficients complexes sont toujours
trigonalisables en vertue du Théorème de D’Alembert-Gauss.
46 3 Diagonalisation et Trigonalisation
 


 λ 1 a1 · · · a 
n−1 


 

 
0

 

 
à = 
 
.
 




 .
. B





 


 

0 

avec (a1 , · · · , an ) ∈ Kn et B ∈ Mn−1 (K).


H On effectue le changement de base pour trouver une matrice P ∈ GLn (K) telle que:
 


 λ a
1 1 · · · a 
n−1 


 

 
0

 

−1
  −1
A = PÃP = P  P .
 
..
 

 
 . B

 

 


 


0 

H On remarquera que χA (X) = (λ1 − X) χB (X). Donc χB est scindé dans K en tant que diviseur
d’un polynôme scindé, et par conséquent B est trigonalisable dans Mn−1 (K). Dans les étapes
suivantes on trigonalise la matrice B qui est d’ordre inférieur i.e., n − 1.
H On détermine une matrice Q ∈ GLn−1 (K) et une matrice triangulaire supérieure T de Mn−1 (K)
telles que
−1
B = QT Q .

H On pose par la suite  




 1 0 · · · 0 



 

 
0

 

 
R= .
 
.
 




 .
. Q





 


 

0 

R est bien une matrice inversible dans Mn (K) telle que


 


 1 0 · · · 0 



 

 
0

 

−1  
R =
 
..
 

 −1 
. Q

 


 


 


0 

et on a
3.2 Trigonalisation 47
   


 λ 1 a1 · · · a 
n−1 
 

 λ 1 a1 · · · a 
n−1 


 
 
 

   
0 0

 
 
 

−1    
R R =
   
. .

 
 
 




 .
. B







 .
. Q
−1
B Q





 
 
 


 
 
 

0  0 
 


 λ a
1 1 · · · a 
n−1 


 

 
0

 

 
= .
 
..
 

 
 . T

 

 


 


0 

I On conclut finalement que  




 λ 1 a 1 · · · a 
n−1 


 

 
0

 

  −1
A = (PR)  (PR) .
 
.
 




 .. T





 


 

0 
48 3 Diagonalisation et Trigonalisation

3.3 T.D 3
 
00
Exercice 1 Soit B =  .
11

1. Calculer Bn pour tout n ∈ N (utiliser la recurrence pour n ≥ 1);


2. Est-il possible de calculer Bn pour tout n ∈ Z?
   
0 x
3. Résoudre le système B3 X =   , X =   .
1 y

Exercice 2 On se propose de résoudre, par la méthode de diagonalisation, l’équation différentielle


suivante:

(E0 ) : 2ẍ + 3ẋ − 4x = 0

x(0) = −1

ẋ(0) = 1.

1. Trouver la matrice A ∈ M2 (R) qui exprime l’équation (E0 ) : 2ẍ+3ẋ−4x = 0. Ind: Utiliser le changement
   
ẋ ab 
de variable X =   puis trouver A ∈ M2 (R) telle que Ẋ = AX, poser pour cela A =   .
x cd
2. Montrer que A est diagonalisable.
3. Diagonaliser la matrice A (Vecteurs propres, sous espaces propres, base de vecteurs propres, ma-
trice de passage et formule de changement de base).
4. Trouver la solution de l’équation (E0 ) (sans utiliser la méthode de l’équation caractéristique, Tenir
compte des conditions initiales).
5. En utilisant la matrice A, déterminer le terme général de chacune des suites récurrentes (un , vn )
définies par: 
 2un+1 = −3un + 4vn ;




vn+1 = un



 u0 = 1, v0 = −1.

3.4 Exercices supplémentaires

Exercice 1 :  
α 1
Soit α ∈ R et soit la matrice Aα =  .
-1 -α
3.4 Exercices supplémentaires 49

1. Pour quelles valeurs de α la matrice Aα est inversible?


2. Déterminer A−1
α lorsqu’il existe.

3. Diagonaliser A2 .
4. Résoudre le système différentiel suivant:

ẋ(t) = 2x(t) + y(t)







ẏ(t) = −x(t) − 2y(t).





 x(0) = 0, y(0) = 1.

Exercice 2 :
Les matrices suivantes sont-elles diagonalisables?
 
 0 -8 6 
 
1. A =  -1 -8

;
7 
 
1 -14 11
 
2 0 4
 
2. A = 
 3 -4 12  .

 
1 -2 5
 
-1 0
3. A = −I2 =  .
0 -1

Exercice 3 :  


 2 0 1 



 

3 
Soit f l’endomorphisme de R dont la matrice dans la base canonique Bc est A = 

1 1 0 .
 


 

 


 -1 1 3 

1. Déterminer le polynôme caractéristique de A.


2. Vérifier que A est trigonalisable.
3. Vérifier que e1 = (1, 1, 0) est un vecteur propre associé à une valeur propre de A.
4. Chercher deux vecteurs e2 et e3 tels que B = (e1 , e2 , e3 ) soit une base de R3 et par rapport à laquelle
la matrice de f est de la forme  


 2 α β 



 

 
0 2
 


 γ 



 


0 0 2 

(on déterminera les valeurs de α, β et γ).


50 3 Diagonalisation et Trigonalisation

5. Trouver la matrice de passage de la base Bc à la base B.


6. Donner la formule de changement de base.    
5 x
   
7. En utilisant la forme triangulaire de la matrice A résoudre le système suivant: AX = 
 2 , X =  y .
  
   
1 z

Vous aimerez peut-être aussi