CHP 3 Réduction de Matrice

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 4

C HAPITRE 3

A LG ÈBRE LIN ÉAIRE - R ÉDUCTION DES


MATRICES

Dans ce chapitre, K désignera soit R ou C, et Mn (K) désignera l’ensemble des matrices carrées de
taille n dont les composantes appartiennent à K. On notera I la matrice identité
 
1 0 ... 0
0 1 ... 0
I = .
 
.. .. .. 
 .. . . .
0 ... 0 1

3.1 Introduction et rappels


On a vu l’année dernière que toute application linéaire f : Rn −→ Rn pouvait être représentée, à
travers le choix d’une base B = (e1 , . . . , en ), par une matrice, notée

MatB (f )

où, si on décompose pour tout i ∈ {1, . . . , n}, dans la base B,


n
X
f (ei ) = λi,j ej ,
j=1

on a
(M atB (f ))i,j = λi,j .

Autrement dit, la i-ème colonne de MatB (f ) comporte les composantes du vecteur f (ei ) dans la base B.

Définition 3.1. On dit qu’une application linéaire f : Kn −→ Kn est diagonalisable si il existe une base
B de Kn telle que
MatB (f ) est diagonale.

On a l’analogue pour les matrices, qui représentent les applications linéaires modulo le choix d’une base.

Définition 3.2. On dit qu’une matrice A ∈ Mn (K) est diagonalisable si il existe une matrice P ∈
Mn (K), inversible, telle que
D = P −1 AP est diagonale.

1
CHAPITRE 3. ALGÈBRE LINÉAIRE - RÉDUCTION DES MATRICES 2

3.2 Eléments propres

3.2.1 Eléments propres d’une application linéaire

Définition 3.3. Soit f : Kn −→ Kn une application linéaire. On dit que u ∈ Kn est un vecteur propre
de f si
1. u 6= 0
2. ∃λ ∈ K, f (u) = λu

Le scalaire λ ∈ K est appelé valeur propre de f .

Remarque 3.1. Par définition, les vecteurs propres sont nécessairement non-nuls. Par contre, la valeur
propre peut être nulle. C’est effectivement le cas si et seulement si

ker(f ) 6= {0}.

Notons que si u est un vecteur propre de f , alors ∀µ ∈ K, le vecteur µu est aussi vecteur propre. En effet,
comme f est linéaire
f (µu) = µf (u) = µλu = λ(µu).

Remarque 3.2. Notons que λ est valeur propre de f si et seulement si l’application linéaire f − λ Id
n’est pas injective. En effet,

f − λ Id non injective ⇔ ∃u ∈ Kn , f (u) − λu = 0 ⇔ ∃u ∈ Kn , f (u) = λu

De plus, d’après le théorème du rang, on rappelle que

f − λ Id non injective ⇔ f − λ Id non surjective ⇔ f − λ Id non bijective.

3.2.2 Eléments propres d’une matrice

Définition 3.4. Soit A ∈ Mn (K). On dit que u ∈ Kn est un vecteur propre de A si


1. u 6= 0
2. ∃λ ∈ K, Au = λu

Le scalaire λ ∈ K est appelé valeur propre de A.

Remarque 3.3. Notons que λ est valeur propre de A si et seulement si la matrice A − λ I n’est pas
inversible.

3.3 Diagonalisibilité

3.3.1 Polynôme caractéristique

Théorème 3.1. Soit A ∈ Mn (K). A est diagonalisable si et seulement si il existe une base B de Kn formée de
vecteurs propres de A. Dans ce cas, si P est la matrice de passage de la base canonique dans la base B, alors

P −1 AP = D, D est diagonale

et les éléments de la diagonale de D sont les valeurs propres de A.


CHAPITRE 3. ALGÈBRE LINÉAIRE - RÉDUCTION DES MATRICES 3

Proposition 3.1. Soit A ∈ Mn (K). Les valeurs propres de A sont les racines du polynôme

PA (λ) := det(A − λI),

et PA est un polynôme de degré n en λ. On l’appelle le polynôme caractéristique. De plus, le nombre de valeurs


propres est au plus égal à n.

Définition 3.5. Soit λ ∈ Sp(A). On dit que λ est une valeur propre de multiplicité mλ si λ est une racine
de PA (λ) de multiplicité mλ .

Définition 3.6. On appelle spectre de A ∈ Mn (K), et on note Sp(A), l’ensemble des valeurs propres de
A, c’est-à-dire
Sp(A) = {λ ∈ K, ∃v ∈ Kn , Av = λv}.

Définition 3.7. Soit A ∈ Mn (K) et soit λ ∈ Sp(A). On appelle espace propre associé à la valeur propre
λ, et on note Eλ , l’ensemble suivant

Eλ = {v ∈ Kn , Av = λv}

Il s’écrit aussi
Eλ = ker(A − λI).

3.3.2 Critères de diagonalisation


Proposition 3.2. Soit A ∈ Mn (K), et soit λ ∈ Sp(A), de multiplicité mλ . Alors 1 ≤ dim(Eλ ) ≤ mλ .

Remarque 3.4. On remarque donc que si λ est valeur propre de multiplicité 1 (ou valeur propre
simple), nécessairement dim Eλ = 1.

Théorème 3.2. Soit une application linéaire f : Kn −→ Kn , et λ1 , . . . , λm ∈ Sp(f ) distincts. Alors les
propriétés suivantes sont équivalentes :
1. f est diagonalisable
Lm
2. Kn = i=1 Eλi
Pm
3. i=1 dim(Eλi ) = n.

Pm 3.5. On sait
Remarque Pm déjà que les espaces propres sont en somme directe, et que dim Eλj ≤ mλj .
D’où j=1 dim Eλj ≤ j=1 mλj ≤ n. La seule obstruction à la diagonalisation est donc que les espaces
Pm
propres ne ”remplissent pas” tout l’espace ambient Kn , c’est-à-dire si j=1 dim Eλj < n , comme le
montre l’exemple suivant. .

Le théorème le plus fort est le suivant

Théorème 3.3. Soit A ∈ Mn (K). A est diagonalisable si et seulement si les deux conditions suivantes sont
remplies
1. Le polynôme caractéristique PA est scindé sur K, i.e

PA (λ) = (λ1 − λ)mλ1 . . . (λp − λ)mλp ,

où λ1 , . . . , λp ∈ K et mλ1 + · · · + mλp = n.


2. Pour chaque i ∈ {1, . . . , p}, on a dim(Eλi ) = mi .

Corollaire 3.1. Si le polynôme caractéristique PA (λ) de A ∈ Mn (K) est scindé à racines simples dans K, alors
A est diagonalisable dans K.
CHAPITRE 3. ALGÈBRE LINÉAIRE - RÉDUCTION DES MATRICES 4

3.4 Trigonalisation
3.4.1 Définitions et critères de trigonalistion
Définition 3.8. On dit que (aij )1≤i,j≤n = A ∈ Mn (K) est triangulaire supérieure (resp. triangulaire
inférieure) si aij = 0 pour i > j (resp. i < j).

Définition 3.9. Soit A ∈ Mn (K). On dit que A est trigonalisable si il existe P ∈ Mn (K) inversible telle
que
P −1 AP = T,
où T est une matrice triangulaire supérieure.

Théorème 3.4. Soit A ∈ Mn (K). La matrice A est trigonalisable si et seulement si son polynôme ca-
ractéristique est scindé sur K.

Remarque 3.6. Tous les polynômes étant scindés sur C, toute matrice est trigonalisable dans C.

3.4.2 La réduction de Jordan


Blocs et matrices de Jordan

Définition 3.10. Un bloc de Jordan est une matrice de la forme


 
λ 1 0 ... 0
 .. 
0 λ
 . 0 
Jλ =  ... .. .. .. 

 0 . . . 


0 . . . . ..

λ 1
0 ... ... 0 λ

Remarque 3.7. Dans un bloc de Jordan, tous les éléments diagonaux sont égaux.

Définition 3.11. Une matrice de Jordan est une matrice par blocs de la forme
 
Jλ1 0 ... 0
 0 Jλ2 . . .
 
0 
J = .

.. 
 .. ..
0 . . 
0 ... 0 Jλ`

où les blocs de Jordan Jλi sont éventuellement des matrices de tailles différentes.

La réduction de Jordan

Théorème 3.5. Soit A ∈ Mn (K), une matrice dont le polynôme caractéristique est scindé dans K. Alors il
existe λ1 , . . . , λ` ∈ K et une matrice P ∈ Mn (K) inversible telle que
 
Jλ1 0 ... 0
 0 Jλ2 . . .
 
−1 0 
P AP =  .

..  .

 .. ..
0 . . 
0 ... 0 Jλ`

• Les éléments sur la diagonale de A sont les valeurs propres de A.

Vous aimerez peut-être aussi