Cours Algà Bre2

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 57

Algèbre linéaire

1
Table des matières

1 Espaces vectoriels 4
1.1 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.1 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Exemples fondamentaux de sous-espaces vectoriels . . . . . . . . . . . . . . . . 6
1.2 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.1 Famille génératrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.2 Famille libre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.3 Existence de bases (en dimension finie) . . . . . . . . . . . . . . . . . . . . . . 11
1.2.4 Les théorèmes fondamentaux sur la dimension . . . . . . . . . . . . . . . . . . 12
1.2.5 Bases en dimension infinie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3 Somme, somme directe, sous-espaces supplémentaires . . . . . . . . . . . . . . . . . . 15

2 Applications linéaires 19
2.1 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2 Image et noyau. Image d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . 22

3 Matrices 27
3.1 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.1.1 Matrices associées aux applications linéaires . . . . . . . . . . . . . . . . . . . 29
3.2 Produit matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.1 Matrice d’un vecteur. Calcul de l’image d’un vecteur . . . . . . . . . . . . . . 35
3.2.2 Produit matriciel. Matrice de l’inverse d’une application . . . . . . . . . . . . 37
3.2.3 Calcul de l’inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.3 Changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.3.1 Matrice de passage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.3.2 Action du changement de base sur les composantes d’un vecteur . . . . . . . . 40
3.3.3 Action du changement de base sur la représentation matricielle . . . . . . . . . 41

4 Déterminants 43
4.1 Définition des déterminants par récurrence . . . . . . . . . . . . . . . . . . . . . . . . 43
4.1.1 Transposée d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.2 Calcul des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.2.1 Déterminant du produit de matrices . . . . . . . . . . . . . . . . . . . . . . . 50
4.3 Calcul de l’inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.4 Application des déterminants à la théorie du rang . . . . . . . . . . . . . . . . . . . . 52

2
TABLE DES MATIÈRES 3
4.4.1 Caractérisation des bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.4.2 Comment reconnaître si une famille de vecteurs est libre . . . . . . . . . . . . 53
4.4.3 Comment reconnaître si un vecteur appartient à l’espace engendré par d’autres
vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.4.4 Détermination du rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.5 Applications des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.5.1 Méthode de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

ENSAM Casablanca
Chapitre 1

Espaces vectoriels

1.1 Espaces vectoriels


Définition 1.1 Soit K un corps commutatif. On appelle espace vectoriel sur K un ensemble E non
vide sur lequel on a défini deux lois de composition :
h i
a) Une loi interne c’est-à-dire une application E × E −→ E dite addition, notée +E , et vérifiant :
1. (x +E y ) +E z = x +E (y +E z ), ∀x, y, z ∈ E.
2. x +E y = y +E x, ∀x, y ∈ E.
3. II existe un élément de E noté 0E , ou plus simplement 0, dit élément neutre de l’ensemble
E, tel que ∀x ∈ E : x +E 0E = x.
4. ∀x ∈ E, il existe un élément de E noté (−x), dit opposé de x, tel que : x +E (−x) = 0E .
h i
b) Une loi externe de domaine K c’est-à-dire une application K × E −→ E on note λx (ou λ.x)
l’image dans E du couple (λ, x) ∈ K × E], qui vérifie :
1. λ(µx) = (λµ)x, ∀λ, µ ∈ K, ∀x ∈ E.
2. (λ +K µ)x = λx +E µx, ∀λ, µ ∈ K, ∀x ∈ E.
3. λ(x +E y ) = λx +E λy, ∀λ ∈ K, ∀x, y ∈ E.
4. 1.x = x, ∀x ∈ E. (1 étant l’élément neutre de la multiplication dans K).
Les éléments de K sont dits scalaires et ceux de E vecteurs.

Remarque 1.1 1. Tout au long de chapitre nous allons considérer le corps K = R ou C.


2. (E, +E ) est un groupe abélien (ou commutatif).
3. On pourra noter + au lieu de +E , s’il n’y a pas de risque de confusion.

Exemple 1.1 1. E = Rn muni des deux lois suivantes :


( x1 , . . . , xn ) + ( y 1 , . . . , y n ) := (x1 + y1 , . . . , xn + yn )
(1.1)
λ(x1 , . . . , xn ) := (λx1 , . . . , λxn ).

est un espace vectoriel sur R. Ici 0Rn = (0, . . . , 0), l’opposé (−x) de x = (x1 , . . . , xn ) est
(−x1 , . . . , −xn ).

4
Sous-espaces vectoriels 5
2. De même Cn est muni d’une structure d’espace vectoriel sur C.
3. E = Rn n’est un espace vectoriel sur C.
Proposition 1.1 Pour tout λ ∈ K et pour tout x ∈ E, on a
1. λ0E = 0E et 0x = 0E .
2. λx = 0E ⇒ λ = 0 ou x = 0E .
3. (−λ)x = λ(−x) = −(λx).
Démonstration :
1. On a λ0E = λ(0E + 0E ) = λ0E + λ0E , d’où 0E = λ0E . De plus 0x = (0 + 0)x = 0x + 0x,
d’où 0x = 0E . r
3
2. Supposons λx = 0E et λ , 0. En multipliant par λ−1 , on obtient λ−1 (λx) = λ−1 0E = 0E i.e,
1x = 0E , donc x = 0E . r
3
3. On a (−λ)x = (λ × −1)x = λ(−1 × x) = λ(−x) = (−1 × λ)x = −(λx). r 3
Exemple 1.2 On munit E = R2 des deux lois suivantes :
(x1 , x2 ) + (y1 , y2 ) = (x1 + y1 , x2 + y2 )
λ(x1 , x2 ) = (λx1 , 0), (λ ∈ R)
E est-il un espace vectoriel sur R ?
Solution. E n’est pas un d’un R espace vectoriel. En effet, 1(2, 3) = (2, 3) , (2, 0). r
3
Exercice 1.1 On note E = R∗+ , l’ensemble des nombres réels strictement positifs. Montrer que les
lois :
x ? y = xy et λ.x = xλ , (x, y ∈ R∗+ , λ ∈ R)
confèrent à E une structure d’espace vectoriel sur R.

1.1.1 Sous-espaces vectoriels


Définition 1.2 Soit E un espace vectoriel et F une partie non vide de E. On dit que F est un
sous-espace vectoriel de E, si la restriction des lois de E à F fait de F un espace vectoriel.
Proposition 1.2 Soit E un espace vectoriel et F ⊂ E. Alors F est un sous-espace vectoriel de E si et
seulement si :
1. F , ∅.
2. ∀x, y ∈ F ⇒ x + y ∈ F .
3. ∀x ∈ F , ∀λ ∈ K ⇒ λx ∈ F .
Remarque 1.2 1. L’élément neutre 0E de E coïncide avec l’élément neutre 0F de chaque sous-
espace vectoriel F . C’est pour cette raison que, dans la suite, on le notera simplement 0 (au lieu
de 0E ou 0F ), s’il n’y a pas de risque de confusion.
2. Si F est un sous-espace vectoriel, alors F contient nécessairement le vecteur nul.
Proposition 1.3 F est un sous-espace vectoriel de E si et seulement si :
1. F , ∅.
2. ∀x, y ∈ F , ∀λ, µ ∈ K ⇒ λx + µy ∈ F .

ENSAM Casablanca
6 CHAPITRE 1. ESPACES VECTORIELS
1.1.2 Exemples fondamentaux de sous-espaces vectoriels
1. Droite vectorielle. Soit v ∈ E, v , 0, alors F = {y ∈ E| ∃λ ∈ K : y = λv} est un sous-espace
vectoriel de E dit droite vectorielle engendrée par v

Figure 1.1

En effet F , ∅, car v ∈ F . De plus, F est stable pour les lois de E, car si x, y ∈ F (c’est-à-dire :
x = λv, y = µv ), on a :
x + y = λv + µv = (λ + µ)v ∈ F .
De même, si x ∈ F (c’est-à-dire x = λv ), on a : µx = µ(λv ) = (µλ)v ∈ F .
2. Plan vectoriel. Soient x1 , x2 ∈ E et F = {y ∈ E| ∃λ1 , λ2 ∈ K : y = λ1 x1 + λ2 x2 } est un
sous-espace vectoriel de E, dit sous-espace engendré par x1 et x2 . Si x1 et x2 ne sont pas nuls et
x2 n’appartient pas à la droite vectorielle engendrée par x1 , F est dit plan vectoriel engendré
par x1 et x2 .

Figure 1.2

Remarque 1.3 {0E } est un sous espace vectoriel d’un espace vectoriel E.

Exemple 1.3 1. L’ensemble F = {(x, y, z ) ∈ R3 | 2x + y + 3z = 0} est un sous-espace vectoriel


de R . En effet, il est clair que F ⊂ R3 . Soient (x1 , y1 , z1 ), (x2 , y2 , z2 ) ∈ F et λ, γ ∈ R. On a
3

ENSAM Casablanca
1.2. BASES 7
λ(x1 , y1 , z1 ) + γ (x2 , y2 , z2 ) = (λx1 + γx2 , λy1 + γy2 , λz1 + γz2 ). De plus

2(λx1 + γx2 ) + λy1 + γy2 + 3(λz1 + γz2 ) = λ (2x1 + y1 + 3z1 ) +γ (2x2 + y2 + 3z2 ) = 0.
| {z } | {z }
=0 =0

Donc λ(x1 , y1 , z1 ) + γ (x2 , y2 , z2 ) ∈ F . D’où F est un sous espace vectoriel de R3 .


2. L’ensemble G = {(x, y, z ) ∈ R3 | 2x − y − z = 1} n’est pas un sous-espace vectoriel de R3 . En
effet, (0, 0, 0) < G.
T
Proposition 1.4 Soient F et G deux sous-espaces vectoriels de E. Alors F G est un sous-espace
vectoriel de E.

Démonstration. Comme F et G sont deux sous-espaces vectoriels de E. Alors F G ⊂ E. De plus


T

0 ∈ F G ⇒ F G , ∅. Par ailleurs, soient x, y ∈ F G et λ, µ ∈ K, alors λx + µy ∈ F G. Donc


T T T T

F G est un sous espace vectoriel de E. r


3
T

Remarque 1.4 Soient F et G deux sous espaces vectoriels de E. Alors


S
1. F G n’est pas en général un sous-espace vectoriel de E.
2. E\F n’est pas un sous-espace vectoriel de E.

Exercice 1.2 Soit R[a,b] = {f : [a, b] −→ R} muni de +. Lequel de ces sous-ensembles est-il un
sous-espace vectoriel ?
1. C 0 ([a, b], R) = {fonctions continues f : [a, b] −→ R}.
2. L’ensemble des applications surjectives (resp. injectives) f : [a, b] −→ R.
3. L’ensemble des applications f : [a, b] −→ R telles que 2f (a) = f (b).
4. L’ensemble des applications f : [a, b] −→ R telles que f (a) = f (b) + 1.

1.2 Bases
1.2.1 Famille génératrice
Définition 1.3 Une famille de vecteurs {v1 , . . . , vp } d’un espace vectoriel E est dite génératrice, si
E = Vect{v1 , . . . , vp }, ce qui veut dire que

∀x ∈ E ∃λ1 , . . . , λp ∈ K tels que x = λ1 v1 + . . . + λp vp .

On dit aussi, parfois, que tout x ∈ E se décompose sur les vecteurs vi , ou encore que tout x ∈ E est
combinaison linéaire des vecteurs vi .

Exemple 1.4 1. Dans R2 la famille {e1 = (1, 0), e2 = (0, 1)} est une famille génératrice car tout
x = (x1 , x2 ) ∈ R2 , s’écrit :

(x1 , x2 ) = x1 (1, 0) + x2 (0, 1) = x1 e1 + x2 e2 .

ENSAM Casablanca
8 CHAPITRE 1. ESPACES VECTORIELS
2. De plus, l’ensemble {e1 , e2 , v}, avec v = (1, 2). Elle est évidemment génératrice, car pour tout
(x1 , x2 ) ∈ R2 on peut écrire
(x1 , x2 ) = x1 e1 + x2 e2 + 0v.
Plus généralement : toute famille contenant une famille génératrice est génératrice.

Exercice 1.3 Dans R2 , soient v1 = (1, 1) et v2 = (1, −1). Montrons que {v1 , v2 } est génératrice.

Solution. Soit x = (a, b) ∈ R2 avec a, b arbitraires : il s’agit de montrer qu’il existe x1 , x2 ∈ R tels
que x = x1 v1 + x2 v2 , c’est-à-dire :

(a, b) = (x1 , x1 ) + (x2 , −x2 ) = (x1 + x2 , x1 − x2 ).


Ceci signifie que quels que soient a et b ∈ R, il existe x1 , x2 ∈ R vérifiant le système
(
x1 + x2 = a
x1 − x2 = b.

a+b a−b
En résolvant, on trouve en effet x1 = et x2 = . Donc {v1 , v2 } est génératrice. r
3
2 2
Définition 1.4 Un espace vectoriel E est dit de dimension finie, s’il existe une famille génératrice
finie engendre E; dans le cas contraire, on dit qu’il est de dimension infinie.

Remarque 1.5 1. Rn et Cn sont des espaces vectoriels de dimension finie.


2. R[X ] et C[X ] sont des espaces vectoriels de dimension infinie.

1.2.2 Famille libre


Définition 1.5 Soit {v1 , . . . , vp } une famille finie d’éléments de E. On dit qu’elle est libre, si :

λ1 v1 + . . . + λp vp = 0E ⇒ λ1 = 0, . . . , λp = 0, ∀λi ∈ K, ∀i ∈ {1, . . . , p}.

On dit aussi que les vecteurs v1 , . . . , vp sont linéairement indépendants.

Exemple 1.5 Dans R3 , les vecteurs v1 = (1, 1, −1), v2 = (0, 2, 1), v3 = (0, 0, 5) sont linéairement
indépendants. En effet, supposons qu’il existe des réels λ1 , λ2 , λ3 tels que

λ1 v1 + λ2 v2 + λ3 v3 = 0R3 ,

c’est-à-dire :
λ1 (1, 1, −1) + λ2 (0, 2, 1) + λ3 (0, 0, 5) = 0R3 .
On aura (λ1 , λ1 + 2λ2 , −λ1 + λ2 + 5λ3 ) = (0, 0, 0), ce qui donne immédiatement λ1 = λ2 = λ3 = 0.

Définition 1.6 Une famille qui n’est pas libre est dite liée (on dit aussi que ses vecteurs sont liés ou
linéairement dépendants).

Exemple 1.6 Dans R3 , les vecteurs v1 = (1, 2, 1), v2 = (−1, 3, 1) et v3 = (−1, 13, 5) sont liés, car on a
2v1 + 3v2 − v3 = 0R3 .

ENSAM Casablanca
Famille libre 9
Proposition 1.5 Une famille {v1 , . . . , vp } est liée si et seulement si l’un au moins des vecteurs vi s’écrit
comme combinaison linéaire des autres vecteurs de la famille (c’est-à-dire si l’un au moins des vi
appartient à l’espace vectoriel engendré par les autres).

Ou, d’une manière équivalente : une famille {v1 , . . . , vp } est libre si et seulement si aucun des
vecteurs vi n’appartient à l’espace engendré par les autres.

Figure 1.3: Les vecteurs v1 et v2 forment une famille liée : v2 appartient à l’espace engendré par v1 .

Figure 1.4: Les vecteurs v1 , v2 et v3 forment une famille liée : v3 appartient à l’espace engendré par
v1 et v2 .

L’intérêt de la notion de famille libre réside dans la propriété suivante :

Proposition 1.6 Soit {v1 , . . . , vp } une famille libre et x ∈ Vect{v1 , . . . , vp }, (c’est-à-dire x est combi-
naison linéaire des vi ). Alors la décomposition de x sur les vi est unique.

Démonstration. En effet, soient

x = λ1 v1 + . . . + λp vp = µ1 v1 + . . . + µp vp

deux décompositions de x. En faisant la différence on trouve :

0E = (λ1 − µ1 )v1 + . . . + (λp − µp )vp .

ENSAM Casablanca
10 CHAPITRE 1. ESPACES VECTORIELS
Puisque la famille est libre, on a

λ1 − µ1 = 0, . . . , λp − µp = 0

c’est-à-dire : λ1 = µ1 , . . . λp = µp . r
3

Définition 1.7 On appelle base une famille à la fois libre et génératrice.

On a immédiatement :

Proposition 1.7 Une famille {v1 , . . . , vn } est une base de E si et seulement si tout x ∈ E se décompose
d’une façon unique sur les vi , c’est-à-dire : ∀x ∈ E il existe un unique n-uplet (λ1 , . . . , λn ) ∈ Kn tel
que :
x = λ1 v1 + . . . + λn vn .
Les scalaires λi sont dits composantes de x dans la base {v1 , . . . , vn }.

Exemple 1.7 (Base canonique de Rn [X ])


La famille B = {1, X, X 2 , . . . , X n } est une base de Rn [X ]. En effet, tout P ∈ Rn [X ] s’écrit

P ( X ) = a0 1 + a1 X + . . . + an X n

avec ai ∈ R, donc B est génératrice. De plus :

λ0 1 + λ1 X + . . . + λn X n = 0Rn [X ] ⇒ λ0 = 0, λ1 = 0, . . . , λn = 0.

Autrement dit B est une famille libre de Rn [X ]. Ainsi B est une base de Rn [X ].

Exercice 1.4 Soit F = {(x, y, z ) ∈ R3 | 2x + y + 3z = 0}. Chercher une base de F .

Solution. Il est facile de vérifier que F est un espace vectoriel. Soit (x, y, z ) ∈ F . On a (x, y, z ) =
(x, −2x − 3z, z ) = x(1, −2, 0) + z (0, −3, 1). Donc la famille {(1, −2, 0), (0, −3, 1)} est une famille
génératice de F . De plus, il est facile de vérifier que {(1, −2, 0), (0, −3, 1)} est une famille libre. Ainsi
{(1, −2, 0), (0, −3, 1)} est une base de F . r
3

Proposition 1.8 1. {x} est une famille libre ⇔ x , 0.


2. Toute famille contenant une famille génératrice est génératrice.
3. Toute sous-famille d’une famille libre est libre.
4. Toute famille contenant une famille liée est liée.
5. Toute famille {v1 , . . . , vp } dont l’un des vecteurs vi est nul est liée.

Démonstration.
1. On a λx = 0 ⇒ λ = 0 ou x = 0. Donc, si x , 0, λx = 0 implique λ = 0, ce qui signifie que {x}
est une famille libre.
Réciproquement, supposons {x} libre. Alors, d’après la définition de famille libre, si λx = 0 on
a nécessairement λ = 0, ce qui signifie toujours que x , 0. r
3

ENSAM Casablanca
Existence de bases (en dimension finie) 11
2. Soit {v1 , . . . , vp } une famille génératrice et x = λ1 v1 + . . . + λp vp est un élément arbitraire de E.
On peut aussi écrire :

x = λ1 v1 + . . . + λp vp + 0w1 + . . . + 0wq avec w1 , . . . , wq ∈ E.

Donc tout x ∈ E est combinaison linéaire de v1 , . . . , vp , w1 , . . . , wq . r


3
3. Soit F = {v1 , . . . , vp } une famille libre et F 0 une sous-famille de F telle que F 0 = {v1 , . . . , vk }
avec k ≤ p. Si F 0 était liée, l’un des vecteurs v1 , . . . , vk serait combinaison linéaire des autres. Il
existerait donc un élément de F qui s’écrirait comme combinaison linéaire de certains éléments
de F . Or, cela est impossible car F est libre. r 3
4. Soit F = {v1 , . . . , vp } une famille liée et G = {v1 , . . . , vp , w1 , . . . , wq }. Alors l’un des vi est
combinaison linéaire des autres. Or, les vecteurs vi appartiennent à G, donc l’un des éléments
de G est combinaison linéaire des autres, et par conséquent G est liée. r 3
5. Évident d’après le point 4, car il s’agit d’une famille contenant {0} et {0} est liée, d’après 1. r
3

1.2.3 Existence de bases (en dimension finie)


Dans ce paragraphe nous allons montrer que dans tout espace vectoriel E , {0E } de dimension
finie, il existe des bases.

Remarque 1.6 Soit E , {0E } un espace vectoriel de dimension finie et G = {v1 , . . . , vp } une famille
génératrice de E : pour tout x ∈ E, il existe a1 , . . . , ap ∈ K tels que :

x = α1 v1 + . . . + αp vp .

Notons que G contient certainement des familles libres : il suffit de prendre par exemple, L = {vi }
avec vi ∈ G, vi , 0E .

Théorème 1.1 Soit E , {0E } un espace vectoriel de dimension finie et G une famille génératrice.
Considérons une famille libre L ⊂ G. Il existe alors une base B de E telle que L ⊂ B ⊂ G.

Démonstration : Soit L l’ensemble des parties libres X de E telles que L ⊂ X ⊂ G. L’ensemble L


n’est pas vide car L ∈ L et L est fini puisque, G étant fini, l’ensemble P(G) des parties de G est finie
et L ⊂ P(G). En outre tout élément de L possède un nombre fini d’éléments. Choisissons dans L une
partie B ayant le plus grand nombre possible d’éléments. Soit p ce nombre et montrons que B est une
base de E. Il suffit de montrer que B est une partie génératrice de E puisque par construction B est
une partie libre de E. Comme G engendre E, il suffit de voir que tout élément de G est combinaison
linéaire des éléments de B. Si Card(G) = p, alors on a B = G. La partie génératrice G de E est donc
libre. Par conséquent G est une base de E et le théorème est démontré.
Supposons maintenant que p < Card(G). Si x est un élément de G n’appartenant pas à B, l’ensemble
B {x} est contenu dans G et possède (p + 1) éléments. Donc la famille B {x} est liée. Si B =
S S

{x1 , . . . , xp }, il existe des scalaires λ1 , . . . , λp , λ non tous nuls tels que

λ1 x1 + . . . + λp xp + λx = 0E .

ENSAM Casablanca
12 CHAPITRE 1. ESPACES VECTORIELS
On a nécessairement λ , 0, car si λ = 0 les éléments de B vérifieraient une combinaison linéaire nulle
à coefficients non tous nuls et B ne serait pas libre. On en déduit

λ1 λp
x=− x1 − . . . − xp .
λ λ
Ainsi tout élément x ∈ G est combinaison linéaire des éléments de B et le théorème est démontré. r
3

Ce théorème peut s’exprimer aussi de la manière suivante :

Théorème 1.2 Soit E , {0E } un espace vectoriel de dimension finie. Alors


1. De toute famille génératrice on peut extraire une base.
2. (Théorème de la base incomplète). Toute famille libre peut être complétée de manière à former
une base.

Démonstration :
1. C’est en fait ce nous avons établi dans la démonstration ci-dessus.
2. Soient L = {v1 , . . . , vp } une famille libre et G = {w1 , . . . , wq } une famille génératrice quelconque
de E. La famille G0 = G L est génératrice, car elle est une sur-famille d’une famille génératrice,
S

et elle contient la famille L. D’après le théorème d’existence, il existe une base B telle que
L ⊂ B ⊂ G0 . r3

Remarque 1.7 Nous avons démontré en fait non seulement que toute famille libre peut être complétée
en une base, mais qu’elle peut complétée en une base en choisissant les vecteurs dans une famille
génératrice arbitraire choisie à l’avance.

1.2.4 Les théorèmes fondamentaux sur la dimension


Les résultats de ce paragraphe sont particulièrement importants.

Théorème 1.3 Dans un espace vectoriel E sur K de dimension finie, toutes les bases ont le même
nombre d’éléments. Ce nombre est appelé dimension de E sur K et est noté dimK E.

Corollaire 1.1 1. Dans un espace vectoriel de dimension n, toute famille ayant plus de n éléments
est liée.
2. Dans un espace vectoriel de dimension n, les familles ayant moins de n éléments ne peuvent être
génératrices.

Remarque 1.8 1. Si E = {0E }, on pose : dimK E = 0.


2. dimR Rn = n. En effet, comme nous l’avons vu, la famille {e1 , . . . , en }, avec

e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), . . . , en = (0, . . . , 0, 1)

est une base de Rn .

ENSAM Casablanca
Les théorèmes fondamentaux sur la dimension 13
3. La dimension d’un espace vectoriel E dépend non seulement de E mais aussi du corps de base
K. En effet, considérons, par exemple, C muni de la structure d’espace vectoriel sur R définie
par les lois :
(a + ib) +(c + id) = (a + c) + i(b + d)
λ(a + ib) = λa + iλb (λ ∈ R).
Tout élément z ∈ C s’écrit d’une manière unique : z = a1 + bi avec a, b ∈ R, ce qui signifie que
{1, i} est une base et donc dimR C = 2. En revanche, si on considère C comme espace vectoriel
sur le corps C, on a : dimC C = 1.

Proposition 1.9 Soient E1 , . . . , Ep des espaces vectoriels de dimension finie sur le même corps K.
Alors :
dimK (E1 × . . . × Ep ) = dimK E1 + . . . + dimK Ep .

Exemple 1.8 On a dimR Rn = n; dimC Cn = n et dimR Cn = 2n.

En général, pour montrer qu’une famille est une base, il faut montrer qu’elle est libre et qu’elle est
génératrice. Cependant, si la famille a exactement autant d’éléments que la dimension de l’espace, on
a le théorème suivant qui est d’un usage fréquent :
Théorème 1.4 Soit E un espace vectoriel de dimension n. Alors :
1. Toute famille génératrice ayant n éléments est une base.
2. Toute famille libre ayant n éléments est une base.

Exercice 1.5 1. Montrer que la famille {v1 , v2 } engendre R2 où v1 = (1, 2) et v2 = (−1, 1).
2. La famille {v1 , v2 } est-elle une base de R2 ?

Solution.
1. Pour montrer que la famille {v1 , v2 } engendre R2 , il faut montrer que pour tout (x1 , x2 ) ∈ R2 ,
∃λ1 , λ2 ∈ R tels que
(x1 , x2 ) = λ1 (1, 2) + λ2 (−1, 1).
x1 +x2 −2x1 +x2
On trouve, alors λ1 = 3 et λ2 = 3 . Donc la famille {v1 , v2 } engendre R2 .
2. Puisque Card{v1 , v2 } = 2 = dimR R2 et comme la famille {v1 , v2 } engendre l’espace vectoriel
R2 , alors {v1 , v2 } est une base de R2 . r
3

Proposition 1.10 Soient E un espace vectoriel de dimension finie et F un sous-espace vectoriel de E.


Alors F est de dimension finie et de plus, on a
1. dimK F ≤ dimK E.
2. dimK F = dimK E ⇔ E = F .

Démonstration.
1. Le cas où F = {0E } est trivial. Sinon, soit B = {v1 , . . . , vn } une base de E. Il est clair que B
engendre F , ce qui implique que F est un sous espace vectoriel de dimension finie. D’après le
théorème de la construction de la base, on déduit qu’il existe une base B1 de F telle que B1 ⊂ B.
Autrement dit Card(B1 ) ≤ Card(B), ce qui montre que dimK F ≤ dimK E. r 3

ENSAM Casablanca
14 CHAPITRE 1. ESPACES VECTORIELS
2. Il est facile de voir que E = F ⇒ dimK F = dimK E.
Inversement, pour montrer que E = F , il suffit de montrer que E ⊂ F . Soit F = Vect(B),
où B = {v1 , . . . , vn } une base de F . Comme F ⊂ E, alors vi ∈ E, ∀i ∈ {1, . . . , n}. De plus B
est une famille libre de E et Card(B) = dimK E, alors B est une base de E. Donc ∀x ∈ E,
∃!λ1 , . . . , λn ∈ K tels que
n
λj vj ∈ Vect(B) = F .
X
x=
j =1

Ce qui prouve que E ⊂ F . Ainsi E = F . r


3

Exercice 1.6 Soit F = Vect{(1, 2) , (2, 1)}. Montrer que F = R2 .

Solution. On a {(1, 2) , (2, 1)} est une famille génératrice de F . De plus, il est facile de montrer que
{(1, 2) , (2, 1)} est une famille libre. Alors {(1, 2) , (2, 1)} est une base de F . Ainsi dimR F = 2. En
utilisant le fait que F est un sous espace vectoriel de R2 et dimR F = dimR R2 , on obtient le résultat
désiré F = R2 . r 3

1.2.5 Bases en dimension infinie


Définitions 1.1 Soient E un espace vectoriel et F = {xj }j∈A une famille d’éléments de E, non néces-
sairement finie.
1. On appelle combinaison linéaire finie (ou simplement combinaison linéaire) de la famille, toute
expression du type :
X
λj xj , où I est une sous-famille finie de A. (1.2)
j∈I

2. On appelle sous-espace engendré par F , le sous-espace vectoriel de E noté Vect{F }, formé par
toutes les combinaisons linéaires finies des éléments de F .

Remarque 1.9 Vect{F } est un sous-espace vectoriel de E. En effet, si u = λ1 x1 + . . . + λp xp ∈


Vect{F } et v = µ1 y1 + . . . + µq yq ∈ Vect{F } (avec xj , yj ∈ F ) on a : λu + µv = combinaison linéaire
finie d’éléments de F . Autrement dit F est un sous espace vectoriel.

Plus précisément, on a :

Définitions 1.2 1. Une famille F = {xj }j∈A d’éléments de E est dite génératrice si Vect{F } = E,
c’est-à-dire, si ∀x ∈ E, il existe une sous-famille finie {x1 , . . . , xp } ⊂ F telle que :

x = λ 1 x1 + . . . + λ p xp .

2. La famille F est dite libre, si toute sous-famille finie est libre, c’est-à-dire si : ∀I ⊂ A avec I est
finie : X
λj xj = 0 ⇒ λj = 0, ∀j ∈ I.
j∈I

3. Une famille F est dite base si elle est libre et génératrice.

ENSAM Casablanca
1.3. SOMME, SOMME DIRECTE, SOUS-ESPACES SUPPLÉMENTAIRES 15
Proposition 1.11 B est une base de E si et seulement si tout élément de E s’écrit d’une manière
unique comme combinaison linéaire finie d’éléments de B.

Exemple 1.9 (Base canonique de R[X ]).


La famille B = {1, X, X 2 , . . . , X n , . . .}n∈N est une base de R[X ]. En effet, la famille est génératrice
car tout polynôme s’écrit comme combinaison linéaire finie de {1, X, X 2 , . . . , X n , . . .}n∈N . D’autre
part, elle est libre car si l’on considère une combinaison linéaire finie nulle :

λ0 1 + λ1 X + . . . + λp X p = 0,

on a : λ0 = 0, . . . , λp = 0.

Théorème 1.5 Tout espace vectoriel non réduit à {0} admet une base. Plus précisément :
1. De toute famille génératrice on peut extraire une base.
2. Toute famille libre peut être complétée en une base.

Définition 1.8 Soit E un K−ev et B une famille finie de vecteurs de E alors le rang de B, noté rg(B),
est la dimension de Vect(B).

Exemple 1.10 On a rg{(1, 0), (0, 1)} = 2 et rg{(1, 2), (−2, −4)} = 1.

1.3 Somme, somme directe, sous-espaces supplémentaires


Définition 1.9 Soient E1 et E2 deux sous-espaces vectoriels d’un espace vectoriel E. On appelle somme
de E1 et E2 , le sous-espace de E défini par :

E1 + E2 = {x ∈ E; ∃x1 ∈ E1 , ∃x2 ∈ E2 : x = x1 + x2 }. (1.3)

Théorème 1.6 Soient E un K−ev, F , G et H trois sev de E. On a les propositions suivantes :


1. F + (G + H ) = (F + G) + H (associativité)
2. F + G = G + F (commutativité)
3. F + {0E } = {0E } + F = F (élément neutre)
4. F + E = E + F = E (élément absorbant)
5. F + G est le plus petit sev de E contenant F et G (minimalité)

Démonstration. Les trois premiers points se déduisent directement des propriétés de l’addition dans
un espace vectoriel.
On montre d’abord 5. On sait que F + G est un sev de E par la propriété précédente. De plus
F = {x + 0E ; x ∈ F } ⊂ F + G. De même, G ⊂ F + G. D’où F G ⊂ F + G. Donc F + G contient
S

bien F et G. Maintenant, si H est un sev de E tels que F G ⊂ H, alors, pour tout x ∈ F et tout
S

y ∈ G, x ∈ H et y ∈ H. Comme H est un sev, on a x + y ∈ H. D’où F + G ⊂ H. On en déduit que


F + G est bien le plus petit sev de E contenant F et G.
On déduit de 5 que F + E contient E. Or F + E est un sev de E. D’où F + E = E et on a bien 4. r 3

ENSAM Casablanca
16 CHAPITRE 1. ESPACES VECTORIELS
Proposition 1.12 Soient E1 et E2 deux sous-espaces vectoriels de E et F = E1 + E2 . La décomposition
de tout élément de F en somme d’un élément de E1 et d’un élément de E2 est unique, si et seulement
si E1 E2 = {0E }. On écrit alors
T

F = E1 ⊕ E2 .
On dit que F est somme directe de E1 et E2 .
Démonstration. D’après la définition, tout élément de F est somme d’un élément de E1 et d’un élément
de E2 . Mais cette décomposition en général n’est pas unique. En effet, supposons que E1 E2 , {0E }
T

et soit x0 ∈ E1 E2 avec x0 , 0E . Si x = x1 + x2 (avec xi ∈ Ei ) on a aussi la décomposition :


T

x = (x1 + x0 ) + (x2 − x0 ) = x1 + |{z}


x2 .
| {z } | {z } |{z}
∈E1 ∈E2 ∈E1 ∈E2

On voit donc qu’une condition nécessaire pour que la décomposition soit unique, et que
\
E1 E2 = {0E }.
Cette condition est aussi suffisante. Supposons, en effet, que
\
E1 E2 = {0E }
et soient x = x1 + x2 et x = x01 + x02 deux décompositions de x sur E1 et E2 . Par soustraction, on a :
0
x1 − x = x02 − x2 ∈ E1 ∩ E2 = {0E }.
| {z }1 | {z }
∈E1 ∈E2

Ainsi, x1 = x01 et x2 = x02 . r


3
Remarque 1.10 On a
F = E1 + E2 et


F = E1 + E2


tout élément x ∈ F s’écrit d’une manière unique

 

F = E1 ⊕ E2 ⇔  et ⇔
x = x1 + x2
E1 E2 = {0E }
 T 

avec x1 ∈ E1 , x2 ∈ E2

Définition 1.10 Soit E un espace vectoriel et soient E1 et E2 deux sous-espaces vectoriels de E. On


dit que E1 et E2 sont supplémentaires (ou que E2 est un supplémentaire de E1 ), si E = E1 ⊕ E2 .
Proposition 1.13 Soit E un espace vectoriel et soient E1 et E2 deux sous-espaces vectoriels de E.
Alors E = E1 ⊕ E2 si et seulement si pour toute base B1 de E1 et toute base B2 de E2 , la famille
{B1 , B2 } est une base de E.
Démonstration. En effet, soient B1 = {ei }i∈I et B2 = {vj }j∈J des bases de E1 et E2 respectivement
et supposons que {ei , vj }(i,j )∈I×J est une base de E. Alors tout x ∈ E s’écrit d’une manière unique :
x = λ1 e1 + . . . + λn en + µ1 v1 + . . . + µm vm
| {z } | {z }
∈E1 ∈E2

c’est-à-dire tout x ∈ E s’écrit d’une manière unique x = x1 + x2 avec x1 ∈ E1 et x2 ∈ E2 . Ainsi,


E = E1 ⊕ E2 .
Réciproquement, si E = E1 ⊕ E2 , tout x ∈ E se décompose d’une manière unique sur E1 et E2 , et
par conséquent, sur la famille B = {B1 , B2 }. On en déduit que B est une base de E. r
3

ENSAM Casablanca
1.3. SOMME, SOMME DIRECTE, SOUS-ESPACES SUPPLÉMENTAIRES 17
Théorème 1.7 Soit E un espace vectoriel de dimension finie. Alors
(
E1 E2 = {0E }
T
E = E1 ⊕ E2 ⇔
dim E = dim E1 + dim E2

Exemple 1.11 Dans R2 , soient v et w sont deux vecteurs indépendants, E1 = Vect{v} et E2 =


Vect{w} les droites vectorielles engendrées par v et par w. On a R2 = E1 ⊕ E2 , car la famille {v, w}
est une base. Comme on le voit sur la Figure 1.5, tout x ∈ R2 se décompose d’une manière unique
sur E1 et E2 .

Figure 1.5

Exemple 1.12 Dans R3 , soit π un plan vectoriel et v un vecteur non contenu dans ce plan. On a :
R3 = π ⊕ Vect{v} car si {e1 , e2 } est une base de π, alors {e1 , e2 , v} est une base de R3 .

Figure 1.6

ENSAM Casablanca
18 CHAPITRE 1. ESPACES VECTORIELS
Exercice 1.7 Soient v1 = (1, 0, 0, 1), v2 = (0, 0, 1, 0), v3 = (0, 1, 0, 0), v4 = (0, 0, 0, 1) et v5 =
(0, 1, 0, 1) des vecteurs dans R4 .
1. Vect{v1 , v2 } et Vect{v3 } sont-ils supplémentaires dans R4 ?
2. Vect{v1 , v2 } et Vect{v4 , v5 } sont-ils supplémentaires dans R4 ?
3. Vect{v1 , v3 , v4 } et Vect{v2 , v5 } sont-ils supplémentaires dans R4 ?
4. Vect{v1 , v4 } et Vect{v3 , v5 } sont-ils supplémentaires dans R4 ?
Proposition 1.14 Soit E un espace vectoriel. Pour tout sous-espace vectoriel E1 , il existe toujours un
supplémentaire. Le supplémentaire de E1 n’est pas unique, mais si E est de dimension finie, tous les
supplémentaires de E1 ont même dimension.
Exemple 1.13 Soient E = R2 et F = Vect{(1, 0)} est un sous espace vectoriel de E. Alors F admet
des sous espaces supplémentaires. Par exemple, le sous espace vectoriel G = Vect{(0, 1)} est un
supplémentaire de F .
Proposition 1.15 (Formule de Grassmann).
Soit E un espace vectoriel de dimension finie et soient E1 et E2 deux sous-espaces vectoriels de E.
Alors
dim(E1 + E2 ) = dim(E1 ) + dim(E2 ) − dim(E1 ∩ E2 ). (1.4)
En particulier
dim(E1 ⊕ E2 ) = dim(E1 ) + dim(E2 ). (1.5)
Démonstration. Il est clair que E1 ∩ E2 est un sous espace vectoriel de E, alors de dimension finie.
Soit BE1 ∩E2 = {e1 , e2 , . . . , ek } est une base de E1 ∩ E2 avec dim(E1 ∩ E2 ) = k. De plus, BE1 ∩E2
est libre dans E1 , on peut la compléter en une base de E1 par le théorème de la base incomplète.
Soit donc {f1 , . . . , fl } une famille des vecteurs de E1 tels que BE1 = {e1 , . . . , ek , f1 , . . . , fl } soit une
base de F . Nous savons que dim(E1 ) = k + l. Remarquons que les vecteurs fj sont dans E1 \E2
(car ils sont dans E1 mais pas dans E1 ∩ E2 ). Nous repartons de la famille BE1 ∩E2 = {e1 , . . . , ek }
mais cette fois nous la complétons en une base de E2 . Soit {g1 , . . . , gm } des vecteurs de E2 tels que
BE2 = {e1 , . . . , ek , g1 , . . . , gm } soit une base de E2 . Nous savons que dim(E2 ) = k + m. Remarquons
aussi que les vecteurs gj sont dans E2 \E1 . Montrons que BE1 +E2 = {e1 , . . . , ek , f1 , . . . , fl , g1 , . . . , gm }
est une base de E1 + E2 . C’est une famille génératrice car E1 = Vect{BE1 } ⊂ Vect{BE1 +E2 } et
E2 = Vect{BE2 } ⊂ Vect{BE1 +E2 }. Donc E1 + E2 ⊂ Vect{BE1 +E2 }. C’est une famille libre. En effet,
soit une combinaison linéaire nulle
α1 e1 + . . . + αk ek + β1 f1 + . . . + βl fl + γ1 g1 + . . . + γm gm = 0E . (1.6)
Notons e = α1 e1 + . . . + αk ek ; f = β1 f1 + . . . + βl fl et g = γ1 g1 + . . . + γm gm . Ainsi (1.6) s’écrit sous
la forme e + f + g = 0E . On a g = −e − f , or e et f sont dans E1 , donc g ∈ E1 . Or les vecteurs gj ne
sont pas dans E1 . Alors g = γ1 g1 + . . . + γm gm = 0E . Or, la famille {g1 , . . . , gm } est libre, donc tous
les scalaires γ1 , γ2 , . . . , γm sont nuls. Le reste de l’équation (1.6) devient
α1 e1 + . . . + αk ek + β1 f1 + . . . + βl fl = 0E .
Or, la famille {e1 , . . . , ek , f1 , . . . , fl } est libre, donc tous les scalaires α1 , . . . , αk , β1 , . . . , βl sont nuls.
Par conséquent, la famille BE1 +E2 est libre, donc c’est une base de E1 + E2 . On en déduit alors que
dim(E1 + E2 ) = k + l + m. En utilisant maintenant le fait que dim(E1 E2 ) = k, dim(E1 ) = k + l,
T

dim(E2 ) = k + m, on obtient dim(E1 E2 ) = dim(E1 ) + dim(E2 ) − dim(E1 E2 ). r 3


T T

ENSAM Casablanca
Chapitre 2

Applications linéaires

La structure d’espace vectoriel ne devient vraiment intéressante que si l’on introduit la notion
d’application linéaire. Il s’agit des applications entre espaces vectoriels qui, dans un sens que nous
allons préciser, conservent la structure d’espace vectoriel.

Dans ce chapitre, qui est un peu l’axe de tout le reste du cours, nous allons donner essentiellement
les définitions et les résultats élémentaires de base.

2.1 Applications linéaires


Définition 2.1 Soient E et E 0 deux espaces vectoriels sur le même corps K et f une application de
E dans E 0 . On dit que f est linéaire, si :
1. f (x + y ) = f (x) + f (y ), ∀x, y ∈ E.
2. f (λx) = λf (x), ∀x ∈ E, ∀λ ∈ K.
L’ensemble des applications linéaires de E dans E 0 est noté LK (E, E 0 ) ou plus simplement, L(E, E 0 ).

Remarque 2.1 Si f est linéaire, on a : f (0E ) = 0E 0 . Il suffit, en effet, de faire λ = 0 dans f (λx) =
λf (x).

Certains types d’applications linéaires sont particulièrement importants ; nous y reviendrons largement
dans la suite. En voici les définitions :

Définition 2.2 1. On appelle endomorphisme de E, une application linéaire de E dans E (même


espace de départ et d’arrivée). L’ensemble des endomorphismes de E est noté EndK (E ) ou, plus
simplement End(E ) ou encore LK (E ) ou L(E ).
2. On appelle isomorphisme de E sur E 0 une application linéaire bijective de E dans E 0 . L’ensemble
des isomorphismes de E dans E 0 est noté par IsomK (E ).
3. On appelle automorphisme toute application linéaire bijective de E dans E. L’ensemble des
automorphisme est noté par AutK (E ).

19
20 CHAPITRE 2. APPLICATIONS LINÉAIRES
Exemple 2.1
f : E −→ E 0
v 7−→ 0E 0
est une application linéaire dite application nulle.

Exemple 2.2
idE : E −→ E
v 7−→ v
est un endomorphisme de E dit identité sur E.

Exemple 2.3
f: R3 −→ R2
(x1 , x2 , x3 ) 7−→ (2x1 + x2 , x2 − x3 )
est une application linéaire. En effet, si v = (x1 , x2 , x3 ) et w = (y1 , y2 , y3 ), on a :

f (v + w ) = f ((x1 + y1 , x2 + y2 , x3 + y3 ))
= (2(x1 + y1 ) + (x2 + y2 ), (x2 + y2 ) − (x3 + y3 ))
= ((2x1 + x2 ) + (2y1 + y2 ), (x2 − x3 ) + (y2 − y3 ))
= f (v ) + f (w ).
f (λv ) = f ((λx1 , λx2 , λx3 )) = (2λx1 + λx2 , λx2 − λx3 )
= λ ( 2 x1 + x2 , x2 − x3 )
= λf (v ).

Exemple 2.4 L’application

f: R3 −→ R2
(x1 , x2 , x3 ) 7−→ (x21 − x2 , x2 + x3 )

n’est pas linéaire (ni 1, ni 2 de la Définition 2.1 ne sont satisfaites à cause du terme au carré).

Exemple 2.5 Soient C 0 ([0, 1], R) et C 1 ([0, 1], R) les espaces vectoriels des applications f : [0, 1] −→ R
respectivement continues et continues à dérivée continue. L’application :

D : C 1 ([0, 1], R) −→ C 0 ([0, 1], R)


f 7−→ f0

est une application linéaire, puisque :

D (f + g ) = (f + g )0 = f 0 + g 0 = Df + Dg
D (λf ) = (λf )0
= λf 0
= λDf

si λ ∈ R et f , g ∈ C 1 ([0, 1], R).

ENSAM Casablanca
2.1. APPLICATIONS LINÉAIRES 21
Exemple 2.6 Soit E = E1 ⊕ E2 , alors tout vecteur x ∈ E s’écrit d’une manière unique x = x1 + x2
où x1 ∈ E1 et x2 ∈ E2 . L’application :

pr1 : E −→ E1
(2.1)
x = x1 + x2 7−→ x1

est une application linéaire dite projecteur (ou une projection) sur E1 parallèlement à E2 . De la même
manière, on définit le projecteur sur E2 parallèlement à E1 , par

pr2 : E −→ E2
. (2.2)
x = x1 + x2 7−→ x2

Figure 2.1

Exercice 2.1 Montrer que prj est un projecteur ⇔ prj ◦ prj = prj , j = 1, 2.

Exemple 2.7 Soit v0 , 0 un vecteur de E, l’application translation définie par

tv0 : E −→ E
v 7 → v + v0

n’est pas linéaire (noter, par exemple, que : tv0 (0) = v0 , 0).

Exercice 2.2 1. Soit E = C ([0, 1], R) l’espace vectoriel des applications continues de [0, 1] dans R.
Montrer que l’application :
φ1 : E −→ E
f 7−→ F
Z x
où F (x) = f (t)dt, est un endomorphisme de E.
0

ENSAM Casablanca
22 CHAPITRE 2. APPLICATIONS LINÉAIRES
2. L’application suivante
φ2 : E −→ E
f 7−→ G
Z x
où G(x) = |f (t)|dt, est-elle linéaire ?
0
3. Montrer que l’application :
δ : E −→ R
f 7−→ f (0)
est une application linéaire (elle est appelée fonctionnelle de Dirac).

2.2 Image et noyau. Image d’une famille de vecteurs


Proposition 2.1 Soit f : E −→ E 0 une application linéaire et F un sous-espace vectoriel de E. Alors
f (F ) est un sous-espace vectoriel de E 0 . En particulier f (E ) est un sous-espace vectoriel de E 0 appelé
image de f et noté Im(f ). Sa dimension est appelée rang de f et est notée :

rg(f ) := dim(Imf ) = dim(f (E )). (2.3)

Démonstration. En effet, il esl clair que f (F ) ⊂ E 0 et f ( 0E ) = 0E 0 ∈ f (F ). De plus, pour tout


|{z}
∈F
y1 , y2 ∈ f (F ); ils existent x1 , x2 ∈ F tels que

y1 = f (x1 ) et y2 = f (x2 ).

On a : y1 + y2 = f (x1 ) + f (x2 ) = f (x1 + x2 ); donc y1 + y2 ∈ f (F ). De plus, si y ∈ f (F ) (alors


| {z }
∈F
y = f (x) avec x ∈ F ), alors pour tout λ ∈ K, on a : λy = λf (x) = f (|{z}
λx ); ainsi λy ∈ f (F ). r
3
∈F

Proposition 2.2 Soit f ∈ L(E, E 0 ) et ker f := {x ∈ E; f (x) = 0E 0 } est un sous-espace vectoriel de


E appelé noyau de f .

Démonstration. Il est clair que ker f ⊂ E et 0E ∈ ker f . Soient x, y ∈ ker f , on a f (x + y ) =


f (x) + f (y ) = 0E 0 + 0E 0 = 0E 0 ; donc x + y ∈ ker f . De plus, ∀λ ∈ K et ∀x ∈ ker f , on a f (λx) =
λf (x) = λ0E 0 = 0E 0 . Ainsi, λx ∈ ker f . r
3

Proposition 2.3 Soit f ∈ L(E, E 0 ). Alors f est injective si et seulement si ker f := {0E }.

Démonstration. En effet, soient ker f = {0E } et x, y ∈ E tels que f (x) = f (y ). Cela implique que
f (x) − f (y ) = 0E 0 , d’où f (x − y ) = 0E 0 . Ainsi x − y ∈ ker f = {0E } et donc x = y c’est-à-dire f est
injective.
Réciproquement, supposons que f est injective et soit x ∈ ker f , c’est-à-dire f (x) = 0E 0 . Puisque
f (0E ) = 0E 0 pour toute application linéaire, on a f (x) = f (0E ). Le fait que f est injective implique
x = 0E . On en déduit que ker f = {0E }. r 3

ENSAM Casablanca
2.2. IMAGE ET NOYAU. IMAGE D’UNE FAMILLE DE VECTEURS 23
Exemple 2.8 Soit
f: R3 −→ R3
(x, y, z ) 7−→ (x0 , y 0 , z 0 )

x0 = x + y − z



y 0 = 2x + y − 3z
 0
z = 3x + 2y − 4z

ker f est l’ensemble des triplets (x, y, z ) ∈ R3 qui vérifient le système :




 x+y−z =0
2x + y − 3z =0
3x + 2y − 4z = 0.

On trouve facilement x = 2λ, y = −λ, z = λ; c’est-à-dire ker f est la droite vectorielle engendrée
par le vecteur (2, −1, 1). Pour ce qui est de Imf , on a : (x0 , y 0 , z 0 ) ∈ Imf si et seulement si, il existe
(x, y, z ) ∈ R3 vérifiant le système :

= x0


 x+y−z
2x + y − 3z = y0
3x + 2y − 4z = z 0

Il s’agit donc de savoir pour quelles valeurs de x0 , y 0 , z 0 . On a

x + y − z = x0 0
 

  x+y−z = x

−y − z 0 0
= y − 2x ⇒  y + z = 2x0 − y 0
−y − z = z 0 − 3x0 = 2x0 − y 0 + z 0 − 3x0

 
0

la condition de compatibilité est 2x0 − y 0 + z 0 − 3x0 = 0 c’est-à-dire x0 + y 0 − z 0 = 0. L’image de f est


donc le plan de R3 d’équation x0 + y 0 − z 0 = 0. Ainsi rg(f ) = 2.

Exercice 2.3 Soient E un espace vectoriel et E1 et E2 deux sous espaces vectoriels de E tels que
E = E1 ⊕ E2 . Soient pr1 le projecteur sur E1 parallèlement à E2 et pr2 le projecteur sur E2 parallèlement
à E1 .
1. Montrer que prj ◦ prj = prj , ∀j = 1, 2 et pr1 ◦ pr2 = pr2 ◦ pr1 = 0.
2. Montrer que E = Im(prj ) ⊕ ker(prj ), ∀j = 1, 2.

Proposition 2.4 Soit f ∈ L(E, E 0 ) et {vj }j∈I une famille de vecteurs de E.


1. Si f est injective et la famille de {vj }j∈I est libre, alors la famille {f (vj )}j∈I de E 0 est libre.
2. Si f est surjective et la famille {vj }j∈I est génératrice de E, alors la famille {f (vj )}j∈I est
génératrice de E 0 .
En particulier si f est bijective l’image d’une base de E est une base de E 0 .

Démonstration.

ENSAM Casablanca
24 CHAPITRE 2. APPLICATIONS LINÉAIRES
1. Supposons que la famille {vj }j∈I est libre et que f soit injective. Alors pour toute famille extraite
{vα1 , vα2 , . . . , vαq } la relation

λ1 f (vα1 ) + . . . + λq f (vαq ) = 0 ⇒ f (λ1 vα1 + . . . + λq vαq ) = 0 ⇒ λ1 vα1 + . . . + λq vαq ∈ ker f .

Or ker f = {0E }, donc


λ1 vα1 + . . . + λq vαq = 0E
et puisque la famille {vj }j∈I est libre, on a λ1 = 0, . . . , λq = 0. Donc la famille {f (vj )}j∈I est
libre.
2. Soit y ∈ E 0 quelconque ; puisque f est surjective, il existe x ∈ E tel que y = f (x). D’autre part
la famille {vj }j∈I est génératrice de E, ainsi, x s’écrit sous la forme

x = λ1 vα1 + . . . + λp vαp ,

d’où y = f (x) = λ1 f (vα1 ) + . . . + λp f (vαp ). Alors y est une combinaison linéaire d’éléments
de la famille {f (vj )}j∈I et, puisqu’il est choisi arbitrairement dans E 0 , la famille {f (vj )}j∈I est
génératrice. r
3

Théorème 2.1 Deux espaces vectoriels de dimension finie sont isomorphes, si et seulement si, ils ont
même dimension.

Démonstration. En effet, s’il existe un isomorphisme f : E −→ E 0 , l’image par f d’une base de E est
une base de E 0 , donc E et E 0 ont même dimension.
Réciproquement, supposons que dim E = dim E 0 et soient {e1 , . . . , en } et {e01 , . . . , e0n } deux bases
respectivement de E et E 0 . Considérons l’application f : E −→ E 0 construite de la manière suivante :
1. pour k = 1, . . . , n on pose : f (ek ) = e0k ;
n n n
xk e0k .
X X X
2. si x = xk ek on pose f (x) = xk f (ek ) =
k =1 k =1 k =1
On vérifie facilement que f est linéaire et bijective. r
3

Dans le cas où les espaces E et E 0 sont de dimension finie, les dimensions du noyau et de l’image de
l’application f sont liées par la relation donnée dans le théorème suivant, l’un des plus importants en
Algèbre Linéaire :

Théorème 2.2 (Théorème du rang).


Soient E et E 0 deux espaces vectoriels de dimension finie et f : E −→ E 0 une application linéaire. On
a alors :
dim E = rg(f ) + dim(ker f ). (2.4)

Démonstration. Supposons que dim E = n et dim(ker f ) = r et montrons que dim(Imf ) = n − r.


Soit {w1 , . . . , wr } une base de ker f , et {v1 , . . . , vn−r } une famille de vecteurs telle que
{w1 , . . . , wr , v1 , . . . , vn−r } soit une base de E. Soit B = {f (v1 ), . . . , f (vn−r )}. Montrons que B est une
base de Imf .

ENSAM Casablanca
2.2. IMAGE ET NOYAU. IMAGE D’UNE FAMILLE DE VECTEURS 25
1. B engendre Imf .
Soit, en effet y = f (x) ∈ Imf . Comme x ∈ E, alors x s’écrit sous la forme

x = a1 w1 + . . . + ar wr + b1 v1 + . . . + bn−r vn−r .

On a donc :
y = f (a1 w1 + . . . + ar wr + b1 v1 + . . . + bn−r vn−r )
= a1 f (w1 ) + . . . + ar f (wr ) + b1 f (v1 ) + . . . + bn−r f (vn−r )
= b1 f (v1 ) + . . . + bn−r f (vn−r ),
ce qui montre que B engendre Imf .
2. B est libre.
Supposons que λ1 f (v1 ) + . . . + λn−r f (vn−r ) = 0E 0 ; on aura f (λ1 v1 + . . . + λn−r vn−r ) = 0E 0 ,
donc
λ1 v1 + . . . + λn−r vn−r ∈ ker f .
Par conséquent, il existe a1 , . . . , ar ∈ K tels que :

λ1 v1 + . . . + λn−r vn−r = a1 w1 + . . . + ar wr

c’est-à-dire :
λ1 v1 + . . . + λn−r vn−r − a1 w1 − . . . − ar wr = 0E .
Puisque la famille {v1 , . . . , vn−r , w1 , . . . , wr } est libre, les coefficients de cette combinaison linéaire
sont tous nuls ; en particulier λ1 = 0, λ2 = 0, . . . , λn−r = 0, c’est-à-dire B est libre. r 3

Remarque 2.2 1. Si f est injective ⇒ ker f = {0E } ⇒ dim(ker f ) = 0 ⇒ dim E = rgf =


dim(f (E )) ≤ dim E 0 .
2. Si f est surjective ⇒ f (E ) = E 0 ⇒ dim E 0 = dim(f (E )) = rgf . Puisque dim(ker f ) ≥ 0, on
obtient dim E 0 ≤ dim E.
3. Si f est bijective ⇒ f injective et surjective ⇒ dim E ≤ dim E 0 et dim E 0 ≤ dim E. Donc
dim E = dim E 0 .

Exercice 2.4 1. Existe-t-il une application linéaire injective de R2 dans R ?


2. Existe-t-il une application linéaire surjective de R dans R2 ?
3. Existe-t-il une application linéaire f : R4 −→ R3 telle que ker f = Vect{(1, 2, 0, −3)} et Imf =
{(x, y, z ) ∈ R3 ; x − y + z = 0} ?

Ce théorème a un corollaire important. Pour montrer qu’une application linéaire est bijective, il faut
montrer qu’elle est injective et surjective ; cependant, dans le cas de dimension finie, si la dimension
de l’espace de départ et celle de l’espace d’arrivée sont les mêmes, il suffit de démontrer l’une des deux
propriétés - soit l’injectivité, soit la surjectivité :
Corollaire 2.1 Soient f ∈ L(E, E 0 ), E et E 0 étant deux espaces vectoriels de même dimension finie.
(en particulier, par exemple, si f ∈ End(E ), avec E de dimension finie). Alors les propriétés suivantes
sont équivalentes :

ENSAM Casablanca
26 CHAPITRE 2. APPLICATIONS LINÉAIRES
1. f est injective.
2. f est surjective.
3. f est bijective.

Démonstration. Il suffit, bien entendu de montrer que 1. est équivalent à 2. Comme on l’a vu f est
injective si et seulement si ker f = {0E }. Puisque dim E = rgf + dim(ker f ); donc f est injective si et
seulement si dim E = rgf , c’est-à-dire dim E = dim(Imf ). Or, par hypothèse, dim E = dim E 0 , donc
f est injective si et seulement si dim(Imf ) = dim E 0 . Puisque Imf ⊂ E 0 cela équivaut à Imf = E 0 ,
c’est-à-dire f est surjective. r
3

ENSAM Casablanca
Chapitre 3

Matrices

3.1 Matrices
Définitions 3.1 1. Soient p, n ∈ N∗ . On appelle matrice de type (p, n) à cœfficients dans K, un
tableau A de p × n éléments de K rangés sur p lignes et n colonnes :
 
a11 a12 . . . a1n

 a21 a22 . . . a2n 

A=  .. .. .. 
. . .
 
 
ap1 ap2 . . . apn

ou, en abrégé : A = (aij ) 1≤i≤p . Notons que le scalaire aij désigne l’élément de la i-ème ligne et
1≤j≤n
de la j-ème colonne :

Figure 3.1

2. Le nombre p × n est appelé la dimension de A.


3. L’ensemble des matrices à p lignes et n colonnes est noté par Mp,n (K).
4. Si n = p, la matrice A est dite matrice carrée d’ordre n et l’ensemble des matrices carrées est
noté par Mn (K).
 
! 1 2−i 3+i
1 3 −1
Exemple 3.1 ∈ M2,3 (R) et  0

1+i i  ∈ M3 ( C ) .
0 1 2
−i 2 1

Remarque 3.1 1. Si p = 1. La matrice A = (a11 , a12 , . . . a1n ) ∈ M1,n (K) est dite matrice ligne de
dimension 1 × n.

27
28 CHAPITRE 3. MATRICES
 
a11

a21 
∈ Mp,1 (K) est dite matrice colonne de dimension p × 1.
 
2. Si n = 1. La matrice A =  .. 
.
 
 
ap 1

Proposition 3.1 Sur l’ensemble Mp,n (K), on définit les deux lois suivantes :
1. L’addition : si A = (aik ) et B = (bik ), on note C = A + B, la matrice (cik ) telle que

cik = aik + bik , ∀i ∈ ~1, p, ∀k ∈ ~1, n.

2. Le produit par un scalaire : si A = (aik ) et λ ∈ K, on note λA la matrice (λaik ) c’est-à-dire la


matrice obtenue en multipliant tous les éléments de A par λ.
! ! !
2 −1 0 3 1 2 0 4 3 1 0 7
Exemple 3.2 i) + = .
1 2 1 −1 3 1 −1 2 4 3 0 1
! !
2 −1 0 3 10 −5 0 15
ii) 5 = .
1 2 1 −1 5 10 5 −5

Remarque 3.2 1. L’ensemble Mp,n (K) muni de ces deux lois est un espace vectoriel sur K.
2. L’élément neutre est la matrice dont tous les éléments sont nuls, dite matrice nulle et est notée
0Mp,n (K) ou tout simplement 0.
3. L’opposée de la matrice (aik ) est la matrice (−aik ).

Proposition 3.2 On a dimK (Mp,n (K)) = pn.

Démonstration : En effet, on vérifie facilement que les p × n matrices, dites matrices élémentaires :

forment une base de Mp,n (K) dite base canonique.

ENSAM Casablanca
Matrices associées aux applications linéaires 29
3.1.1 Matrices associées aux applications linéaires
Soient E et E 0 deux espaces vectoriels sur K, de dimension n et p respectivement, et f : E −→ E 0
une application linéaire. Choisissons une base B1 = {e1 , . . . , en } de E et une base B2 = {e01 , . . . , e0p }
de E 0 . Les images par f des vecteurs e1 , . . . , en se décomposent sur la base B2 par
f (e1 ) = a11 e01 + a21 e02 + . . . + ap1 e0p
f ( e2 ) = a12 e01 + a22 e02 + . . . + ap2 e0p
..
. ...........................
f (en ) = a1n e01 + a2n e02 + . . . + apn e0p .
Définition 3.1 On appelle matrice de f dans les bases B1 = {e1 , . . . , en } et B2 = {e01 , . . . , e0p } la
matrice notée M(f )B1 ,B2 appartenant à Mp,n (K) dont les colonnes sont les composantes des vecteurs
f (e1 ), . . . , f (en ) dans la base B2 par
f (e1 ) f (e2 ) . . . f ( en )
e0 a11 a12 ... a1n
   
1 a11 a12 . . . a1n
e02  a
 21 a 22 . . . a2n    a21

a22 . . . a2n 

M (f )B1 ,B2 = ..  .. .. ..  =  .
 . .. .. .
.  . . .    . . . 

ep0 ap 1 ap 2 ... apn ap 1 ap 2 . . . apn

Remarque 3.3 1. S’il n’y a pas d’ambiguïté possible, on écrira aussi M(f ) à la place de M(f )B1 ,B2 ,
mais il est clair que la matrice associée à f dépend du choix des bases de E et E 0 .
2. Dans le cas où f est un endomorphisme, on peut choisir la même base B dans E considéré
comme espace de départ et d’arrivée. Dans ce cas, on notera M(f )B au lieu de M(f )B,B .
Proposition 3.3 Soient E et E 0 deux espaces vectoriels sur K de dimension n et p respectivement et
B1 = {e, . . . , en } et B2 = {e01 , . . . , e0p } des bases de E et E 0 respectivement. Alors l’application :
M : LK (E, E 0 ) −→ Mp,n (K)
f 7−→ M (f )B1 ,B2
est un isomorphisme d’espaces vectoriels, c’est-à-dire :


 M (f + g ) = M (f ) + M (g )
M (λf ) = λM (f )


M est bijective.
En particulier : dim(LK (E, E 0 )) = n × p.
Démonstration : On a, en effet :
M (f + g ) = M
 (f + g )B1 ,B2 
= (f + g )(e1 ), (f + g )(e2 ), . . . , (f + g )(en )
 B2 
= f (e1 ) + g (e1 ), f (e2 ) + g (e2 ), . . . , f (en ) + g (en )
   B2 
= f (e1 ), f (e2 ), . . . , f (en ) + g (e1 ), g (e2 ), . . . , g (en )
B2 B2
= M (f )B1 ,B2 + M (g )B1 ,B2
= M (f ) + M (g ).

ENSAM Casablanca
30 CHAPITRE 3. MATRICES
Donc
M (f + g )B1 ,B2 = M (f )B1 ,B2 + M (g )B1 ,B2 .
De même, si λ ∈ K :
M (λf ) = M
 (λf )B1 ,B2 
= (λf )(e1 ), (λf )(e2 ), . . . , (λf )(en )
  B2
= λf (e1 ), λf (e2 ), . . . , λf (en )
  B2
= λ f ( e1 ) , f ( e2 ) , . . . , f ( en )
B2
= λM (f )B1 ,B2
= λM (f ).
Donc M est linéaire. D’autre part M est surjective. Soient, en effet :
 
a11 . . . a1n

a21 . . . a2n 
∈ Mp,n (K)
 
A= .. .. 
. .
 
 
ap1 . . . apn
et f ∈ L(E, E 0 ) définie de la manière suivante
f (e1 ) = a11 e01 + a21 e02 + . . . + ap1 e0p
... = ........................
f (en ) = a1n e01 + a2n e02 + . . . + apn e0p .
On prolonge, ensuite, f par linéarité sur E, c’est-à-dire, si
x = λ1 e1 + . . . + λn en ∈ E,
on pose
f (x) = λ1 f (e1 ) + . . . + λn f (en ).
Il est clair que A = M (f )B1 ,B2 . Enfin M est injective. Soit en effet f ∈ ker M , ce qui implique
M (f ) = 0Mp,n (K) , autrement dit
f (e1 ) f (e2 ) . . . f (en )
e0 ...
 
1 0 0 0
e02 
 0 0 ... 0  
M (f )B1 ,B2 = ..   .. .. ..  .
.  . . .  
e0p 0 0 ... 0

ENSAM Casablanca
Matrices associées aux applications linéaires 31
Ceci signifie que f (e1 ) = 0, . . . , f (en ) = 0. Donc, si x = λ1 e1 + . . . + λn en ∈ E, on aura

f (x) = λ1 f (e1 ) + . . . + λn f (en ) = 0,

c’est-à-dire f = 0. Donc f est injective. Par ailleurs, en utilisant le fait que L(E, F ) ' Mp,n (K), on
obtient
dim(L(E, F )) = dim(Mp,n (K)) = n × p.
D’où le résultat.

Exemple 3.3 Soit E un espace vectoriel de dimension n et

idE : E −→ E
x 7−→ x.

Considérons une base B = {e1 , e2 , . . . , en }. On a

idE (ei ) = ei , ∀i ∈ ~1, n.

Donc  
1 0 ... 0
.
0 ..
 
 0 1 
M (idE )B = 
 .
... .

 .
 . 0 0 

0 ... 0 1

Cette matrice est notée In ou tout simplement I et est appelée matrice unité de Mn (K).

Définition 3.2 La matrice identité ou matrice unité est une matrice carrée avec des 1 sur la diagonale
et des 0 partout ailleurs. Elle peut s’écrire

diag(1, 1, . . . , 1).

Puisque les matrices peuvent être multipliées à la seule condition que leurs types soient compatibles,
il y a des matrices unité de tout ordre. In est la matrice unité d’ordre n et est donc définie
 comme
une matrice diagonale avec 1 sur chaque entrée de sa diagonale principale. Ainsi : I1 = 1 , I2 =
 
1 0 ... 0
. 
0 .. 
! 
1 0  0 1
, . . . , In =  . .
 
0 1 .
 .. 0 .. 0 


0 ... 0 1

Exemple 3.4 Soient E = R2 et


pr1 : R2 −→ R2
(x, y ) 7−→ (x, 0).

ENSAM Casablanca
32 CHAPITRE 3. MATRICES

Figure 3.2

Considérons la base canonique B = {e1 , e2 } de R2 avec e1 = (1, 0!) et e2 = (0, 1). On a pr1 (e1 ) =
1 0
(1, 0) = e1 et pr1 (e2 ) = (0, 0) = 0e1 + 0e2 . Donc M(pr1 )B = .
0 0

−→ −→
Exemple 3.5 Soient E = R2 et f la symétrie par rapport à l’axe Ox parallèlement à l’axe Oy. Soit
B = {e1 , e2 } la base canonique de E.

Figure 3.3

!
1 0
On a f (e1 ) = e1 et f (e2 ) = −e2 . Donc M(f )B = .
0 −1

Exemple 3.6 Dans le plan R2 rapporté à la base canonique B = {e1 , e2 }, on considère la rotation de
centre O et d’angle θ. Comme le montre la Figure ci-dessous

ENSAM Casablanca
3.2. PRODUIT MATRICIEL 33

Figure 3.4

f (e1 ) = cos(θ )e1 + sin(θ )e2


f (e2 ) = − sin(θ )e1 + cos(θ )e2
!
cos(θ ) − sin(θ )
et donc M(f )B = .
sin(θ ) cos(θ )

Exemple 3.7 Soient B1 = {e1 , e2 } la base canonique de R2 et B2 = {e01 , e02 , e03 } la base canonique de
R3 . On considère l’application linéaire :

f: R3 −→ R2
(x, y, z ) 7−→ (x − y, z − y )

On a
f (e01 ) = f (1, 0, 0) = (1, 0) = e1
0
f (e2 ) = f (0, 1, 0) = (−1, −1) = −e1 − e2
f (e03 ) = f (0, 0, 1) = (0, 1) = e2
Donc !
1 −1 0
M (f )B2 ,B1 = .
0 −1 1

3.2 Produit matriciel


Définition 3.3 Soient A = (aij ) ∈ Mp,n (K) et B = (bjk ) ∈ Mn,q (K). On appelle produit de matrices,
l’application :
Mp,n (K) × Mn,q (K) −→ Mp,q (K)
(aij ) , (bjk ) 7−→ C = (cik )

ENSAM Casablanca
34 CHAPITRE 3. MATRICES
où n
X
cik = ai1 b1k + ai2 b2k + . . . + ain bnk = aij bjk .
j =1

En d’autres termes, l’élément cik de la iième ligne et k ième colonne du produit C = AB est la somme
des produits des éléments de la iième ligne de A par les éléments de même rang de la k ième colonne
de la matrice B. Brièvement, on dit que le produit de deux matrices s’effectue lignes par colonnes.
Voici le schéma de cette définition :

Figure 3.5

Remarque 3.4 Le produit AB ne peut s’effectuer que si le nombre des colonnes de A est égal au
nombre des lignes de B.
 
! 2 0 1 0
2 −1 1
Exemple 3.8 1. Soient A = et B =  1 1 2 2  . On a
 
1 0 2
1 2 1 0
 
! 2 0 1 0 !
2 −1 1 4 1 1 −2
AB =  1 1 2 2 =
 
.
1 0 2 4 4 3 0
1 2 1 0
     
2 3 ! 2 3 ! 11
1 1
2. Soient A = 
 4 1  et B =

. On a AB = 
 4 1 

=
 7 .

3 3
0 2 0 2 6
! !
2 −1 1 4 1
3. Soient A = et B = . Alors le produit AB n’est pas défini. Tandis que
1 0 2 0 2
BA l’est.
Remarque 3.5! 1. On peut avoir
! AB = 0 sans que A
! ou B soient nulles. Par exemple pour A =
0 0 0 0 0 0
et B = . On a AB = .
1 0 0 1 0 0

ENSAM Casablanca
Matrice d’un vecteur. Calcul de l’image d’un vecteur 35
2. AB = AC avec A , 0 n’implique pas nécessairement B = C (c’est-à-dire,! en général on ne peut
!
0 0 0 0
pas simplifier par A, même si A , 0). Par exemple pour A = et B = et
1 0 0 1
!
0 0
C= . On a AB = AC et pourtant B , C.
1 1
3. En général, on a AB , BA (c’est-à-dire
! : la multiplication
! entre matrices n’est pas commutative).
0 0 0 0
Par exemple pour A = et B = . On a AB , BA.
1 0 0 1

Proposition 3.4 1. La multiplication est associative, i.e.,

A(BC ) = (AB )C, ∀A ∈ Mp,n (K), B ∈ Mn,q (K), C ∈ Mq,m (K).

2. La multiplication est distributive à gauche par rapport à l’addition, i.e.,

A(B + C ) = AB + AC, ∀A ∈ Mp,n (K), ∀B, C ∈ Mn,q (K).

3. La multiplication est distributive à droite par rapport à l’addition, i.e.,

(A + C )B = AB + CB, ∀A, C ∈ Mp,q (K), ∀B ∈ Mq,n (K).

Remarque 3.6 Remarquons enfin que la multiplication est une loi interne sur l’ensemble Mn (K) des
matrices carrées d’ordre n, c’est-à-dire une application

Mn (K) × Mn (K) −→ Mn (K).

On vérifie immédiatement que la matrice In est l’élément neutre de la multiplication, i.e.,

∀A ∈ Mn (K), In A = AIn = A.

Donc les lois de somme et de produit confèrent à Mn (K) une structure d’anneau unitaire non com-
mutatif.

3.2.1 Matrice d’un vecteur. Calcul de l’image d’un vecteur


Définition 3.4 Soient E un espace vectoriel de dimension n et B = {e1 , . . . , en } une base de E et

x = x1 e1 + . . . + xn en

un vecteur de E. On appelle matrice de x dans la base B, la matrice colonne des composantes de x


dans la base B, i.e,  
x1
 . 
M (x)B =  .. 

xn
notée aussi M (x).

ENSAM Casablanca
36 CHAPITRE 3. MATRICES
Exemple 3.9 Dans R2 , on considère
! le vecteur x = 3e1 − e2 avec B = {e1 , e2 } est la base canonique
3
de R2 . Alors M (x)B = .
−1

Proposition 3.5 Soient E et F deux espaces vectoriels sur K et B1 = {e1 , . . . , en } et B2 = {e01 , . . . , e0p }
deux bases de E et F respectivement. Pour toute application f ∈ LK (E, F ) et pour tout x ∈ E, on
a:
M (f (x))B2 = M (f )B1 ,B2 M (x)B1 ,
ou plus brièvement
M (f (x)) = M (f )M (x).
 
a11 . . . a1n
 . .. 
Démonstration : On a M (f )B1 ,B2 =  ..

 , ce qui veut dire que :
. 
ap1 . . . apn
p
a1i e1 + . . . + api e0p
0
aki e0k .
X
f ( ei ) = =
k =1

On a
n n p p n
! p
aki e0k e0k yk e0k .
X X X X X X
f (x) = f (x1 e1 + . . . + xn en ) = xi f (ei ) = xi = aki xi =
i=1 i=1 k =1 k =1 i=1 k =1
| {z }
yk

Donc  
y1 n
 .  X
M (f (x))B2 = .
 . 
 avec y =
k aki xi . (3.1)
yp i = 1

D’autre part
 n
X

  a1i xi   
a11 . . . a1n x1 y1
 
 i=1 
 . ..   .  
..
  . 
M (f )B1 ,B2 M (x)B1  ..
=   ..  =  =  .. 
. (3.2)
 
.   
.  
n
 
ap1 . . . apn xn  X  yp
api xi
 
i=1

Il s’ensuit de (3.1) et (3.2) que

M (f )B1 ,B2 M (x)B1 = M (f (x))B2 .

Exemple 3.10 Soit le plan R2 rapporté à sa base canonique. Déterminer l’image du vecteur x = (3, 2)
π
par la rotation de centre O et d’angle .
6

ENSAM Casablanca
Produit matriciel. Matrice de l’inverse d’une application 37

Figure 3.6

On a
 √   √ 
3−2
cos( π6 ) − sin( π6 ) 3 3
! !
1
!
3 2 −
√2 
3 2√  .
M (f (x)) = M (f ).M (x) = = =
sin( π6 ) cos( π6 )

2 1 3 2 3+2 3
2 2 2

3.2.2 Produit matriciel. Matrice de l’inverse d’une application


Proposition 3.6 Soient E, F et G trois espaces vectoriels de dimension finie sur le même corps K, et
soient B1 = {e1 , . . . , en }, B2 = {e01 , . . . , e0p } et B3 = {e001 , . . . , e00q } des bases de E, F et G respective-
ment. Si g ∈ L(E, F ) et f ∈ L(F , G). On a

M (f ◦ g )B1 ,B3 = M (f )B2 ,B3 M (g )B1 ,B2 ,

ou, plus brièvement


M (f ◦ g ) = M (f )M (g ).

Démonstration : Soit x ∈ E arbitraire. En utilisant le résultat de la Proposition 3.5, on a


     
M (f ◦ g )M (x) = M (f ◦ g )(x) = M f (g (x)) = M (f )M g (x) = M (f )M (g )M (x).

Puisque x est arbitraire, donc


M (f ◦ g ) = M (f )M (g ).

Définition 3.5 Une matrice carrée A ∈ Mn (K) est dite inversible, s’il existe une matrice A0 ∈ Mn (K)
telle que
AA0 = A0 A = In .
La matrice A0 est dite inverse de A et est notée A−1 .
! !
1 2 3 −2
Exemple 3.11 La matrice A = est inversible et son inverse est A−1 = , comme
1 3 −1 1
on le vérifie immédiatement en effectuant les produits AA−1 et A−1 A.

Remarque 3.7 1. Il existe des matrices non inversibles, par exemple la matrice nulle. Mais la
matrice nulle n’est pas la seule matrice non inversible.

ENSAM Casablanca
38 CHAPITRE 3. MATRICES
! !
1 0 x y
2. Considérons par exemple la matrice A = . S’il existait une matrice A0 = telle
0 0 z t
! ! ! ! !
1 0 x y 1 0 x y 1 0
que AA0 = I2 , on aurait = c’est-à-dire = ce
0 0 z t 0 1 0 0 0 1
qui évidemment impossible.

En fait, les matrices inversibles sont les matrices qui représentent les applications linéaires bijectives.
On a en effet :
Proposition 3.7 Soient E et F deux espaces vectoriels de dimension n sur le même corps K et soient
B1 = {e1 , . . . , en } une base de E et B2 = {e01 , . . . , e0n } une base de F . Une application linéaire
f : E −→ F est bijective (c’est-à-dire est un isomorphisme) si et seulement si M (f )B1 ,B2 est inversible.
De plus, on a
 −1
M (f )B1 ,B2 = M (f −1 )B2 ,B1 ,
ou, d’une manière plus concise
M (f −1 ) = M (f )−1 .
Démonstration : On a f −1 ◦ f = idE ; d’où M (f −1 ◦ f )B1 ,B1 = M (idE )B1 ,B1 . Donc, d’après la Propo-
sition 3.6, on a
M (f −1 )B2 ,B1 M (f )B1 ,B2 = In .
De même, on voit que
M (f )B1 ,B2 M (f −1 )B2 ,B1 = In .

3.2.3 Calcul de l’inverse d’une matrice


Il existe différentes méthodes pour calculer l’inverse d’une matrice, sur lesquelles nous reviendrons.
Pour le moment, on peut retenir la suivante qui est d’ailleurs d’un usage courant.

Soient A ∈ Mn (K), x et x0 ∈ Kn et X, X 0 les matrices colonnes qui représentent x et x0 dans la


base canonique de Kn . Considérons l’équation matricielle :
X 0 = AX. (3.3)
Si A est inversible, en multipliant les deux membres à gauche par A−1 , on obtient
A−1 X 0 = (A−1 A)X,
c’est-à-dire X = A−1 X 0 . Donc A−1 est la matrice du système obtenu en résolvant le système (3.3) en
les composantes xi de x.
!
1 2
Exemple 3.12 Calculer l’inverse de la matrice A = .
1 3
x01 x01
! ! ! ! !
x1 1 2 x1
Écrivons l’équation matricielle (3.3) avec X = et X 0 = . On a =
x2 x02 x02 1 3 x2
ce qui est équivalent au système
x01 = x1 + 2x2
(

x02 = x1 + 3x2 .

ENSAM Casablanca
3.3. CHANGEMENT DE BASE 39
En résolvant en x1 et x2 , on trouve
x1 = 3x01 − 2x02
(

x2 = −x01 + x02 ,
c’est-à-dire !
3 −2
X= X 0.
−1 1
!
3 −2
Donc A−1 = .
−1 1
Proposition 3.8 Soient A, B ∈ Mn (K) deux matrices inversibles. Alors
(AB )−1 = B −1 A−1 .
Démonstration : On a
ABB −1 A−1 = A(BB −1 )A−1 = AIn A−1 = AA−1 = In
et
B −1 A−1 AB = B −1 (A−1 A)B = B −1 In B = B −1 B = In .
Donc (AB )−1 = B −1 A−1 .
Définition 3.6 L’ensemble des matrices inversibles de Mn (K) est noté GL(n, K) et est dit groupe
linéaire.

3.3 Changement de base


La matrice qui représente une application linéaire a été construite à l’aide d’un choix des bases
dans l’espace de départ et dans l’espace d’arrivée. Dans ce paragraphe, nous allons voir comment relier
deux matrices qui représentent la même application linéaire en des bases différentes.

3.3.1 Matrice de passage


Soient E un espace vectoriel de dimension n et B1 = {e1 , . . . , en } et B2 = {e01 , . . . , e0n } deux bases
de E. Les vecteurs e0i s’écrivent comme combinaisons linéaires des vecteurs ei :
e01 = p11 e1 + p21 e2 + . . . + pn1 en
e02 = p12 e1 + p22 e2 + . . . + pn2 en
... ...........................
e0n = p1n e1 + p2n e2 + . . . + pnn en .
Définition 3.7 On appelle matrice de passage de la base B1 = {e1 , . . . , en } à la base B2 = {e01 , . . . , e0n },
la matrice notée PB1 →B2 et est définie par
 
p11 p12 . . . p1n

 p21 p22 . . . p2n 

PB1 →B2 = M(idE )B2 ,B1 =  .. .. .. .
. . .
 
 
pn1 pn2 . . . pnn
On a, bien entendu PB1 →B2 = M (idE )B1 ,B2 et PB2 →B1 = M (idE )B2 ,B1 .

ENSAM Casablanca
40 CHAPITRE 3. MATRICES
Exemple 3.13 L’ensemble R2 muni de sa base canonique B1 = {e1 , e2 }. On pose e01 = 2e1 + 5e2 et
e02 = e1 + 7e2 . La matrice de passage de la base canonique B1 à la nouvelle base B2 = {e01 , e02 } est
donnée par !
2 1
PB1 →B2 = .
5 7

Proposition 3.9 1. Propriété transitivité :

PB1 →B2 PB2 →B3 = PB1 →B3 .

2. Les matrices de passage sont inversibles, et de plus, on a

PB−11→B2 = PB2 →B1 .

Exemple 3.14 L’ensemble R2 muni de sa base canonique B1 = {e1 , e2 }. On pose e01 = 2e1 + 5e2 et
e02 = e1 + 7e2 et v1 = 2e01 − e02 et v2 = e01 + e02 . La matrice de passage de la base canonique B1 à la base
B2 = {e01 , e02 } est donnée par : !
2 1
PB1 →B2 =
5 7
et la matrice de passage de la base B2 à la base B3 = {v1 , v2 } est donnée par :
!
2 1
PB2 →B3 = .
−1 1

La matrice de passage de la base B1 à la base B3 = {v1 , v2 } est alors donnée par :


! ! !
2 1 2 1 3 3
PB1 →B3 = PB1 →B2 PB2 →B3 = = .
5 7 −1 1 3 12

3.3.2 Action du changement de base sur les composantes d’un vecteur


Proposition 3.10 Soient x ∈ E, B1 = {e1 , . . . , en } et B2 = {e01 , . . . , e0n } deux bases de l’espace vectoriel
E et soient P = PB1 →B2 ; X = M (x)B1 et X 0 = M (x)B2 . Alors

X 0 = P −1 X.

Démonstration. Soit x ∈ E de composantes (x1 , . . . , xn ) dans la base B1 = {e1 , . . . , en } et de compo-


santes (x01 , . . . , x0n ) dans la base B2 = {e01 , . . . , e0n }. Il est facile de déterminer les relations entre les xi
et x0i à l’aide de la matrice de passage PB1 →B2 . Notons

x01
   
x1
 .  0 .. 
.

X := 
 .  = M (x)
 B1
et X : = 
 .  = M (x)B2 et P = PB1 →B2 .
xn xn 0

On a
P X 0 = M (idE )B2 ,B1 × M (x)B2 = M (idE (x))B1 = M (x)B1 = X,
c’est-à-dire P X 0 = X, d’où X 0 = P −1 X.

ENSAM Casablanca
Action du changement de base sur la représentation matricielle 41
Exemple 3.15 Soit R2 muni de deux bases : la base canonique B1 = {e1 , e2 } et la base B2 = {e01 , e02 }
définie par
e01 = 2e1 + e2
(3.4)
e02 = 3e1 + 2e2 .
!
2 3
Soit x = 2e1 + 3e2 . Pour calculer les composantes de x dans la base {e0 , e0 }.
1 2 On a P = et
1 2
! !
2 −3 2
P −1 = et X = . Donc
−1 2 3
! ! !
0 −1 2 −3 2 −5
X =P X= = .
−1 2 3 4

Donc x = −5e01 + 4e02 .

3.3.3 Action du changement de base sur la représentation matricielle


Proposition 3.11 Soient f ∈ L(E, F ), B1 = {e1 , . . . , en } et B2 = {e01 , . . . , e0n } deux bases de E et
B3 = {v1 , . . . , vp } et B4 = {v10 , . . . , vp0 } deux bases de F . Notons

A = M (f )B1 ,B3 ; A0 = M (f )B2 ,B4 ; P = PB1 →B2 et Q = PB3 →B4 .

Alors, on a
A0 = Q−1 AP .

Démonstration : Soit x ∈ E un vecteur arbitraire. On a


   
M f (x) = Q−1 M f (x) = Q−1 M (f )B1 ,B3 M (x)B1 = Q−1 AX (3.5)
B4 B3

où on a posé X = M (x)B1 . D’autre part, si X 0 = M (x)B2 , on aurait :


 
M f (x) = M (f )B2 ,B4 M (x)B3 = A0 X 0 = A0 P −1 X. (3.6)
B4

On déduit via (3.5) et (3.6) que


A0 P −1 X = Q−1 AX.
Comme x est arbitraire, cela implique que

A0 P −1 = Q−1 A.

D’où
A0 = Q−1 AP .

Corollaire 3.1 Soit f ∈ L(E ) et B1 = {e1 , . . . , en } et B2 = {e01 , . . . , e0n } deux bases de E. Notons
A = M (f )B1 , A0 = M (f )B2 et P = PB1 →B2 . Alors, on a

A0 = P −1 AP .

ENSAM Casablanca
42 CHAPITRE 3. MATRICES
Définition 3.8 Deux matrices A, A0 ∈ Mn (K) sont dites semblables, s’il existe une matrice inversible
P ∈ Mn (K) telle que
A0 = P −1 AP .

Remarque 3.8 Il est clair que deux matrices semblables représentent le même endomorphisme en des
bases différentes.

Exemple 3.16 Soit f l’endomorphisme de R3 est représenté dans la base canonique B1 = {e1 , e2 , e3 }
par la matrice  
3 −1 1
A = M (f )B1 =  0 2 0 .
 

1 −1 3
Déterminer la matrice A0 qui représente f dans la base {e01 , e02 , e03 }, où

e01 = (1, 0, −1) = e1 − e3





e02 = (0, 1, 1) = e2 + e3
 0

e3 = (1, 0, 1) = e1 + e3 .
 
1 0 1
0 −1
On a A = P AP avec P =  0 1 0  . Alors P −1 = PB2 →B1 . Il s’agit donc d’exprimer e1 , e2 et

−1 1 1
e3 dans la base {e01 , e02 , e03 }. Or
e01 = e1 − e3



e0 = e2 + e3
 02

e3 = e1 + e3 .
En résolvant en e1 , e2 et e3 , on obtient

1
e1 = (e01 + e03 )



2



 1
e2 = (e01 + 2e02 − e03 )

 2

1
= (−e01 + e03 ).

e3



2
   
1 1 −1 2 0 0
1
Donc P −1 =  0 2 0  . En effectuant le produit A0 = P −1 AP , on trouve A0 =  0 2 0  .
  
2
1 −1 1 0 0 4

Remarque 3.9 Puisque A0 = M (f )B2 , ceci veut dire que f (e01 ) = 2e01 , f (e02 ) = 2e02 et f (e03 ) = 4e03 .
Comme d’ailleurs on le vérifie directement. On a, en effet

f (e01 ) = f (e1 − e3 ) = f (e1 ) − f (e3 ).

Or f (e1 ) = 3e1 + e3 de même f (e3 ) = e1 + 3e3 . Donc f (e01 ) = 2e1 − 2e3 = 2e01 , etc.

ENSAM Casablanca
Chapitre 4

Déterminants

Comme nous l’avons déjà fait remarquer, la notion de dépendance ou indépendance linéaire inter-
vient, d’une manière ou d’une autre, dans les différents problèmes d’algèbre linèaire. Jusqu’à présent,
la seule méthode que nous avons vue pour savoir si un système de vecteurs est libre, est celle qui
consiste à étudier un système d’équations linéaires par élimination.

Le principal intérêt des déterminants est de fournir des conditions explicites d’indépendance li-
néaire, en quelque sorte des formules qui permettent de savoir si une famille de vecteurs est libre ou
non et aussi la résolution des systèmes linéaires.

4.1 Définition des déterminants par récurrence


Définition 4.1 Soit A = (aij ) ∈ Mn (K). On définit, par récurrence, une application :

det : Mn (K) −→ K
A 7−→ det(A)

de la manière suivante :
 
1. Si n = 1, c’est-à-dire si A = a , on pose det(A) = a.

2. Si n > 1, notons Aij la matrice obtenue de A en supprimant la ième ligne et la j ème colonne
(c’est-à-dire la ligne et la colonne qui passent par l’élément aij . On pose alors (puisque Aij ∈
Mn−1 (K)) :

det(A) = a11 (−1)1+1 det(A11 ) + . . . + a1k (−1)1+k det(A1k ) + . . . + a1n (−1)1+n det(A1n ).
 
a11 . . . a1n
 . .. 
Le scalaire det(A) est dit déterminant de A et le déterminant de la matrice  ..

 est
. 

an1 . . . ann
a
11 . . . a1n

noté, habituellement par ... .. .



.
an1 . . . ann

43
44 CHAPITRE 4. DÉTERMINANTS
Exemple 4.1 On a

4 −2

3
= 4 × (−1)1+1 × 5 + (−2) × (−1)1+2 × 3 = 20 + 6 = 26.
5


a c
Plus généralement = ad − bc.

b d

Exemple 4.2 On a

1 −2 3

1+1
1 −1 2
1+2 −1 2
1+3 1
2

1 −1
= 1 × ( −1 ) + (−2) × (−1) + 3 × (−1)

5 1 1 1 1 5


1 5 1
= (1 + 5) + 2(2 + 1) + 3(10 − 1) = 39.
Exemple 4.3 On a
−1

2 0 1
0 −2 8 1 −2 8
1 0 −2 8
1+1

= 2 × (−1) 3 5 2 + ( −1 ) × ( −1 ) 1 + 2 3 5 2

3 3 5 2

4 4 −5 −2 4 −5


−2 4 4 −5


1 0 8 1
0 −2
+0 × (−1)1+3 3 3 2 + 1 × ( −1 ) 1 + 4 3 3 5

− − −2 4 4


2 4 5
!
2 5 2 3 3 2 4 3 5

= 2 0 × (−1) + (−2) × (−1) + 8 × ( −1 )
4 −5 4 −5
4 4 !



5 2 3 2 3 5

+ 1 × ( −1 ) 2 + (−2) × (−1)3 + 8 × ( −1 ) 4

4 −5 −2 −5 −2
4



3 5 3 5 3 3 
− 1 × (−1)2 + 0 × ( −1 ) 3 + (−2) × (−1)4

4 4 −2 4 −2 4


h i h i
= 2 2(−15 − 8) + 8(12 − 20) + (−25 − 8) + 2(−15 + 4) + 8(12 + 10)
h i
− (12 − 20) − 2(12 + 6)
= −55.
Remarque 4.1 Il est clair que det(In ) = 1, det(0n ) = 0, ∀n ∈ N∗ .
La propriété fondamentale des déterminants est exprimée par le théorème suivant :
Théorème

4.1 Le déterminant est 
une application linéaire, par rapport à chaque, colonne, c’est-à-dire :
a11 . . . a1k . . . a1n
 a21 . . . a2k . . . a2n 
 
si A =  .. ..  , alors, ∀λ ∈ K, ∀k = 1, . . . , n, on a :
.. 

 . . . 
an1 . . . ank . . . ann


a11 . . . λa1k . . . a1n


a11 . . . a1k . . . a1n


a21 . . . λa2k . . . a2n


a21 . . . a2k . . . a2n

1. .. .. .. = λ .. .. .. .
. . . . . .



an1 . . . λank . . . a1n an1 . . . ank . . . ann

ENSAM Casablanca
4.1. DÉFINITION DES DÉTERMINANTS PAR RÉCURRENCE 45


a11 ... a1k ... a1n

a21 ... a2k ... a2n

a11 . . . a1k . . . a1n

.. .. ..
a21 . . . a2k . . . a2n

. . .


2. = λ .. .. .. .

λaj 1 . . . λajk . . . λajn
. . .


.. .. ..
an1 . . . ank . . . a1n


. . .



an1 . . . ank . . . ann


a11 . . . a1k + b1k . . . a1n a11 . . . a1k . . . a1n
a11 . . . b1k . . . a1n


a21 . . . a2k + b1k . . . a2n a21 . . . a2k . . . a2n
a21 . . . b1k . . . a2n

3. .. .. .. = .. .. .. + .. ... .. .
. . . . . . . .



an1 . . . ank + bnk . . . ann an1 . . . ank . . . ann an1 . . . bnk . . . ann
4.
a11 ... a1k ... a1n a11 . . . a1k . . . a1n


.. .. .. .. .. ..



. . .
.

. .


aj 1 + bj 1 . . . ajk + bjk . . . ajn + bjn = aj 1 . . . ajk . . . ajn





.. .. ..
..

.. ..
. . . . . .



an1 ... ank ... a nn
an1 . . . ank . . . ann

a11 . . . a1k . . . a1n




.. .. ..



. . .

+ bj 1 . . . bjk . . . bjn

.. .. ..
. . .



an1 . . . ank . . . ann

Remarque 4.2 Soient A ∈ Mn (K) et λ ∈ K. On a det(λA) = λn det(A).


Proposition 4.1 Si l’on échange entre elles deux colonnes ou deux lignes, le déterminant change de
signe.

1 2 2 1
Exemple 4.4 On a = − .

3 8 8 3




0 0 0 1 0

1 0 0 0 0


Exemple 4.5 Calculer ∆ =

0 0 0 0 1 .


0 1 0 0 0


0 0 1 0 0
On a
∆ = det(e2 , e4 , e5 , e1 , e3 ) = − det(e1 , e4 , e5 , e2 , e3 )
= det (e1 , e2 , e5 , e4 , e3 ) = − det(e1 , e2 , e3 , e4 , e5 )

1 0 0 0 0

0 1 0 0 0



= − 0 0 1 0 0
= − det(I5 )

0 0 0 1 0


0 0 0 0 1
= −1.

ENSAM Casablanca
46 CHAPITRE 4. DÉTERMINANTS
Ces remarques permettent de démontrer le théorème principal, celui qui motive l’introduction de la
notion de déterminant.

Théorème 4.2 Soit A = (C1 , . . . , Cn ) ∈ Mn (K). Alors les vecteurs colonnes C1 , . . . , Cn de la matrice
A forment une base de Kn si et seulement si det(A) , 0.
     
2 3 −2
Exemple 4.6 Soient v1 =  0  ; v2 =  1  et v3 =  2  trois vecteurs de R3 . Montrons que
     

−1 2 −3
 
2 3 −2
la famille {v1 , v2 , v3 } forme une base de R . On pose A =  0
3 
1 2  . On a det(A) = −22 , 0.

−1 2 −3
Alors la famille {v1 , v2 , v3 } est une base de R3 .

4.1.1 Transposée d’une matrice


Définition 4.2 On appelle transposée d’une matrice A ∈ Mp,n (K) et de terme général, aij la matrice
notée t A ∈ Mn,p (K) obtenue en échangeant les lignes et les colonnes de même indice i de A i.e.,

A = (aij ) ⇔ t A = (aji ).
 
! 1 3
1 0 −2 t
Exemple 4.7 Soit A = . Alors A =  0 4  .
 
3 4 6
−2 6

Proposition 4.2 Soient A, B ∈ Mp,n (K) et α ∈ K. On a


1. t ( t A) = A.
2. t (αA) = α t A.
3. t (A + B ) = t A + t B.
 
! 1 3
1 0 −2 t
Exemple 4.8 Soit A = . Alors A =  0 4  . De plus
 
3 4 6
−2 6
!
t t 1 0 −2
( A) = = A.
3 4 6

Proposition 4.3 Soient A ∈ Mp,n (K) et B ∈ Mn,q (K). On a


t
(AB ) = t B t A.

Définition 4.3 Soit A ∈ Mn (K).


1. On dit que A est symétrique si t A = A.
2. On dit que A est antisymétrique si t A = −A.

ENSAM Casablanca
Transposée d’une matrice 47
!
2 1
Exemple 4.9 1. Soit A = = t A. Donc A est une matrice symétrique.
1 3
 
0 1 −2
2. Soit A =  −1 0 3  . Il est clair que t A = −A. Donc A est une matrice antisymétrique.
 

2 −3 0

Remarque 4.3 Ou, d’une manière équivalente, (en prenant la contraposée) : Un déterminant est nul
si et seulement si l’une des colonnes est combinaison linéaire des autres colonnes.

Théorème 4.3 Pour toute matrice A ∈ Mn (K), on a :

det( t A) = det(A).

!
1 −2 1 −2 t A)
1 3
Exemple 4.10 Soit A = . On a det(A) = = 11 et det( = = 11.

3 5 3 5 −2 5


Donc det(A) = det( t A).

Théorème 4.4 1. Le déterminant est une fonction multilinéaire de chaque ligne.


2. Si une matrice a deux lignes égales, le déterminant est nul.
3. Si l’on échange entre elles deux lignes, le déterminant change de signe.
4. Le déterminant d’une matrice est non nul si et seulement si les vecteurs lignes sont indépendants,
ou (d’une manière équivalente) : un déterminant est nul si et seulement si l’une des lignes est
une combinaison linéaire des autres lignes.

Exercice 4.1 Soit A une matrice antisymétrique d’ordre impair. Montrer que det(A) = 0.

 
a11 . . . a1n
 . .. 
Solution. La matrice A =  ..

 est antisymétrique, alors
. 
an1 . . . ann
 
−1 × a11 . . . −1 × a1n
t 
A = −A =  .. .. 
.

. . 
−1 × an1 . . . −1 × ann

De plus, det(A) = det( t A) = det(−A) = (−1)n det(A), où n est l’ordre de la matrice A. Comme n
est impair, alors
det(A) == (−1)n det(A) = − det(A).

On en déduit que det(A) = 0. r


3

ENSAM Casablanca
48 CHAPITRE 4. DÉTERMINANTS

4.2 Calcul des déterminants


Nous avons déjà calculé le déterminant par le développement selon la 1ère ligne. Compte tenu du
fait que si l’on échange entre elles des lignes le déterminant est le même au signe près.
 
a11 . . . a1n
 . .. 
 ..
Définition 4.4 Soit A =  .  ∈ Mn (K). On appelle cofacteur de l’élément aij le sca-
an1 . . . ann
laire :
cof (aij ) := (−1)i+j det(Aij )

où Aij est la matrice obtenue en supprimant la ième ligne et la j ème colonne.


 
1 0 −3
Exemple 4.11 Soit A =  2 4 −2  .
 


5 −1 3
4 −2 2 −2 2 4
Alors cof (1) = + = 10; cof (0) = − = 10 et cof (−3) = + = −22.

−1 3 5 3 5 −1

Remarque 4.4 Le signe (−1)i+j dans la définition de cofacteur est déterminé par le schéma suivant
(schéma en damier) :
+ − + − +
 
...
 − + − + − ...
 

 + − + − + ...
 

 .
 − + − + − ... 
 
 + − + − + ...
 

... ... ... ... ... ...

Théorème 4.5 On a les formules suivantes


1. Développement du déterminant selon la j ème ligne :

det(A) = aj 1 cof (aj 1 ) + aj 2 cof (aj 2 ) + . . . + ajn cof (ajn ).

2. Développement du déterminant selon la j ème colonne :

det(A) = a1j cof (a1j ) + a2j cof (a2j ) + . . . + anj cof (anj ).
 
1 −2 3
Exemple 4.12 Soit A =  2 1 0  .
 

1 −1 2

1. Développons A selon la 3ème ligne :



−2 3 1 3 1 −2
det(A) = 1 − (−1) +2 = −3 − 6 + 10 = 1.

1 0 2 0 2 1

ENSAM Casablanca
4.2. CALCUL DES DÉTERMINANTS 49
2. Développons A selon la 3ème colonne :

2 1 1 −2
det(A) = 3 +2 = −9 + 10 = 1.

1 −1 2 1

Le calcul d’un déterminant ne présente pas de difficultés, mais il peut être très long. On utilise pour
cela la propriété suivante :

Proposition 4.4 Le déterminant ne change pas si à une ligne (respect, à une colonne) on ajoute
une combinaison linéaire des autres lignes (respect, des autres colonnes). Autrement dit pour toute
matrice A ∈ Mn (K) ayant les colonnes C1 , C2 , . . . , Cn et des lignes L1 , L2 , . . . , Ln . On note A0 la
matrice obtenue par une des opérations élémentaires sur les colonnes et sur les lignes, qui sont :
1. Ci ← Ci + λCj avec λ ∈ K (i , j) et la matrice A0 est obtenue en ajoutant à une colonne de A
un multiple d’une autre colonne de A. Alors det(A0 ) = det(A).
2. Ci ↔ Ci + λCj et la matrice A0 est obtenue en échangeant deux colonnes distinctes de A. Alors
det(A0 ) = − det(A).
3. Li ← λLi avec λ , 0. Alors le déterminant est multiplié par λ.
4. Li ← Li + λLj avec λ ∈ K (i , j). Alors le déterminant ne change pas.
5. Li ↔ Li + λLj . Alors le déterminant change de signe.

Remarque 4.5 La méthode pratique pour le calcul des déterminants consiste à utiliser la propriété
ci-dessus de manière à faire paraître le plus possible de zéros sur les lignes ou sur les colonnes.


1 −2 1 3 4

1 −1 0 2 4


Exemple 4.13 Calculer ∆ =

2 1 3 1 2 .


−1 0 1 1 3

1 −1

0 1 3
En utilisant les opérations élémentaires suivantes : L2 ← L2 − L1 ; L3 ← L3 − 2L1 et L4 ← L4 + L1 ,
on obtient
1 −2 1 3 4

0 1 −1 −1 0

∆ = 0 5

1 −5 −6 .
0 −2 2 4 7

1 −1 1

0 3

ENSAM Casablanca
50 CHAPITRE 4. DÉTERMINANTS
En développant selon la première colonne :
−1 −1 0

1

5 1 −5 −6
∆=
.

−2 2 4 7


1 −1 1 3

En utilisant les opérations élémentaires suivantes : C2 ← C2 + C1 et C3 ← C3 + C1 , on obtient



1 0 0 0

5 6 0 −6
∆= .

−2 0 2 7



1 0 2 3

En développant selon la première ligne :



6 0
−6
2 7


∆= 0 2 7 = 6 = 6(6 − 14) = −48.

2 3


0 2 3

4.2.1 Déterminant du produit de matrices


Théorème 4.6 Pour toutes matrices A, B ∈ Mn (K), on a

det(AB ) = det(A) det(B ).

Corollaire 4.1 Soit A ∈ Mn (K) est inversible si et seulement si det(A) , 0 et l’on a alors
1
det(A−1 ) = .
det(A)

Démonstration : Supposons que A est inversible. Il existe alors A−1 ∈ Mn (K) telle que AA−1 = In ;
d’où det(AA−1 ) = det(In ) = 1 et par conséquent

det(A) det(A−1 ) = 1.
1
Donc det(A) , 0 et det(A−1 ) = .
det(A)
Réciproquement, soit A = (C1 , C2 , . . . , Cn ) et supposons que det(A) , 0. Les vecteurs colonnes de

ENSAM Casablanca
4.3. CALCUL DE L’INVERSE D’UNE MATRICE 51
la matrice A forment donc une base de Kn et A est la matrice de passage de la base canonique B1
à la base B2 = {C1 , C2 , . . . , Cn } telle que A = PB1 →B2 . Or, on sait que les matrices de passage sont
inversibles, donc A est inversible. r 3

Corollaire 4.2 Soient A et A0 sont deux matrices semblables. Alors det(A) = det(A0 ).

Démonstration : En effet, puisque A0 = P −1 AP , on a

det(A) det(P )
det(A0 ) = det(P −1 AP ) = det(P −1 ) det(A) det(P ) = = det(A).
det(P )

4.3 Calcul de l’inverse d’une matrice


Définition 4.5 La comatrice d’une matrice A ∈ Mn (K) est la matrice obtenue de A en remplaçant
chaque élément par son cofacteur et est notée com(A). La comatrice est aussi appelée matrice des
cofacteurs et est notée cof (A).
! !
1 2 3 −4
Exemple 4.14 Soit A = . On a cof (A) = .
4 3 −2 1

Théorème 4.7 Soit A ∈ Mn (K). Alors, si A est inversible (c’est-à-dire det(A) , 0), on a
t cof (A)
−1
A = . (4.1)
det(A)

Définition 4.6 La comatrice d’une matrice carrée A est une matrice introduite par une généralisa-
tion du calcul de l’inverse de A. Elle a une importance considérable pour l’étude des déterminants.
Ses éléments sont appelés cofacteurs de A, et ils permettent d’étudier les variations de la fonction
déterminant. La comatrice est aussi appelée matrice des cofacteurs.

Définition 4.7 La transposée de la matrice des cofacteurs des éléments aij de A, notée par adj(A),
est appelée adjointe classique de A.
!
1 2
Exemple 4.15 Soit A = . On a det(A) = 5 , 0, donc A est inversible. On a cof (3) = 1,
−1 3
!
3 1
cof (−1) = −2, cof (2) = 1, cof (1) = 3. Donc cof (A) = et
−2 1

t cof (A)
!
−1 1 3 −2
A = = .
det(A) 5 1 1
! !
a b 1 d −b
Plus généralement, si A = , ad − bc , 0, on a A−1 = .
c d ad − bc −c a

ENSAM Casablanca
52 CHAPITRE 4. DÉTERMINANTS
 
1 2 0
Exemple 4.16 Soit A = 
 −1 3 0 
 , on a det(A) = −3 − 2 = −5 , 0, donc A est inversible. Les
0 1 −1
cofacteurs des coefficients de la première ligne sont

3 1 −1 0 −1 3
cof (1) = = −3, cof (2) = − = −1, cof (0) = = −1.

0 −1 0 −1 0 1

Après calcul des autres cofacteurs, on trouve


 
−3 2 0
1
A−1 = −  −1 −1 0 
.
5
−1 −1 5

4.4 Application des déterminants à la théorie du rang


La principale application des déterminants concerne la théorie du rang.

4.4.1 Caractérisation des bases


Nous avons déjà vu le théorème fondamental qui affirme que les vecteurs {v1 , . . . , vn } de Kn forment
une base si et seulement si
det(v1 , . . . , vn ) , 0.
Ce résultat s’étend immédiatement à un espace vectoriel quelconque E de dimension finie. En effet,
le choix d’une base {e1 , . . . , en } de E permet d’identifier E à Kn par l’isomorphisme.

φ: E −→ Kn
x = x1 e1 + . . . + xn en 7−→ (x1 , . . . , xn ).

Puisque φ est un isomorphisme, les vecteurs v1 , . . . , vn forment une base de E si et seulement si les
vecteurs φ(v1 ), . . . , φ(vn ), c’est-à-dire les composantes des vecteurs vi , forment une base de Kn et plus
généralement :
rg{v1 , . . . , vn } = rg{φ(v1 ), . . . , φ(vn )}.

Théorème 4.8 Soit E un espace vectoriel de dimension n. Les vecteurs {v1 , . . . , vn } de E forment une
base si et seulement si
det(v1 , . . . , vn ) , 0,
où (v1 , . . . , vn ) désigne la matrice dont les colonnes sont les composantes des vecteurs v1 , . . . , vn dans
une base B = {e1 , . . . , en } (quelconque) de E.
! !
1 −4
Exemple 4.17 Soient v1 = et v2 = .
2 6
Montrons que la famille!{v1 , v2 } est une base de R2 .
1 −4
On pose A = . On a det(A) = 14 , 0. Donc la famille {v1 , v2 } est une base de R2 .
2 6

ENSAM Casablanca
Comment reconnaître si une famille de vecteurs est libre 53
4.4.2 Comment reconnaître si une famille de vecteurs est libre
Définition 4.8 On appelle mineur d’ordre r d’une matrice A le déterminant d’une matrice d’ordre r
extraite de A obtenue en choisissant r lignes et r colonnes.

Exemple 4.18 Par exemple, en choisissant la 2ème et 3ème ligne et la 2ème et 4ème colonne dans la
matrice suivante  
1 2 7 3 2
3 4
 
 0 5 1 
 
 2
 1 3 6 1 

2 1 −1 3 2

3 4
on obtient le mineur δ = = 14.

1 6

Théorème 4.9 Soient {v1 , . . . , vr } une famille de r vecteurs d’un espace vectoriel E de dimension n
(r ≤ n) et A = (v1 , . . . , vr ) la matrice dont les colonnes sont les composantes des vecteurs v1 , . . . , vr
dans une base quelconque de E. La famille {v1 , . . . , vr } est libre si et seulement si on peut extraire de
A un mineur d’ordre r non nul.
     
1 0 1
2 1 5
     
     
     
Exemple 4.19 Les vecteurs v1 = 
 3 ,
 v2 = 
 2 
 et v3 = 
 9 
 forment une famille libre de

 3 


 4 


 −2 

5 0 0
R5 , car dans la matrice  
1 0 1
2 1 5
 
 
 
A= 
 3 2 9 ,


 3 4 −2 

5 0 0
par exemple le mineur
3 2 9

δ= 3 4

−2


5 0 0

est non nul.

4.4.3 Comment reconnaître si un vecteur appartient à l’espace engendré par


d’autres vecteurs
Définition 4.9 Soit A une matrice et δ un mineur d’ordre r extrait de A. On appelle bordant de δ,
tout mineur d’ordre r + 1 extrait de A, dont δ est un déterminant extrait.

Exemple 4.20 Soit la matrice

ENSAM Casablanca
54 CHAPITRE 4. DÉTERMINANTS


1 2
et δ =
= 1. Les bordants de δ sont :
1 3

Théorème 4.10 Soient {v1 , . . . , vr } une famille de r vecteurs linéairement indépendants, A = (v1 , . . . , vr )
la matrice dont les colonnes sont les composantes de ces vecteurs dans une base quelconque, et δ un
mineur d’ordre r non nul extrait de A. Pour qu’un vecteur w appartient à l’espace Vect{v1 , . . . , vr },
il faut et il suffit que tous les bordants de δ dans la matrice

B = (v1 , . . . , vr , w )

soient nuls.

α
 
 2 
Exercice 4.2 Pour quelles valeurs de α, β ∈ R, le vecteur w =   appartient-il sous-espace

 1 

β
   
1 0
 0   1 
vectoriel de R4 engendré par les vecteurs v1 = et v2 = ?
   
 1   0 
   

0 1

ENSAM Casablanca
Détermination du rang 55
Solution. On a

Les bordants de δ sont

Donc w ∈ Vect{v1 , v2 } si et seulement si α = 1 et β = 2. r


3

4.4.4 Détermination du rang


Théorème 4.11 Soit A ∈ Mp,n (K). Le rang de A est r, si et seulement si on peut extraire de A un
mineur δ d’ordre r non nul tel que tous les bordants de δ dans A sont nuls.

Définition 4.10 Le rang d’une matrice est égal au plus grand ordre d’un mineur non nul de cette
matrice, c’est-à-dire à l’entier r tel qu’il existe un mineur non nul d’ordre r et que tout mineur d’ordre
strictement supérieur à r soit nul. Ou encore : le rang d’une matrice A de dimension quelconque est
l’ordre de la plus grande sous-matrice carrée régulière que l’on peut extraire de A.

Définition 4.11 Le rang d’une matrice A est l’ordre maximal des mineurs non nuls extraits de A,
c’est-à-dire (
il existe un mineur d’ordre r non nul
rg(A) = r ⇔
tous les mineurs d’ordre s > r sont nuls .

Remarque 4.6 1. Une matrice nulle est de rang 0.


2. Soient E et F deux espaces vectoriels et f ∈ L(E, F ) et B1 et B2 les bases de E et F respecti-
vement et A = MB1 ,B2 (f ). Alors

rg(A) = rg(f ) = dim(Imf ).

Proposition 4.5 Soit A ∈ Mp,n (K). On a rg(A) ≤ min{p, n}.

ENSAM Casablanca
56 CHAPITRE 4. DÉTERMINANTS
 
1 2 3
Exemple 4.21 Soit A =  2 3 4  . On a det(A) = 0 ⇒ la matrice A n’est pas de rang 3. Si on
 


3 5 7
1 2
prend
2 3




= −1 , 0 ⇒ la matrice A est de rang 2.

 
1 −3 6 2
Exemple 4.22 Soit A =  2 −5 10

3 .

3 −8 17 4

1 −3 6

Déterminons rg(A). On a δ = 2 −5 10 = 1 , 0. Donc rg(A) = 3.

3 −8

17

Exercice 4.3 Exprimer l’égalité suivante


 
1 0 x
rg  2 3 y  = 2
 

1 2 z

pour les nombres x, y, z.

Solution. On a  
1 0 x 1 0 x



rg  2 3 y  = 2 ⇒ 2 3 y = 0 ⇒ x − 2y + 3z = 0. r
3
 


1 2 z 1 2 z

4.5 Applications des déterminants


4.5.1 Méthode de Cramer
Considérons le systéme d’équations linéaires à n équations et n inconnues suivant


 a11 x1 + a12 x2 + . . . + a1n xn = b1
a21 x1 + a22 x2 + . . . + a2n xn = b2



. . (4.2)
 ..

 = ..

an1 x1 + an2 x2 + . . . + ann xn = bn .

Ce systéme peut aussi s’écrire sous forme matricielle AX = B où


     
a11 a12 . . . a1n x1 b1

a21 a22 . . . a2n  
x2  
b2 
∈ Mn ( K ) , X =
     
A=  .. .. ..   .. , B=  .. .
. . . . .
     
     
an1 an2 . . . ann xn bn

ENSAM Casablanca
Méthode de Cramer 57
Définissons la matrice Aj ∈ Mn (K) par
 
a11 . . . a1,j−1 b1 a1,j +1 . . . a1n

 a21 . . . a2,j−1 b2 a2,j +1 . . . a2n 

Aj =  .. .. .. .. .. .
. . . . .
 
 
an1 . . . an,j−1 bn an,j +1 . . . ann

Autrement dit, Aj est la matrice obtenue en remplaçant la j ème colonne de A par le second membre
B. La règle de Cramer va nous permettre de calculer la solution du système dans le cas où det(A) , 0
en fonction des déterminants des matrices A et Aj .
Théorème 4.12 (Règle de Cramer).
Soit
AX = B (4.3)
un système de n équations à n inconnues. On a trois cas se présentent :
1. Si det(A) , 0. Alors l’unique solution (x1 , x2 , . . . , xn ) du système (4.3) est donnée par :

det(Aj )
xj = , 1 ≤ j ≤ n.
det(A)

2. Si det(A) = 0 et det(Aj ) = 0, ∀j ∈ ~1, n. Alors le système (4.3) admet une infinité des
solutions.
3. Si det(A) = 0 et ∃j0 ∈ ~1, n tel que det(Aj0 ) , 0. Alors le système (4.3) n’admet pas de
solution.

Exemple 4.23 Résolvons le système suivant :




 x + 2z =6
−3x + 4y + 6z = 30
−x − 2y + 3z


= 8.
On a
       
1 0 2 6 6 0 2 1 6 2
A =  −3 4 6  , B =  30  , A1 =  30 4 6  , A2 =  −3 30 6  ,
       

−1 −2 3 8 8 −2 3 −1 8 3
 
1 0 6
A3 =  −3 4 30 

 , det(A) = 44, det(A1 ) = −40, det(A2 ) = 72, det(A3 ) = 152.
−1 −2 8
det(A1 ) 40 10 det(A2 ) 72 18
La solution est alors donnée par : x = = − = − , y = = = et
det(A) 44 11 det(A) 44 11
det(A3 ) 152 38
z= = = .
det(A) 44 11

ENSAM Casablanca

Vous aimerez peut-être aussi