Cours Algebra 2 FSR 14-15
Cours Algebra 2 FSR 14-15
Cours Algebra 2 FSR 14-15
ALGÈBRE 2
SMPC - S2
2014 - 2015
www.fsr.ac.ma
1 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1 Structure d’espace vectoriel 5
1.2 Structure de sous-espace vectoriel 7
1.3 Dépendance et indépendance linéaires 10
1.4 Bases et dimension d’un espace vectoriel 11
1.5 Somme de sous-espaces vectoriels 13
1.6 Rang d’un système de vecteurs 14
2 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1 Définitions et propriétés 17
2.2 Noyau et image d’une application linéaire 18
3 Calcul matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.1 Définitions 23
3.2 Opérations sur les matrices 25
3.2.1 Addition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2.2 Produit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2.3 Opérations élémentaires sur une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.4 Application pour déterminer l’inverse d’une matrice carrée inversible . . . . 27
3.2.5 Puissances d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3 Matrice d’une application linéaire 28
3.3.1 Matrice de la composée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.4 Changement de bases 31
3.4.1 Matrice de passage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.4.2 Effet d’un changement de base pour une application linéaire . . . . . . . . . . 32
1. Espaces vectoriels
(u, v) ∈ E × E 7→ u + v ∈ E.
– Une loi de composition externe ’.’ sur E est une application de K × E dans E :
(α, u) ∈ K × E 7→ α.u ∈ E.
Exemples
1. Dans E = {0, 1} l’application définie par
aT b = 1 − ab
est une loi de composition interne de E.
2. Soit E = R3 . L’application notée ’.’ de R × R3 dans R3 définie par
α.(x, y, z) = (αx, αy, αz)
est une loi de composition externe.
Définition 1.1.2 On appelle espace vectoriel sur K, ou K-espace vectoriel, un ensemble non
vide E muni d’une loi (de composition interne) notée 0 +0 et d’une autre loi (de composition
externe) notée 0 .0 telles que
1. La loi + est associative : ∀u, v, w ∈ E, (u + v) + w = u + (v + w)
2. E possède un élément neutre 0E pour + : ∀u ∈ E, u + 0E = 0E + u = u
3. Tout élément de E admet un symétrique : ∀u ∈ E, ∃v ∈ E, u + v = v + u = 0E
4. La loi + est commutative : ∀u, v ∈ E, u + v = v + u
5. ∀α, β ∈ K, ∀u ∈ E, α.(β .u) = (αβ ).u
6. ∀α, β ∈ K, ∀u ∈ E, (α + β ).u = α.u + β .u
7. ∀α ∈ K, ∀u, v ∈ E, α.(u + v) = α.u + α.v
8. ∀u ∈ E, 1.u = u
Le K-espace vectoriel E muni des deux lois 0 +0 et 0 .0 sera noté (E, +, .). Les éléments de K sont
appelés scalaires et ceux de E sont appelés vecteurs. Le symétrique v d’un élément u de E pour
+ est noté −u.
Exemples
1. Pour tout n ∈ N∗ , l’ensemble Kn est un K-espace vectoriel pour les lois
(x1 , ..., xn ) + (y1 , ..., yn ) = (x1 + y1 , ..., xn + yn )
λ .(x1 , ..., xn ) = (λ x1 , ..., λ xn ).
2. Soit E un K-espace vectoriel et A un ensemble quelconque non vide. L’ensemble E A des
applications de A dans E est un K-espace vectoriel pour les lois
f +g : A → E
x 7→ ( f + g)(x) = f (x) + g(x)
et
λ.f : A → E
x 7→ (λ . f )(x) = λ . f (x).
Par exemple, RN l’ensemble des suites réelles est un R-espace vectoriel pour les lois
usuelles.
3. L’ensemble Rn [X] des polynômes de degré inférieur ou égal à n ∈ N (à coefficients réels)
est un R-espace vectoriel pour les lois
n n n
∑ ak X k + ∑ bk X k = ∑ (ak + bk )X k
k=0 k=0 k=0
n n
k
λ . ∑ ak X = ∑ (λ ak )X k , λ ∈ K.
k=0 k=0
Exercice 1.1.
Soit E un K-espace vectoriel. Montrer que ∀α ∈ K, ∀u ∈ E on a
(−α).u = α.(−u) = −(α.u).
R Afin d’alléger les écritures, nous convenons, dans tout ce qui suit, de l’abus suivant : pour
tout scalaire α de K et pour tout vecteur u de E, on note αu le vecteur α.u de E.
Théorème 1.2.1 Soit (E, +, .) un K-espace vectoriel. Une partie F de E est un sous-espace
vectoriel de E si et seulement si
– F est non vide
– F est stable pour la loi + : ∀(u, v) ∈ F 2 , u + v ∈ F
– F est stable pour la loi . : ∀λ ∈ K, ∀u ∈ F, λ u ∈ F.
Démonstration. – Par hypothèse F est non vide. Soit λ ∈ K, (u, v) ∈ F 2 . Comme F est un
K-espace vectoriel on a u + v ∈ F et λ u ∈ F.
– Pour montrer l’implication inverse, les seuls points à vérifier sont les points 3) et 4) de la
loi interne + (voir définition 1.1.2).
Prenons λ = 0 et u ∈ F, alors λ u = 0E ∈ F et donc F possède un élément neutre pour la
loi +.
Soit u ∈ F, par définition il existe v ∈ E tel que u + v = v + u = 0E , donc v = −u =
(−1)u ∈ F.
Comme F est non vide, (F, +, .) est un K-espace vectoriel et donc F est un sous espace
vectoriel de E.
Démonstration. 1. Facile.
2. Considérons les deux sous-espaces F1 et F2 de l’espace produit R2 définis par
Exercice 1.2.
Soient F = {(x, y, z) ∈ R3 , x − z = 0} et G = {(x, y, z) ∈ R3 , −x − y + z = 0}.
1. Montrer que F et G sont des sous-espaces vectoriels de R3 .
2. Déterminer F ∩ G.
Définition 1.2.2 Soit S = {u1 , . . . , u p } une famille de vecteurs d’un K-espace vectoriel E.
Une combinaison linéaire des éléments de S est tout élément u de E de la forme
p
u = λ1 u1 + λ2 u2 + . . . + λ p u p = ∑ λi ui , (λ1 , . . . , λ p ) ∈ K p .
i=1
Exemples
1. Tout vecteur x = (x1 , x2 , x3 ) de K3 est combinaison linéaire de la famille F = (ei )1≤i≤3
où e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1), car
Définition 1.2.3 Soient E un K-espace vectoriel et S une partie finie de E. On appelle sous-
espace engendré par S, noté Vect(S), l’ensemble des combinaisons linéaires des éléments
de S. La famille S est dite génératrice du sous-espace Vect(S).
Théorème 1.2.4 Le sous-espace engendré par une famille S d’un K-espace vectoriel E est
un sous-espace vectoriel de E. C’est le plus petit sous-espace vectoriel de E (au sens de
l’inclusion) contenant S.
R Si S = {u1 , . . . , u p }, alors
Vect(S) = λ1 u1 + . . . + λ p u p / (λ1 , . . . , λ p ) ∈ K p ,
ou encore
u ∈ Vect(S) ⇔ ∃(λ1 , . . . , λ p ) ∈ K p / u = λ1 u1 + . . . + λ p u p .
Exemples
1. Si u est un vecteur d’un K-espace vectoriel E alors
Vect({u}) = {αu/ α ∈ K} = Ku.
Donc Vect({0E }) = {0E } (cas où u = 0E ) et si u 6= 0E alors Vect({u}) est la droite
vectorielle engendrée par u.
2. Dans R3 , soit v1 = (1, 0, 0) et v2 = (0, 1, 1), alors
Vect(v1 , v2 ) = {αv1 + β v2 / α, β ∈ R}
= {(α, 0, 0) + (0, β , β )/ α, β ∈ R}
= {(α, β , β )/ α, β ∈ R}
Exercice 1.3.
Montrer que Vect({1, X, X 2 }) = R2 [X].
– En particulier,
Vect(u1 , . . . , u p , 0E ) = Vect(u1 , . . . , u p ).
R Une méthode pour démontrer qu’une partie non vide F d’un espace vectoriel E est un
sous-espace vectoriel de E est de montrer que F est égal à l’ensemble des combinaisons
linéaires d’un nombre fini de vecteurs de E.
α1 u1 + α2 u2 + . . . + α p u p = 0E . (1.1)
En d’autres termes, on dit qu’une famille finie S = {u1 , u2 , . . . , u p } est libre si la seule possibilité
pour que la combinaison linéaire α1 u1 + α2 u2 + . . . + α p u p soit nulle, est que les coefficients
α1 , α2 , . . . , α p soient tous nuls. En pratique, pour montrer que la famille S = {u1 , u2 , . . . , u p } est
libre, on montre que la relation (1.1) entraîne nécessairement que
α1 = α2 = . . . = α p = 0.
Exemples
1. Dans C4 , les vecteurs v1 = (1, 0, 1, 1), v2 = (0, 2, 2i, 6) et v3 = (1, i, 0, 1 + 3i), où i2 = −1
sont liés puisque
i
v1 + v2 − v3 = 0C4 .
2
2. Dans R3 , les vecteurs v1 = (1, 1, −1), v2 = (0, 2, 1) et v3 = (0, 0, 5) sont linéairement
indépendants.
3. Soit f1 , f2 et f3 trois fonctions de R dans R définies comme suit
La relation cos(2x) = 2 cos2 (x) − 1 implique que la famille { f1 , f2 , f3 } est une famille liée
dans le R-espace vectoriel F (R, R).
Démonstration. – Supposons que la famille S est liée, il existe des scalaires α1 , . . . , α p non
tous nuls tels que
α1 u1 + . . . + α p u p = 0E .
Soit i tel que αi 6= 0. Alors
α1 αi−1 αi+1 αp
ui = − u1 − . . . − ui−1 − ui+1 − . . . − u p .
αi αi αi αi
Le vecteur ui est donc une combinaison linéaire des éléments de la famille
Alors
α1 u1 + . . . + αi−1 ui−1 − ui + αi+1 ui+1 + . . . + α p u p = 0E .
Ceci implique que la famille S est liée.
Exemples
1. Dans R3 , soit les vecteurs v1 = (1, 0, −1), v2 = (1, 1, 1) et v3 = (5, 3, 1). On a v3 = 2v1 +
3v2 , et donc la famille {v1 , v2 , v3 } est liée.
2. Considérons les polynômes P1 = X + 1, P2 = −1 + 2X + 3X 2 et P3 = X + X 2 . On a
P1 + P2 − 3P3 = 0, ce qui implique que la famille {P1 , P2 , P3 } est liée.
Proposition 1.3.3 Soit V = {v1 , v2 , . . . , v p } une famille libre d’un K-espace vectoriel E. Si x
est un vecteur quelconque de Vect(V ), alors la décomposition de x sur les vi , i = 1, . . . , p est
unique.
Démonstration. Si x = α1 v1 + . . . + α p v p = λ1 v1 + . . . + λ p v p , alors
(α1 − λ1 )v1 + . . . + (α p − λ p )v p = 0.
Exemples
1. Pour tout entier n ∈ N∗ , le K-espace vectoriel Kn est de dimension finie. Il est engendré
par la famille (e1 , e2 , . . . , en ) où ei = (0, . . . , 0, 1, 0, . . . , 0) ( 1 est dans la ième position).
2. L’espace vectoriel K[X] n’est pas de dimension finie.
Définition 1.4.2 Soit E un K-espace vectoriel de dimension finie. On appelle base de E toute
famille de vecteurs de E qui est libre et génératrice.
∀x ∈ E, ∃!(α1 , . . . , αn ) ∈ Kn : x = α1 v1 + . . . + αn vn .
Théorème 1.4.2 Soit E un K-espace vectoriel de dimension finie. Alors toutes les bases de
E ont le même cardinal.
Définition 1.4.3 Soit E un K-espace vectoriel de dimension finie. Le cardinal d’une base
de E s’appelle la dimension de E. La dimension d’un sous-espace vectoriel de E est sa
dimension en tant que K-espace vectoriel.
Exemples
1. Soit E = K2 , e1 = (1, 0) et e2 = (0, 1). La famille B = {e1 , e2 } est génératrice de E
puisque tout vecteur v = (x1 , x2 ) ∈ E s’écrit v = x1 e1 + x2 e2 . De plus on vérifie aisément
que B est libre. C’est donc une base de E.
2. Tout polynôme P de Kn [X] s’écrit sous la forme
P = a0 + a1 X + . . . + an X n .
x = x1 e1 + . . . + xn en ,
avec
e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1).
La famille B = (e1 , . . . , en ) est ainsi génératrice de Kn . De plus, cette famille est libre. Par
conséquent la famille B est une base de Kn et dimKn = n. On l’appelle base canonique
de Kn . Par conséquent x1 , . . . , xn sont les coordonnées du vecteur x de Kn dans cette base.
4. Soit F = {(x, y, z) ∈ R3 / 2x + y + 3z = 0}. On a F est un sous-espace vectoriel de R3 , et
Donc u ∈ F si, et seulement si, u = (x, −2x − 3z, z) = x(1, −2, 0) + z(0, −3, 1). Ceci
implique que les deux vecteurs v1 = (1, −2, 0) et v2 = (0, −3, 1) engendrent F. On vérifie
qu’ils forment une famille libre, donc c’est une base de F.
Exercice 1.4.
Dans R3 muni de sa structure de R-espace vectoriel, on considère les quatre vecteurs v1 = (1, 1, 2),
v2 = (1, −1, 0), v3 = (0, 0, −1) et x = (1, 1, 1).
1. Quelles sont les coordonnées de x dans la base canonique de R3 ?
2. Montrer que les vecteurs v1 , v2 et v3 forment une base de R3 .
Théorème 1.4.3 Un K-espace vectoriel E 6= {0E } de dimension finie possède au moins une
base finie.
Une autre version du théorème précédent est le suivant
Démonstration. Soit B une base de F. La famille B est libre dans E. Par le théorème de la base
incomplète, elle est contenue dans une base de E. Donc dim(F) ≤ dim(E).
Supposons que dim(F) = dim(E) et soit B une base de F. La famille B est libre de E qui
contient n éléments. Elle est donc une base de E. D’où E = F.
Exercice 1.5.
On considère dans R3 [X] les polynômes P1 = 1 + X 3 , P2 = 1 − X 2 et P3 = 1.
1. La famille {P1 , P2 , P3 } est-elle libre ?
2. Déterminer un polynôme P4 tel que la famille {P1 , P2 , P3 , P4 } soit une base de R3 [X].
F + G = {w = u + v/ u ∈ F, v ∈ G}.
∀w ∈ F + G, ∃! u ∈ F, ∃! v ∈ G, w = u + v.
E = F ⊕ G.
F ∩ G = {0E }.
R
1. On peut montrer, en utilisant le théorème de la base incomplète, que tout sous-espace
vectoriel d’un K-espace possède au moins un supplémentaire dans E.
Théorème 1.5.2 Soit E un K-espace vectoriel. Si F et G sont deux sous espaces vectoriels
de E alors F + G et F ⊕ G sont des sous-espaces vectoriels de E.
Démonstration. Facile.
Les propositions suivantes présentent les conditions que deux sous-espaces vectoriels doivent
remplir pour qu’ils soient supplémentaires.
(E = F ⊕ G) ⇔ (E = F + G et F ∩ G = {0E }) .
Exemples
1. Soit E = R3 , F = Vect(1, 1, 1) et G = Vect{(1, 0, −1), (0, 1, −1)}. Alors E = F ⊕ G. En
effet, F ∩ G = {0E } et dimF + dimG = 1 + 2 = 3.
2. Soit E = R3 [X], F = R et G = {XP/ P ∈ R2 [X]}. Alors E = F ⊕ G.
note rg(S).
Proposition 1.6.1 Soit {u1 , . . . , u p } une famille de vecteurs d’un K-espace vectoriel E.
1. rg({u1 , . . . , u p }) ≤ p
2. rg({u1 , . . . , u p }) = p ⇔ {u1 , . . . , u p } libre.
Exemple
Considérons dans R4 les vecteurs u = (1, −1, 1, 0), v = (1, 1, , 0, 1) et w = (2, 0, 1, 1). On a alors
rg({u, v, w}) ≤ 3. Or w = u + v, donc w ∈ Vect({u, v}) et rg({u, v, w}) = rg({u, v}) = 2 car la
famille {u, v} est libre.
2. Applications linéaires
Notations
1. L’ensemble des applications linéaires de E dans F est noté L (E, F). L’ensemble des
endomorphismes de E est simplement noté L (E).
2. L’ensemble des isomorphismes de E sur F est noté Isom(E, F).
3. L’ensemble des automorphismes de E est noté GL(E).
Exemples
1. L’application f définie par
f: R3 → R2
(x, y, z) 7→ (x + 2y, x − z),
est linéaire.
2. L’application f définie par
f : K[X] → K[X]
P 7→ P0 ,
Propriétés
Soit E et F deux K-espaces vectoriels.
1. Si f ∈ L (E, F) alors f (0E ) = 0F ,
2. Si f ∈ L (E, F) alors ∀u ∈ E, f (−u) = − f (u).
3. Soient f , g ∈ L (E, F) et λ ∈ K. Les applications f + g et λ f définies par
sont des éléments de L (E, F). Muni de ces deux lois, L (E, F) est un K-espace vectoriel.
Démonstration. Tout vecteur x de E se décompose d’une manière unique dans la base B sous
la forme
x = x1 e1 + x2 e2 + . . . + xn en ,
où x1 , . . . , xn appartenant à K sont les coordonnées de x dans la base B. Puisque f est linéaire,
alors
f (x) = f (x1 e1 + x2 e2 + . . . + xn en )
= x1 f (e1 ) + x2 f (e2 ) + . . . + xn f (en ).
Im f = {v ∈ F/ ∃u ∈ E, f (u) = v} = f (E).
Exemples
1. Soit f : R3 → R2 l’application linéaire définie par f (x, y, z) = (x + 2y, x − z).
= {(−2y, y, −2y)/ y ∈ R}
= Vect{(−2, 1, −2)},
et dim(Ker f ) = 1.
et dim(Im f ) = 2.
2. Soit f : R2 [X] 7→ R3 l’application linéaire définie par f (P) = (P(0), P(1), P(2)).
= {0R2 [X] },
et dim(Ker f ) = 0.
Im f = f (R2 [X])
= f (Vect{1, X, X 2 })
= Vect{ f (1), f (X), f (X 2 )}
= Vect{(1, 1, 1), (0, 1, 2), (0, 1, 4)},
et dim(Im f ) = 3.
Proposition 2.2.2 Soit E et F deux K-espaces vectoriels et soit f ∈ L (E, F). Alors
1. Ker f est un sous-espace vectoriel de E,
2. Im f est un sous-espace vectoriel de F.
Démonstration. Facile
Théorème 2.2.3 Soit E et F deux K-espaces vectoriels et soit f ∈ L (E, F). Alors
1. f est injective ⇔ Ker f = {0E }.
2. f est surjective ⇔ Im f = F.
Démonstration.
1. Rappelons que f est injective si, et seulement si, ∀u, v ∈ E on a
f (u) = f (v) ⇒ u = v.
Exemple. Soit f l’application linéaire qui à tout polynôme P de R2 [X] lui associe le vecteur
f (P) = (P(−1), P(0), P(1)) de R3 .
– Soit P = aX 2 + bX + c ∈ Ker f , où a, b, c ∈ R. Alors f (P) = (a −b + c, c,
a + b + c) = 0R3 .
Ceci implique que a = b = c = 0, et P = 0R2 [X] . Ainsi, Ker f = 0R2 [X] . Par conséquent,
f est injective.
– Puisque R2 [X] = Vect(1, X, X 2 ) et f est une application linéaire, alors
Exercice 2.1.
Soit f l’application linéaire qui à tout polynôme P de R2 [X] lui associe
Proposition 2.2.4 Soit E, F deux K-espaces vectoriels, {v1 , v2 , . . . , vn } une famille libre dans
E et f ∈ L (E, F). Si f est injective alors { f (v1 ), f (v2 ), . . . , f (vn )} est une famille libre de
F.
Démonstration. Soit α1 , α2 , . . . , αn des scalaires appartenant à K tels que
f (α1 v1 + α2 v2 + . . . + αn vn ) = f (0E ).
rg f = dim(Im f ).
dimE = rg f + dim(Ker f ).
f (x, y, z) = (x − y, z, 0).
Proposition 2.2.6 Soit E, F deux K-espaces vectoriels de dimensions finies et f ∈ L (E, F).
On a alors les équivalences suivantes
1. f est surjective ⇔ rg f = dimF,
2. f est injective ⇔ rg f = dimE,
3. f est bijective ⇔ rg f = dimE = dimF.
Corollaire 2.2.7 Soit E, F deux K-espaces vectoriels de dimensions finies et f ∈ L (E, F). Si
dimE = dimF alors
Définition 2.2.3 Soit E, F et G trois K-espaces vectoriels. Soit f ∈ L (E, F) et g ∈ L (F, G).
On appelle composée de ces deux applications g et f l’application linéaire notée go f de E
dans G et qui est définie par
f: R3 → R2
(x, y, z) 7→ (x − 3y, y + 2z),
et
g: R2 → R3
(x, y) 7→ (3y, x, 0).
Alors l’application composée go f est donnée par
go f : R3 → R3
(x, y, z) 7→ (3y + 6z, x − 3y, 0).
Exercice 2.2.
Soient E un K-espace vectoriel tel que dimE = 3 muni d’une base B = {u, v, w} et p un
endomorphisme de E défini par
1 1
p(u) = u + v + w, p(v) = − (u + v + w), p(w) = (u + v + w).
2 2
Montrer que p est un projecteur de E (c.-à.d. pop = p), puis caractériser Imp et Kerp.
3. Calcul matriciel
Dans tout ce qui suit, K désigne R ou C, m et n sont deux entiers naturels non nuls.
3.1 Définitions
Définition 3.1.1 Un tableau rectangulaire de nombres (∈ K), de la forme
a11 a12 . . . a1n
a21 a22 . . . a2n
A= ,
.. .. ..
. . .
am1 am2 . . . amn
Définition 3.1.2 Deux matrices A = (ai j ) et B = (bi j ) de même ordre (m, n) sont égales si et
seulement si ai j = bi j , pour tout (i, j) ∈ {1, . . . , m} × {1, . . . , n}.
Exemples
3 5 −1
1. A = est une matrice d’ordre (2, 3).
0 1 4
0 1
2. B = 2 −1 est une matrice d’ordre (3, 2).
5 3
Notations. L’ensemble des matrices d’ordre (m, n) à coefficients dans K est noté Mm,n (K).
Lorsque m = n on note cet ensemble par Mn (K).
– Matrice uniligne : C’est une matrice d’ordre (1, n) (matrice qui admet une seule ligne).
– Matrice unicolonne : C’est une matrice d’ordre (m, 1) ( matrice qui admet une seule
colonne).
– Matrice carrée : C’est une matrice dont le nombre de lignes est égal au nombre de
colonnes (m = n). Elle est dite matrice carrée d’ordre n ou tout simplement matrice
d’ordre n.
a11 a12 . . . a1n
a21 a22 . . . a2n
A=
.
an1 an2 . . . ann
Les éléments aii , sont appelés éléments diagonaux de A.
Les éléments ai j pour i 6= j, sont appelés éléments hors-diagonaux de A.
L’ensemble des éléments diagonaux constitue la diagonale principale de A
– Matrice identité. On appelle matrice identité d’ordre n ∈ N∗ , la matrice carrée notée
In telle que In = (δi j )1≤i, j≤n , où δi j est le symbole de Kronecker δi j = 0 si i 6= j et
δii = 1, ∀i, j ∈ {1, .., n}.
1 0 0
Par exemple la matrice identité d’ordre 3 s’écrit I3 = 0 1 0 .
0 0 1
– Matrice diagonale. C’est une matrice carrée telle que ai j = 0, ∀i 6= j.
a11 0 0 . . . 0
0 a22 0 . . . 0
A=
0 0 . . . . ann
On la note A = diag(aii ) = diag(a11 , a22 , . . . , ann ).
– Matrice triangulaire supérieure. C’est une matrice carrée vérifiant : ai j = 0, pour i > j.
a11 a12 a13 . . . a1n
0 a22 a23 . . . a2n
. .
.
. .
. .
0 . . . . . ann
– Matrice triangulaire inférieure. C’est une matrice carrée vérifiant : ai j = 0, pour i < j.
a11 0 . . . . 0
a21 a22 0
.. . 0
. .
.
. .
. .
an1 an2 an3 . . . ann
– Matrice nulle. C’est la matrice vérifiant : ai j = 0, ∀i, j ∈ [|1, m|] × [|1, n|]. On la note
0Mm,n (K) , ou simplement 0 (si aucune confusion n’est à craindre).
– Transposée d’une matrice. Étant donné une matrice A ∈ Mm,n (R). La transposée de la
matrice A est la matrice notée t A de type (n, m), obtenue en échangeant (dans l’ordre) les
lignes de A pour devenir les colonnes de t A.
Exemple
3 1
3 1 0
A= ,tA = 1 1 .
1 1 6
0 6
Définition 3.1.3 Si A = (ai j )1≤i≤m,1≤ j≤n et t A = (bi j )1≤i≤n,1≤ j≤m , alors on a bi j = a ji , ∀i, j.
– Une matrice carrée A est dite symétrique ⇔t A = A (i.e. ai j = a ji , ∀i, j).
– Une matrice carrée A est dite antisymétrique ⇔t A = −A (i.e. ai j = −a ji , ∀i, j).
3.2.2 Produit
– Soit A = (ai j ) une matrice de type (m, n) et soit λ ∈ K. On définit la matrice λ A de type
(m, n) par :
λ a11 λ a12 . . . λ a1n
. .
. .
λ A = (λ ai j ) =
. .
. .
λ am1 λ am2 . . . λ amn
2 1 3 4 2 6
Exemple. Soient A = et λ = 2. Alors λ A = .
−1 0 1 −2 0 2
Propriétés.
– λ (A + B) = λ A + λ B,
– (λ + µ)A = λ A + µA,
– λ (µA) = (λ µ)A.
– Soit A = (ai j ) une matrice (m, n) et B = (bkl ) une matrice (r, p). Le produit AB (dans cet
ordre) n’est défini que si n = r et AB = C = (cil ) de type (m, p) dont les éléments sont
donnés par : cil = ∑nj=1 ai j b jl , pour tout (i, l) ∈ [|1, m|] × [|1, p|].
Exemple.
1 2 0
1 −1 0
A= , B = −1 1 1 .
0 1 −1
0 1 0
A est une matrice (2, 3) et B est une matrice (3, 3). D’où, le produit AB est possible et
1 × 1 + (−1) × (−1) + 0 × 0 1 × 2 + (−1) × 1 + 0 × 1 1 × 0 + (−1) × 1 + 0 × 0
AB =
0 × 1 + 1 × (−1) + (−1) × 0 0 × 2 + 1 × 1 + (−1) × 1 0 × 0 + 1 × 1 + (−1) × 0
2 1 −1
AB = .
−1 0 1
AB est une matrice du type (2, 3).
R
– Le produit de matrices n’est pas commutatif
– AB = 0 n’implique pas que A = 0 ou B = 0.
Exemple.
1 0 0 1 0 1 0 0
– A= ,B= , alors AB = et BA = . Donc,
0 1 1 0 0 0 1 0
AB 6=BA.
1 1 −1 1 0 0
– A= ,B= , alors AB = et pourtant A 6= 0 et B 6= 0.
2 2 1 −1 0 0
Exercice 3.1.
Soit I la matrice identité d’ordre 3
1 0 0
I= 0 1 0
0 0 1
Réponse.
Définition 3.2.1 Une matrice A d’ordre n, est dite inversible (ou régulière) s’il existe une
matrice B telle que AB = BA = In , où In est la matrice identité d’ordre n.
B est dite matrice inverse de A, et on la note A−1 .
Si la matrice inverse existe, elle est unique. Dans le cas contraire, on dit que A est non
inversible ou que A est une matrice singulière.
Réponse.
Pour déterminer l’inverse A−1 d’une matrice inversible, on place la matrice unité du même ordre,
à droite de A, puis on applique les mêmes opérations élémentaires sur A et I jusqu’à ce qu’on
obtienne la matrice I à gauche de A.
1 0 2 | 1 0 0
(A|I) = 2 −1 3 | 0 1 0
4 1 8 | 0 0 1
L2 ←− L2 − 2L1 , L3 ←− L3 − 4L1
1 0 2 | 1 0 0
= 0 −1 −1 | −2 1 0
0 1 0 | −4 0 1
L2 ←→ L3
1 0 2 | 1 0 0
0 1 0 | −4 0 1
0 −1 −1 | −2 1 0
L3 ←− L3 + L2
1 0 2 | 1 0 0
= 0 1 0 | −4 0 1
0 0 −1 | −6 1 1
L1 ←− L1 + 2L3 , L3 ←− −L3
1 0 0 | −11 2 2
(I|A−1 ) = 0 1 0 | −4 0 1
0 0 1 | 6 −1 −1
Donc,
−11 2 2
A−1 = −4 0 1
6 −1 −1
Pour calculer l’inverse de A, on peut aussi utiliser la méthode suivante dite, méthode des
coefficients indétermiés.
On cherche
une
matrice B = (bi j ) telle que AB = In .
1 1 a b
Exemple. Soient A = ,B = telle que AB = I2 .
1 0 c d
1 1 a b 1 0
= .
1 0 c d 0 1
0 1
On trouve que A−1 =
1 −1
Propriétés. Soit A une matrice carrée, m et n deux entiers naturels non nuls, on a
1. An .Am = An+m .
2. (An )m = Anm .
– Matrice nilpotente.
p
Une matrice n est dite nilpotente s’il existe un entier p tel que A = 0.
A d’ordre
0 0
La matrice A = est une matrice nilpotente (A2 = 0).
1 0
A−p = (A−1 ) p , ∀p ∈ N.
base de F.
Chacun des vecteurs f (e1 ), f (e2 ), . . . , f (en ) de F se décompose d’une manière unique dans la
base C . On écrit
f (e1 ) = a11 ε1 + a21 ε2 + . . . + a p1 ε p
f (e2 ) = a12 ε1 + a22 ε2 + . . . + a p2 ε p
.. ..
. .
f (en ) = a1n ε1 + a2n ε2 + . . . + a pn ε p ,
xn
le vecteur des coordonnées de u dans B, et
y1
Y = ...
yp
Y = AX.
3 −1 1
Exemple 3.1 Soit et soit f l’application linéaire associée à A relativement
1 1 2
1
aux bases canoniques B = {e1 , e2 , e3 } de R et C = {ε1 , ε2 } de R . Soit u =
3 2 2 ∈ R3 .
3
Alors
1
4
f (u) = Au = A 2 =
9
3
f: R2 → R3
(x, y) 7→ (x + y, x − y, 2x + 4y),
g: R3 → R3
(x, y, z) 7→ (x + y + 3z, −x + y + 2z, 2x + y + 3z).
et
1 1 3
MB2 (g) = −1 1 2 .
2 1 3
On montre facilement que
g ◦ f : R2 → R3
(x, y) 7→ (8x + 12y, 4x + 6y, 9x + 13y),
D’où,
8 12
MB1 ,B2 (g ◦ f ) = 4 6 .
9 13
MB1 ,B2 (g ◦ f ) = MB2 (g)MB1 ,B2 ( f ).
MB ( f 2 ) = MB ( f ◦ f ) = (MB ( f ))2 .
∀n ∈ N, MB ( f n ) = MB ( f ◦ f ◦ · · · ◦ f ) = (MB ( f ))n .
D’autre part,
MB0 ( f ◦ f −1 ) = MBB0 ( f )MB0 B ( f −1 ) = MB0 (IdF )) = In .
Donc, MBB0 ( f ) est inversible et (MBB0 ( f ))−1 = MB0 B ( f −1 ).
De plus,
n
0
PB1 B2 = (pi j )1≤i, j≤n ⇐⇒ e j = ∑ pi j ei , ∀ j ∈ [|1, n|].
i=1
Exemple B1 = (e1 , e2 , e3 ) est la base canonique de R3 . Soit B2= (e01 , e02 , e03 ), 0 0
où e1 = (1, 1, 0), e2 =
1 1 0
(1, 0, 1), e3 = (0, 1, 1). La matrice de passage de B1 à B2 est
0 1 0 1
0 1 1
Propriétés
– La matrice de passage PB1 B2 est la matrice dont la jième colonne est constituée par les
composantes de e0j dans la base B1 .
−1
– PB1 B2 est une matrice inversible et PB 1 B2
= PB2 B1
Exemple 3.2 Soient B = (e1 , e2 ) la base canonique de R2 et B 0 = (e01 , e02 ) une famille de
deux vecteurs de R2 tels que
On peut vérifier facilement que B 0 est une base de R2 . La matrice de passage de B à B 0 est
2 1
PBB0 =
3 1
A2 = Q−1 A1 P,
A2 = P−1 A1 P,
Exemple 3.3 Soit B = {e1 , e2 , e3 } la base canonique de R3 et soit C = {u1 , u2 , u3 } une base
de R3 avec u1 = (2, 0, −1), u2 = (−8, 1, 0) et u3 = (0, 1, −5). Soit f ∈ L (R3 ) où
∀(x, y, z) ∈ R3 , f (x, y, z) = (2x − 2y, −x + 3y + z, 2x + y + z).
La matrice de passage de la base B à la base C est donnée par
2 −8 0
P = PBC = 0 1 1 .
−1 0 −5
On vérifie facilement que
5 40 8
1
P−1 = PC B = 1 10 2 .
2
−1 −8 −2
La matrice de f dans la base B est donnée par
2 0 −2
A = MatB ( f ) = −1 3 1 .
2 1 1
Donc, par la formule de changement de base, on trouve la matrice de f dans la base C :
−33 120 −31
B = MatC ( f ) = P−1 AP = −9 32 −9 .
6 −21 7
Propriétés.
– Si f ∈ L (Kn , Km ), alors le rang de f est égal au rang de sa matrice.
– rg(A) ≤ min(m, n).
– Une matrice A d’ordre n est inversible ssi rg(A) = n.
– Soit A ∈ Mm,n (K). Alors, rg(A) = rg(t A).
– A, B ∈ Mm,n (K) sont équivalentes ssi rg(A) = rg(B).
Exemple.
1 1 −1 3 5 −1
A= , rg(A) = 2. B = , rg(B) = 2.
2 1 0 2 3 0
1 1 0
1 1
A et B sont équivalentes. En effet, si on pose R = , S = 0 1 0 , alors R et S
0 1
0 0 1
sont inversibles. De plus, B = RAS.
Toutes les matrices considérées dans ce chapitre sont des matrices carrées.
Exemples.
1 2 1 2
= −2.
– Soit A = . Alors det(A) =
3 4 3 4
π a π a
– Soit B = , avec a, x ∈ R. Alors det(B) = = πx − 2a.
2 x 2 x
On définit le déterminant de A comme suit (développement, par exemple, suivant la 1ère ligne) :
a11 a12 a13
a22 a23 a21 a23 a21 a22
det(A) = a21 a22 a23 = a11 − a12
a31 a33 + a13 a31 a32 .
a31 a32 a33 a32 a33
Donc
det(A) = a11 a22 a33 − a11 a32 a23 − a12 a21 a33 + a12 a31 a23 + a13 a32 a23 − a13 a31 a22 .
Mais on peut aussi développer suivant n’importe quelle autre ligne ou colonne. Par exemple,
suivant la 2ème colonne, on aura
4.4 Propriétés
Propriété 1. Si tous les éléments d’une même ligne (resp. colonne) sont nuls alors le
déterminant est nul.
Propriété 2. Si l’on permute deux lignes (resp. colonnes) alors le déterminant change de
signe.
Propriété 3. Si l’on multiplie par α ∈ K tous les éléments d’une ligne (resp.colonne) alors
le déterminant est multiplié par α. Par exemple,
12 4 4 3 1 1 1 1 1
3 1 0 = 4 3 1 0 = 4×3 1 1 0 .
3 0 1 3 0 1 1 0 1
En particulier,
∀α ∈ K, ∀A ∈ Mn (K), det(A) = α n det(A).
Propriété 4. Si une ligne (resp. colonne) s’écrit comme une combinaison linéaire des autres
lignes (resp. colonnes) alors le déterminant est nul. En particulier, si deux lignes (resp. colonnes)
sont égales alors le déterminant est nul.
Propriété 5. Le déterminant ne change pas si l’on rajoute à une ligne (resp. colonne) une
combinaison linéaire des autres lignes (resp. colonnes). Par exemple,
1
det(A−1 ) = .
det(A)
– det(AB) = det(BA).
– Si A et B sont semblables alors det(A) = det(B).
– det(AT ) = det(A).
4.5 Applications
4.5.1 Calcul de l’inverse d’une matrice
Définition 4.5.1 Soit A ∈ Mn (K). La matrice des cofacteurs (Ci j ) des éléments (ai j ) de A,
notée Adj(A) ou Com(A), est appelée matrice adjointe de A ou co-matrice de A.
1
A−1 = (Com(A))T .
det(A)
AX = b,
Proposition 4.5.2 Si A est inversible, alors la solution X̄ de (S) est donnée par
X̄ = A−1 b.
Lorsque la matrice A est inversible alors le système (S) est dit de Cramer. Un système de Cramer
possède une et une seule solution.
Si A est inversible alors les coordonnées x̄1 , . . . , x̄n de l’unique solution X̄ de (S) sont données
par
∆1 ∆2 ∆n
x̄1 = , x̄2 = , . . . , x̄n = .
∆ ∆ ∆
a11 − x a12 ... a1n
a21 a 22 − x ... a2n
det(A − xIn ) =
. . ... .
an1 an2 .... ann − x
1 2
Exemple 5.1 Soit A = . On a
−1 3
1−x 2 = x2 − 4x + 5.
PA (x) =
−1 3 − x
Définition 5.1.2 Soit A ∈ Mn (K). Les racines du polynôme caractéristique PA (x) de A sont
appelées les valeurs propres de A.
Exemple 5.3 Les valeurs propres de la matrice A de l’exemple 5.2 précédent sont λ1 = 0
(double) et λ2 = 3 (simple).
Théorème 5.1.1 Soit A ∈ Mn (K) et soit λ ∈ K. Les conditions suivantes sont équivalentes :
1. λ ∈ K est une valeur propre de A.
2. Ker (A − λ In ) 6= 0.
3. Il existe v ∈ Kn , v 6= 0, tel que (A − λ In )v = 0.
x + y − 2z = 0 x + y − 2z = 0
x + y − 2z = 0
⇐⇒ −2x + y + z = 0 ⇐⇒ 3y − 3z = 0 ⇐⇒
3y − 3z = 0
x − 2y + z = 0 −3y + 3z = 0
x 1 1
⇐⇒ x = y = z ⇐⇒ v = x ⇐⇒ v = x 1 . Donc E3 = Vect 1 .
x 1 1
R On a 1 ≤ dim(Eλ ) ≤ multiplicite de λ .
Théorème 5.1.2 Soient M, N ∈ Mn (K) deux matrices semblables. Alors M et N ont les
mêmes polynômes caractéristiques, et donc les mêmes v.p. et les mêmes s.e. propres.
Démonstration. Soit P ∈ Mn (K) une matrice inversible telle que M = PNP−1 . On a PM (x) =
det(N − xIn ) = det(PMP−1 − xIn ) = det P(M − xIn )P−1 = det(M − xIn ).
où x1 , ..., xk sont les racines 2 à 2 distinctes de p(x) et α1 , ..., αk sont leur multiplicités
respectives.
Exemple 5.5 – Le polynôme p(x) = x3 − 2x2 + x est scindé dans R[x]. En effet, on a
Définition 5.2.2 Soit M ∈ Mn (K). On dit que M est diagonalisable si on peut trouver une
matrice diagonale D ∈ Mn (K) et une matrice inversible P ∈ Mn (K) telles que
M = PDP−1 .
Théorème 5.2.1 Soient M ∈ Mn (K) et P ∈ Mn (K) une matrice inversible. Si M est diago-
nalisable, alors P−1 MP est diagonalisable.
Théorème 5.2.2 Soit M ∈ Mn (K). Alors les conditions suivantes sont équivalentes :
1. La matrice M est diagonalisable.
2. Il existe une base de Kn formée de vecteurs propres de M.
Théorème 5.2.3 Soit M ∈ Mn (K). Alors les conditions suivantes sont équivalentes :
1. La matrice M est diagonalisable.
2. Le polynôme caractéristique pM (x) de M est scindé et la dimension de chaque sous-
espace propre Eλ de M est égale à la multiplicité de λ .
Pour diagonaliser une matrice, on procède de la façon suivante. On calcule le polynôme caracté-
ristique de M, on détermine les v.p. et les s.e. propres de M. Si la condition 2 de ce théorème est
satisfaite, voici comment on forme les matrices P et D :
1. La matrice D : c’est la matrice diagonale obtenue en mettant les valeurs propres λi de M
sur la diagonale, chacune un nombre de fois égal à sa multiplicité, dans l’ordre λ1 , ..., λk .
2. La matrice P : Après avoir construit la matrice D, on construit P en colonnes les compo-
santes (dans la base canonique de Kn ) des vecteurs de bases des s.e. propres Eλ1 , ..., Eλk
dans cet ordre.
On ne calcule pas P−1 sauf pour les applications, par exemple pour le calcul de M n =
PDn P−1 , où on a vraiment besoin de connaitre P−1 .
1 1 1
Exemple 5.6 Revenons à la matrice réelle A = 1 1 1 de l’exemple 5.2. On a vu que
1 1 1
PA (x) = x2 (3 − x), qui est scindé
dans R[x].
Les v.p.
A sont λ
de 1= 0 (double)
λ2 = 3 (simple).
1 0 1
Les s.e. de A sont E0 = Vect 0 , 1 et E3 = 1 . On a dim(E0 ) = 2
−1 −1 1
0 0 0
et dim(E3 ) = 1, donc A est diagonalisable et on a A = PDP−1 , où D = 0 0 0 et P =
0 0 3
1 0 1
0 −1 1 .
−1 1 1
p(A) = an An + ... + a0 In .
1 1 1
Exemple 5.7 Soit M = 1 1 1 . On a pM (x) = x2 (3 − x) = −x3 + 3x2 . Donc, d’après
1 1 1
le théorème de Cayley-Hamilton, on a pM (M) = 0, soit
−M 3 + 3M 2 = 0.
Théorème 5.4.1 Soient f ∈ L (E) et B une base de E. Alors les conditions suivantes sont
équivalentes :
1. λ ∈ K est une v.p. de f .
2. λ est une v.p. de la matrice M de f dans B.