Algèbre Lin Algèbre Bilin
Algèbre Lin Algèbre Bilin
Algèbre Lin Algèbre Bilin
Abe GNAGNE
Table des matières
1.5 Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
n
1.6 Le cas R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2 Applications linéaires 19
2.1 Dénition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3 Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4.1 Dénitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.5.1 Dénition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1
Chapitre 1
V ×V → V
(u, v) 7→ u + v
et
R×V → V
(λ, u) 7→ λu
1. l'associativité de la loi +
(u + v) + w = u + (v + w)
2. La commutativité de la loi +
u+v =v+u
∃0 ∈ E : 0 + u = u + 0 = 0
∀u, ∃t : u + t = t + u = 0
1.u = u
2
1.1. espace vectoriel 1. structure algébrique-espace vectoriel
• Un espace vectoriel consiste en 3 données qui vérient 8 axiomes. Les quatre pre-
miers axiomes ne portent que sur la somme des vecteurs, les deux suivant ne portent que
sur la multiplication par les scalaires et les deux dernières portent sur la compatibilité entre
les deux lois.
• On peut considérer des espaces vectoriels pour lesquels les scalaires sont d'autres
nombres que les nombres réels (rationnels, complexes, etc.). Ce ne sera pas le cas dans ce
cours ; tous les espaces vectoriels rencontrés ici seront réels.
• L'existence du vecteur nul montre que l'ensemble V ne peut pas être vide.
′
Si K est un sous-corps de K, un espace vectoriel sur K est aussi un espace vectoriel
′ ′
sur K (exemple : K = C et K = R).
6. L'ensemble des solutions d'une équation diérentielle linéaire sans second membre.
3
1.2. sous-espaces vectoriels 1. structure algébrique-espace vectoriel
Grâce à la dénition, tout espace vectoriel a les mêmes propriétés générales que les
vecteurs du plan. (Il est donc bon de garder cette exemple type toujours en tête.) Par
exemple, les propriétés suivantes sont toujours vériées.
Théorème 1.2.1. :
Un sous-ensemble E ⊂ V d'un espace vectoriel (V ; +; .) est un sous-espace vectoriel
si et seulement si les trois conditions suivantes sont vériés.
0 ∈ E,
∀u, v ∈ E, u+v ∈E
∀λ ∈ R, ∀u ∈ E, λ.u ∈ E
0∈E
∀u, v ∈ E, ∀λ, µ ∈ R, λ.u + µv. ∈ E
exemples :
♢ Toutes les droites du plan P passant par l'origine, c'est à dire la droite déquation
y = ax, a ∈ R sont des sous-espaces vectoriels. On parle alors de droites vectorielles.
4
1.2. sous-espaces vectoriels 1. structure algébrique-espace vectoriel
♢ Toutes les droites de l'espace E passant par l'origine ainsi que tous les plans passant
par l'origine (plans vectoriels) sont des sous-espaces vectoriels.
Dans l'espace, le plan vectoriel passant par l'origine est déni par l'équation :
ax + by + cz = 0, a, b, c sont des réels, et la droite vectoriel est l'intersection de deux plans
vectoriels passant par l'origine. Elle est dénie par le système suivant
(
ax + by + cz = 0
a′ x + b ′ y + c ′ z = 0
.
Proposition 1.2.1. :
L'intersection E∩F de deux sous-espaces vectoriels E, F d'un espace vectoriel (V ; +; .)
est encore un sous-espace vectoriel
(
x+y+z =0
Soit (a, b, c) ∈ P1 ∩ P2 , alors (a, b, c) est solution du sytème .
x−y+z =0
Ainsi les points (a, b, c)
dénissent une droite. Alors P1 ∩ P2 est une droite vectoriel qui
3
est un sous espace vectoriel de l'espace vectoriel R .
Dénition 1.2.2. :
On montre que E+F est un sous espace-vectoriel de (V ; +; .). C'est le plus petit
sous-espace contenant la réunion de deux sous-espaces vectoriels : E∪F ⊂E+F .
5
1.3. combinaison linéaire et générateurs 1. structure algébrique-espace vectoriel
exercices :
Exercice 1
Exercice 2
Dire que A n'est pas un sous-espace vectoriel signie qu'il n'est pas stable pour la
somme des vecteurs ou pour la multiplication par les scalaires. Pour combler ces lacunes,
on considère maintenant toutes les sommes de multiplications de vecteurs de A.
Dénition 1.3.1. :
λ1 a1 + λ2 a2 + ... + λn an
avec λ1 , λ2 , ..., λn ∈ R etu1 , u2 , ..., un ∈ A sont appelés des combinaisons linéaires de
vecteurs de A.
6
1.3. combinaison linéaire et générateurs 1. structure algébrique-espace vectoriel
♢A ⊂ Vect(A)
A ⊂ Vect(A) ⊂ U
exemple :
♢L'espace vectoriel engendré par une paire de vecteurs non colinéaires A = {u; v}
de l'espace E est le plan vectoriel qui les contient.
Lorsque le sous-espace vectoriel engendré par A vaut l'espace vectoriel V tout entier,
on dit que la famille de vecteurs A engendre V ou que c'est une famille génératrice.
Dit autrement, cela signie que tout vecteur u de V peut s'écrire sous la forme d'au
moins une combinaison linéaire de vecteurs de A :
u = λ1 u1 + λ2 u2 + ... + λn un
exemples :
♢ Toute paire de vecteurs non colinéaires du plan P en forme une famille génératrice.
♢ La famille de vecteurs {(1, 0, ...0); (0, 1, 0, ..., 0); ...; (0, ..., 0, 1)} engendre l'espace
vectoriel R. En eet, tout n-uplets (x1 , ..., xn ) ∈ R s'écrit comme combinaison linéaire
(x1 , ..., xn ) = x1 (1, 0, ..., 0) + x2 (0, 1, 0, ..., 0) + ... + xn (0, ..., 0, 1).
♢ L'espace vectoriel des nombres complexes C est engendré par {1, i} car ils s'écrivent
tous comme un combinaison linéaire z = x.1 + y.i.
♢ La famille de polynômes {1, X, ..., X d } engendre l'espace vectoriel Rd [X] des po-
lynômes de degré inférieur ou égal à d. En eet, tout polynôme P s'écrit comme une
combinaison linéaire
P = ad X d + ... + a1 X + a0 .1
7
1.3. combinaison linéaire et générateurs 1. structure algébrique-espace vectoriel
Si un espace vectoriel est engendré par une famille nie de vecteurs, on dit qu'il est
de type ni.
Tous les espaces vectoriels rencontrés dans ce cours seront de type ni.
exercices :
Exercice 1 :
S = {(x, y, z) ∈ R3 : x − y + z = 0}
1. Montrer que l'ensemble S est un sous-espace vectoriel de R3 .
2. En donner plusieurs familles génératrices.
Exercice 2
(
x + 2y = 0
Soit S l'ensemble des solutions du système
2y + z = 0
S = {(c, y, z) ∈ R3 : x + 2y = 0 et 2y + z = 0}
3. Déterminer toutes les manières d'écrire les vecteurs (0, 0, 0, 0) et (1, 3, 5, 3) comme
combinaisons linéaires des vecteurs de F3 .
8
1.4. dépendance linéaire 1. structure algébrique-espace vectoriel
On note R3 [X] l'ensemble des polynômes à coecients réels de degré inférieur ou égal
à 3. Soit
E = {P ∈ R3 [X] : (X + 1)P ′ − (2 − X 2 )P ′′ = 0
1. Montrer que l'ensemble E est un sous-espace vectoriel de R3 [X].
2. En donner une famille génératrice.
u = λ1 u1 + λ2 u2 + ... + λn un
c'est-à-dire de l'unicité des coecients λ1 , λ2 , ..., λn . Pour cela, on va commencer avec le
cas où u est le vecteur nul.
Une famille A de vecteurs d'un espace vectoriel (E, +, .) est dite libre si
λ1 u1 + λ2 u2 + ... + λn un = 0 ⇒ λ1 = λ2 = ... = λn = 0
Cela signie qu'il n'y qu'une seule manière d'écrire le vecteur nul comme combinai-
son linéaire de vecteurs de A, c'est-à-dire avec la combinaison linéaire triviale où tous les
coecients sont nuls.
exemple :
Montrons qu'ils sont linéairement indépendants. Supposons qu'il existe deux nombres
réels λ, µ tels que λu + µv = 0. En coordonnées, cela signie que λ(1, 0) + µ(1, 1) = (0, 0).
Si on développe, on trouve
Deux vecteurs sont linéairement indépendants si et seulement s'ils ne sont pas co-
linéaires, c'est-à-dire si aucun des deux ne s'écrit un scalaire fois l'autre, u = αv par
exemple.
9
1.5. base 1. structure algébrique-espace vectoriel
A l'inverse, une famille A de vecteurs d'un espace vectoriel (E, +, .) est dite liée si elle
n'est pas libre. Cela signie que le vecteur nul peut s'écrire avec au moins une combinaison
linéaire non triviale de vecteurs de A :
exemple :
On considère maintenant la famille {u, v, w} formée des trois vecteurs du plan P de coor-
données u = (1, 0), v = (1, 1) et w = (0, −2).
Pour voir que cette famille est liée, il sut d'exhiber une combinaison linéaire non
triviale du vecteur nul. La relation −2u + w = −2u reliant ces trois vecteurs peut se
réécrire
−2u + 2v + w = 0
remarque :Toute famille contenant le vecteur nul est liée . En eet, il sut de
considérer la combinaison linéaire non triviale du vecteur nul suivante : 1.0 = 0 pour faire
capoter l'aaire.
La proposition suivante nous dit qu'il sut que le vecteur nul s'écrive de manière
unique comme combinaison linéaire de vecteurs d'une famille A pour que cette propriété
soit vraie pour tous les vecteurs engendré par A.
Proposition 1.4.1. :
Une famille A de vecteurs d'un espace vectoriel est libre si et seulement si tout vecteur
de l'espace Vect(A) engendré par A s'écrit de manière unique comme combinaison linéaire
de vecteurs de A.
Dénition 1.4.3. (coordonnées) :
Soit A une famille libre de vecteurs d'un espace vectoriel. Comme tout vecteur u∈
Vect(A) s'écrit de manière unique
u = λu1 + λ2 u2 + ... + λn un ,
les coecients (λ1 , λ2 , ..., λn ), qui sont uniques, sont appelés les coordonnées de u dans la
familles A.
1.5 Base
Une famille A est génératrice si tout vecteur u∈E peut s'écrire
u = λu1 + λ2 u2 + ... + λn un
et une famille est libre si cette écriture est unique. C'est ces deux cas à la fois qui nous
intéressent.
10
1.5. base 1. structure algébrique-espace vectoriel
Une famille de vecteurs d'un espace vectoriel est une base si elle est libre et génératrice.
Proposition 1.5.1. :
Une famille A de vecteurs d'un espace vectoriel (E, +, .) est une base si et seulement
si tout vecteur u ∈ E sécrit de manière unique comme combinaison linéaire d'éléments de
A:
u = λu1 + λ2 u2 + ... + λn un
exemples :
♢ Toute paire de vecteurs non colinéaires {u, v} du plan P en forme une base.
♢La famille de vecteurs {e1 (1, 0, ..., 0), e2 (0, 1, 0, ..., 0), ..., e3 (0, ..., 0, 1)} est une base
de l'espace vectoriel Rn . Elle est appellée la base canonique de Rn .
♢L'espace vectoriel des nombres complexes C admet la famille {1, i} pour base.
♢La famille de polynômes {1, X, ..., X d } est une base de l'espace vectoriel Rd [X] des
polynômes de degré inférieur ou égal à d.
Exercice :
Exercice 1
Soit B = {e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1)} la base canonique de R3 . Soit
Théorème 1.5.1. :
Toutes les bases d'un espace vectoriel de type ni ont le même nombre de vecteurs.
La dénition suivante donne un nom au nombre d'éléments d'une base.
Exemples :
11
1.5. base 1. structure algébrique-espace vectoriel
♢La dimension de l'espace vectoriel Rd [X] des polynômes de degré inférieur ou égal
à d est dimRd [X] = d + 1
La notion de base contient deux notions antinomiques : la famille doit être génératrice
(il faut susamment de vecteurs) et libre (il n'en faut pas trop). Les deux théorèmes
suivants montrent que l'on peut modier une famille vériant une propriété pour avoir les
deux.
exemple :
Dans l'espace R3 , on considère la famille {u = (2, 0, 0); v = (1, 1, 1)}. Cette famille
est bien libre car les deux vecteurs u et v ne sont pas colinéaires.
Tout vecteur w n'appartenant pas un plan Vect({u, v}) engendré par u et v sut à
3
compléter {u, v} en une base {u, v, w} de R .
exemple :
Proposition 1.5.2. :
Soit E un espace vectoriel de type ni.
♢ Tout sous-espace vectoriel F ⊂ E vérie dimF ⩽ dimE , avec égalité dimE = dimF
si et seulement si E = F .
12
1.6. le cas ∖n 1. structure algébrique-espace vectoriel
coordB : V → Rn
u = λ1 u1 + ... + λn un 7→ (λ1 , ..., λn )
1.6 Le cas Rn
A = {u1 = (u1,1 , u2,1 , u3,1 , ..., un,1 ), u2 = (u2,1 , u2,2 , ..., u2,n ), ...., un = (un,1 , un,2 , ...., un,n )}
Soit
n
une famille de vecteurs de R . On les écrit d'abord sous forme de colonnes, ce qui ne change
rien au fond du problème,
u1,1 u2,1 un,1
u1,2 u2,2 un,2
u1 = .. , u2 = .. , ...., un = .. .
. . .
u1,n u2,n un,n
Puis, on les range dans un tableau que nous appelons matrice qui sera vu dans la
suite :
u1,1 u1,2 . . . u1,n
u2,1 u2,2 . . . u2,n
MA = ..
. .. .
. . . .
. .
un,1 un,2 . . . un,n
exemple :
13
1.6. le cas ∖n 1. structure algébrique-espace vectoriel
On dit que deux matrices sont équivalentes par colonne si on peut passer de l'une à
l'autre grâce aux opérations élémentaires sur les colonnes. Deux matrices équivalentes par
colonne sont notées M ∼N
En eectuant les opérations sur les colonnes de MA , on reste dèlement dans le sous-
espace vectoriel engendré par la famille A, comme le montre la proposition suivante.
Proposition 1.6.1. Soit N ∼ MA une matrice équivalente par colonne à MA . Les vec-
teurs colonnes de N forment une famille B de vecteurs, i.e. N = MB , qui appartiennent
au sous-espace vectoriel engendré par A :B ⊂ Vect(A).
Vect(B) = Vect(A)
exemple Soit la matrice dont les colonnes sont les vecteurs de la famille A de
l'exemple précédent. On a en faisant les transformations sur les colonnes
1 2 3 1 0 0 1 0 0
2 4 6 2 0 0 2 0 0
MA = ∼ ∼ =N
−1 1 3 −1 3 6 −1 3 0
3 −2 −7 3 −8 −16 3 8 0
Pour passer de la première à la deuxième matrice les opérations suivantes ont été
eectuées
C2 ← C2 − 2C1
C3 ← C3 − 3C1
C3 ← C3 − 2C2
Donc les vecteurs B = {(1, 2, −1, 3), (0, 0, 3, −8)} font partie de Vect(A) et ils l'engendrent.
Grâce à aux opérations élémentaires sur les colonnes, on peut mettre la matrice MA
sous forme échelonnée, c'est-à-dire sous forme suivante :
14
1.6. le cas ∖n 1. structure algébrique-espace vectoriel
0 0 ... 0 0 ... 0
.. .. .
.
.
.
.
.
. . . . .
1 0
.
.
⋆ .
.
.. 1 . . . ...
MA =
.. . .
⋆ . 0 . . .
.
.. . . .
1 0 . . . 0
.
. .
⋆ .. .
.
. . . . .
.. .. .
.
.
.
.
.
⋆ ⋆ ... ⋆ 0 ... 0
Les premières colonnes sont formées de haut en bas d'abord de 0 puis d'un 1. De
gauche à droite, les 1 apparaissent strictement de plus en plus bas. Obtenu en utilisant la
méthode du pivot de Gauss.
Proposition 1.6.2. :
Les vecteurs colonnes non nuls de la matrice échelonnée obtenue à partir de MA
forment une base du sous-espace vectoriel Vect(A) engendré par A. Donc, le nombre de
colonnes non nulles de la matrice échelonnée est égal à la dimension de Vect(A).
exemple :
Dans l'exemple précédent la famille A = {(1, 2, −1, 3), (2, 4, 1, −2), (3, 6, 3, −7)},le
calcul précédent montre que la famille B = {(1, 2, −1, 3), (0, 0, 3, −8)} forme une base de
Vect(A). On déduit aussi de cette proposition que dimVect(A) = 2.
Tout ceci démontre que la famille initiale A n'est pas libre. En eet, par la proposi-
tion 1.5.2, on sait que si la famille A était libre, elle engendrerait un sous-espace vectoriel
4
de dimension 3. La famille A n'est pas non plus une famille génératrice de tout l'espace R
car elle n'a que 3 éléments. En eet, on savait, toujours grâce à la proposition 1.5.2 qu'une
4
famille génératrice de l'espace R de dimension 4 doit avoir au moins 4 éléments.
exercices :
Exercice 1
v1 = (1, 2, −3, 4, 0, 1), v2 = (1, 3, −4, 6, 5, 4), v3 = (3, 8, −11, 16, 10, 9)
15
1.7. somme directe 1. structure algébrique-espace vectoriel
A = {(1, 2, 3, 1); (2, 1, 3, 1); (1, 1, 2, 3); (1, 1, 3, 2); (3, 2, 5, 4)}
Exercice 4
Vect({1 + X + X 2 , −1 + X 2 , 2 + X})
1. Donner sa dimension.
16
1.7. somme directe 1. structure algébrique-espace vectoriel
exemple :
3
On considère deux plans suivants disjoints non parllèles E et F de l'espaceR , dont la
3
somme engendre tout l'espace E + F = R .
Leur intersection E∩F est une droite, elle est donc de dimension 1. La formule de
la proposition est ici bien vériée car les dimensions respectives donnent :
2+2−1=3
Comme pour les combinaisons linéaires et les familles libres, on peut se demander
sous quelle condition l'écriture u+v des éléments de E +F est unique. La démarche et la
conclusion sont les mêmes : il sut de demander que le vecteur nul 0 s'écrive de manière
unique. Or cette condition est équivalente à E ∩ F = {0}.
E⊕F
Proposition 1.7.2. :
Deux sous-espaces vectoriels E et F sont en somme directe si et seulement si tout
vecteur de leur somme E + F s'écrit de manière unique u + v, avec u ∈ E et v ∈ F .
17
1.7. somme directe 1. structure algébrique-espace vectoriel
projEF : W → E
w = u + v 7→ u
projFE : W → F
w = u + v 7→ v
Dénition 1.7.4. (Projections) :
D = {(x, y, z) ∈ R3 : 3x + y − z = 0 et x + 2y + z = 0}
et le plan P d'équation
P = {(x, y, z) ∈ R3 : x + y − 2z = 0
1. Montrer qu'ils sont supplémentaires l'un de l'autre dans R3 .
2. Donner l'expression des projections projPD sur D parallèlement à P et
P
projD sur
P parallè- lement à D.
18
Chapitre 2
Applications linéaires
2.1 Dénition
Comme un espace vectoriel est la donnée d'un ensemble et de deux lois, on étudie les
applications ensemblistes entre deux espaces vectoriels qui respectent la somme des vecteurs
et la multiplication par les scalaires. Plus précisément, cela correspond à la dénition
suivante.
Soient (E et F deux espaces vectoriels. Une application f :E→F est dite linéaire
si
pour tout u1 , u2 ∈ U et λ ∈ R. On les appelle aussi des morphismes, voire des homéomor-
phismes.
Proposition 2.1.1. :
Les deux conditions sont équivalentes au seul fait que l'application f préserve les com-
binaisons linéaires de deux vecteurs
f (λ1 u1 + λ2 u2 = λ1 f (u1 ) + λ2 f (u2 )
Ceci est encore équivalent au fait que f préserve n'importe quelle combinaison linéaire
Il est facile de voir que toute application linéaire envoie le vecteur nul de E sur le vecteur
nul de F :
f (0E ) = 0F
exemple :
19
2.1. dénition 2. applications linéaires
♢ Les applications (
R→R
x 7→ ax
avec a∈R sont linéaires.
♢ Pour toute décomposition d'un espace vectoriel en somme directe de deux sous-
espaces vectoriels W = E ⊕ F , les deux projections projFE et projEF sur E parallèlement à
V et sur V parallèlement à E sont des applications linéaires.
(
idF : F → F
v 7→ v
est linéaire.
contre-exemple :
♢ l'application (
R→R
x 7→ x + 2
n'est pas linéaire, car l'image de 0 n'est pas 0
♢ l'application (
R→R
x 7→ x2
n'est pas linéaire. Certes l'image de 0 est 0 mais elle ne respecte ni la somme
(x + y)2 = x2 + 2xy + y 2 ̸= x2 + y 2
ni la multiplication
(λx)2 = λ2 x2 ̸= λx2
La proposition suivante va nous rendre l'étude des applications linéaires beaucoup
plus facile que celle des applications quelconques. Elle arme qu'une application linéaire
est complètement caractérisée pour l'image des vecteurs d'une base.
Proposition 2.1.2. :
Soit B = {u1 , ..., um } une base de E et soit F = {v1 , ..., vm } une famille de F , il
existe une unique application linéaire f : E → F qui envoie la famille B sur la famille F :
20
2.2. noyau et image 2. applications linéaires
On note l'ensemble des applications linéaires entre les deux espaces vectoriels E et F
par
Hom(E, F ) = {f : E → F : f est linéaire}
g ◦ f : E → W.
Proposition 2.1.3. :
La composée g ◦ f de deux applications linéaire f et g est encore une application
linéaire.
Proposition 2.2.1. :
Soit f : E → F une application linéaire.
f (U ) = {f (u) ∈ F : u ∈ U }
f −1 (V ) = {u ∈ E : f (u) ∈ V }
21
2.2. noyau et image 2. applications linéaires
Proposition 2.2.2. :
Lorsqu'une application linéaire f : E → F est bijective, alors son application réci-
proque f −1 : E → F est linéaire.
exercices :
Exercice 1
Exercice 2
Dans l'espace vectoriel R3 , on note E = {e1 , e2 , e3 } la base canonique
e1 7→ f1 , e2 7→ f2 , e3 7→ f3
22
2.3. rang 2. applications linéaires
Proposition 2.2.3. :
Soit f : E → F une application linéaire
1. L'application f est un épimorphisme si et seulement si, pour toute toute famille
génératrice A = {a1 , ..., an } de E , son image f (A) = {f (a1 ), ..., f (an )} par f est
une famille génératrice de F
2. L'application f est un monomorphisme si et seulement si, pour toute toute famille
libre A = {a1 , ..., an } de E , son image f (A) = {f (a1 ), ..., f (an )} par f est une
famille libre de V
3. L'application f est un isomorphisme si et seulement si, pour toute toute base
A = {a1 , ..., an } de E , son image f (A) = {f (a1 ), ..., f (an )} par f est une base
de F .
2.3 Rang
Dénition 2.3.1. :
rg(f ) = dimImf
exemple :
Considérons le cas des applications linéaires f : Rm → Rn . Nous avons vu précédemment
n
que l'image de f était le sous-espace vectoriel de R engendré par les vecteurs colonnes de
la matrice A, Imf = Vect(c1 , ..., cm ). Le rang de l'application f est donc la dimension de
ce sous-espace. Il est égal au nombre de colonnes non nulles dans la matrice échelonnée ;
c'est donc le rang de la matrice A.
Proposition 2.3.1. :
Pour toute application linéaire f : E → F , on a rgf ⩽ dimF avec égalité si et
seulement si f est un épimorphisme.
Le théorème fondamental suivant relie le rang d'une application linéaire à la dimension
de sa source.
23
2.4. les matrices 2. applications linéaires
exercice(Sous-espace vectoriel)
F = {(x, y, z, t) ∈ R4 : 2x − y = 0, x − y + t + z = 0}
Proposition 2.3.2. :
Soit f : E → F une application linéaire entre deux espaces vectoriels de dimensions
nies.
1. Si l'application f est un épimorphisme E → F , alors dimE ⩾ dimF .
2. Si l'application f est un monomorphisme E → F , alors dimE ⩽ dimF
3. Si l'application f est un isomorphisme E → F , alors dimE = dimF
Dans le cas de deux espaces vectoriels de même dimension nie, le théorème suivant montre
que toutes les situations ne peuvent pas arriver.
Théorème 2.3.2. :
Soit f : E → F une application linéaire entre deux espaces vectoriels de même
dimension nie. On a les équivalences suivantes.
24
2.4. les matrices 2. applications linéaires
S'il n'y a pas de confusion, une telle matrice sera notée (aij ) et représentée par un tableau
de scalaires à n colonnes et m lignes :
a11 a12 . . . a1n
a21 a22 . . . a2n
A = ..
. .
. .
. . .
am1 an2 . . . amn
Mm,n (R) l'ensemble des matrices carrées de type (m, n) à coecients dans R. Si
On note
A ∈ Mm,n (R), on note aij le coecient de A situé à la i-ème ligne et àla j -ème colonne.
Une matrice de type (n, n) est dite carrée. On note Mn (R) l'ensemble des matrices
carrées de type (n, n). Une matrice de type (m; 1) est dite colonne et une matrice de type
(1; n) est dite ligne.
La diagonale d'une matrice carrée A = (aij)1⩽i,j⩽n de type (n ;n) est formée des
coecients aii , pour i = 1, 2, ..., n ; on note
Une matrice est dite diagonale , si tous ses coecients non diagonaux sont nuls,
i.e.,aij =0 pour tout i ̸= j . On notera
a11 0 ... 0
.. .
. .
0 a22 .
Diag(a1 , a2 , ...a n) = .
.. ..
.. . . 0
0 . . . . . . ann
In = Diag(1, 1, 1, ..., 1)
2.4.1.2. Matrices triangulaires. Une matrice carrée est dite triangulaire supérieure
(resp. triangulaire inférieure), si tous ses coecients en dessous (resp. au dessus) de la
diagonale sont nuls, i.e., aij = 0, pour tout i>j (resp. i < j ). Une matrice triangulaire
supérieure (resp. inférieure) sera notée
⋆ ⋆ ... ⋆ ⋆ 0 ... 0
.. .. . . .. .
!
.
0 . . . ⋆ .. . .
.
resp.
. .. .. ⋆ ... ..
.. . . ⋆ . 0
0 ... 0 ⋆ ⋆ ... ⋆ ⋆
2.4.1.3. Espace vectoriel des matrices. Soient m et n deux entiers naturels non
nuls. On dénit sur l'ensemble Mm,n (R) les opérations
25
2.4. les matrices 2. applications linéaires
A + B = (aij + bij )
(aij )⊤ = (aji ),
A⊤ )⊤
pour tous i = 1, 2, ..., m j = 1, 2, 3, ..., n. Pour toute matrice A,
et on a
n
X
AB = (cij ), aveccij = aik bkj .
k=1
Im .A = A = A.In .
26
2.4. les matrices 2. applications linéaires
3. (distributivité), pour toutes matrices compatibles A ∈ Mm,n (R), B, CMn,p (R) et DMp,q (R),
on a
AB = In et BA = In
La matrice B est alors appelée la matrice inverse de A, on note alors B = A−1 . On dé-
duit immédiatement de cette dénition que l'inverse d'une matrice est unique. L'opération
d'inversion vérie les propriétés suivantes :
(AB)−1 = B −1 A−1
x + y + 3z = b1
2x + z = b2
x + y + 2z = b3
27
2.4. les matrices 2. applications linéaires
−5x1 + x2 = b1 − 3b2
2x1 + x3 = b2
−3x1 + x2 = −2b2 + b3
−2x1 = b1 − b2 − b3
2x1 + x3 = b2
−3x1 + x2 = −2b2 + b3
1 1 1
x = − b1 + b2 + b3
1
2 2 2
3 1 5
x2 = − b1 − b2 + b3
2 2 2
x = b − b
3 1 3
x = A−1 B
avec
− 12 21 1
2
A−1 = − 32 − 21 25
1 0 −1
Calculer l'inverse de la matrice suivant en utilisant la méthode précédente
1 0 −1
A = 1 −1 0
1 −1 1
28
2.5. matrice associée à une application linéaire 2. applications linéaires
que l'on tranforme en utilisant les opérations sur les lignes pour obtenir
I|A−1
Pour cela, il sut de choisir une base A = {u1 , ..., um } de E et une base B =
m n
{v1 , ..., vn } de V . On peut alors identier l'espace U à R et l'espace V à RN grâce aux
isomorphismes "coordonnées" et "combinaison linéaire" .
a1,1 . . . a1,m
M atB,A (f ) = ... .. .
.
. .
an,1 . . . an,m
Pour ne pas faire d'erreur et bien vous souvenir de la dénition, n'hé- sitez pas à
écrire en bas des colonnes les vecteurs représentés et à droite de la matrice la base B de V.
Cela donne
29
2.5. matrice associée à une application linéaire 2. applications linéaires
exemples :
p : R3 → R3
x x
y 7→ y
z 0
)
( 1 1 1
B= u1 = 1 , u2 = 1 , u3 = 2
1 0 3
On a
1 1 1
p(u1 ) = 1 = u2 , p(u2 ) = 1 = u2 , p(u3 ) = 2 = −3u1 + 3u2 + u3
0 0 0
0 0 −3
M atB (p) = 1 1 3
0 0 1
30
2.5. matrice associée à une application linéaire 2. applications linéaires
Proposition 2.5.1. :
Soient E et V deux espaces vectoriels de dimensions respectives n et m. L'application
Φ : L(U, V ) → Mm,n (R) dénie par
Φ(f ) = M atB,A (f )
v1 v2 ... vn
u1 p1,1 p1,2 ... p1,n
u2
p2,1 p2,2 ... p2,n
P = .. .. . = M atB′ ,B (idU )
. ..
. . .
. . . .
un pn,1 pn,2 . . . pn,n
[u]B , [u]B′ ,
31
2.5. matrice associée à une application linéaire 2. applications linéaires
on a :
[u]B = P [u]B′
ou de façon équivalente
[u]B′ = P −1 [u]B
Proposition 2.5.2. :
Soient E et E ′ deux R-espaces vectoriels de dimension nie et f : E → E ′ une appli-
cation linéaire. Soient B, B′ deux bases de E , C , C ′ deux bases de E ′ et P = M atB′ ,B (idE )
et Q = M atC ′ ,C (Id′E ) les matrices de changements de bases associées. Alors
Corollaire 2.5.1. :
Dans le cas d' un endomorphisme f : E → E , si on note P = M atB′ ,B (id)la matrice
de passage de la B à la base B′ et A = M atB (f ) la matrice de f dans la base B, alors la
matrice de f dans la base B′ est
M atB′ (f ) = P −1 AP
exemple :
On considère l'application linéaire
f: R3 → R3
(x, y, z) 7→ (x − z, y − z, 0).
Sa matrice dans la base canonique Bcan = {e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1)} est
1 0 −1
A = 0 1 −1
0 0 0
1 0 1
P = 0 1 0 .
0 1 1
Son inverse est
1 0 −1
P −1 = 0 1 −1
0 0 1
Au nal la matrice représentant l'endomorphisme f dans la base B est donnée par le produit
1 0 −1 1 0 −1 1 0 1
M atB = P −1 AP = P −1 = 0 1 −1 . 0 1 −1 . 0 1 0
0 0 1 0 0 0 0 1 1
32
2.5. matrice associée à une application linéaire 2. applications linéaires
D'où
1 0 0
M atB (f ) = 0 1 0
0 0 0
On constate que cette nouvelle base permet d'exprimer plus simplement l'endomor-
phisme f.
Deux matrices A et B de Mn (R) sont dites semblables, s'il existe une matrice inver-
sible P de Mn (R) telle que
B = P −1 AP
Deux matrices semblables représentent le même endomorphisme dans des bases dif-
férentes.
La trace d'une matrice carrée A = (aij) de Mn (R) est la somme des coecients de
sa diagonale
n
X
tr(A) = aii
i=1
Proposition 2.5.3. :
L'application tr : Mn (R) → R est une forme linéaire vériant, pour toutes matrices
A et B de Mn (R),
tr(AB) = tr(BA)
Dénition 2.5.4. (Trace d'un endomorphisme) : La trace d'un endomorphisme f : E → E
est dénie par la trace de la matrice associée dans une base B de E,
Proposition 2.5.4. :
La trace d'un endomorphisme ne dépend pas de la base avec laquelle on la calcule
Proposition 2.5.5. :
Deux matrices semblables ont la même trace,
tr(B) = tr(P −1 AP ).
33
2.5. matrice associée à une application linéaire 2. applications linéaires
Im(A) = {AX : X ∈ Rn }
Proposition 2.5.6. :
L'image d'une matrice A de Mm,n (R) est le sous-espace vectoriel de Rm engendré
par les vecteurs colonnes de A
Ker(A) = {X ∈ Rn : AX = 0}
AX = 0.
Le rang d'une matrice A de Mm,n (R) est le rang de la famille de ses vecteurs colonnes
dans Rm . On le note rangA. Autrement dit,
rangA = dim(ImA).
Proposition 2.5.7. :
Soit A une matrice de Mm,n (R). Le rang de A vérie les propriétés suivantes :
1. rangA ⩽ inf {m, n}
34
2.5. matrice associée à une application linéaire 2. applications linéaires
2. rangA = rang(A⊤ ) (en particulier le rang de A est aussi le rang des vecteurs
lignes),
3. KerA = {0} si, et seulement si, rangA = n
4. Ker(A⊤ ) = {0} si, et seulement si, rangA = m,
5. si m = n, alors A est inversible si, et seulement si, rangA = n.
rangA = rang(QAP )
35
Chapitre 3
3.1 Dénitions
Dénition 3.1.1. :
det : Mn (R) → R
A 7→ detA
Comme
a11 a12 . . . a1n
a21 a22 . . . a2n
A = (aij ) = .. ,
. .
. . .
. .
an1 an2 . . . ann
le déterminant de A detA est déni par
a11 a12 . . . a1n
a21 a22 . . . a2n
detA = . .
. .
.. .
.
.
.
an1 an2 . . . ann
Dénition 3.1.2. :
Com(A) = Ã = (Ai,j )
36
3.1. dénitions 3. déterminant d'une matrice carrée
a11 . . . a1j . . . a1n
. . .
. . .
. . .
i+j
Aij = (−1) ai1 . . . aij . . . ain
. . .
.. .
.
.
.
a . . . a . . . a
n1 nj nn
Pour
a12 a22
A=
a21 a22
le déterminant est
a a
det(A) = 11 12
= a11 a22 − a21 a12
a21 a22
Pour
a11 a12 a13
A = a21 a22 a23
a31 a32 a33
le déterminant est donné par
a11 a12 a13
det(A) = a21 a22 a23
a31 a32 a33
1+1
a22 a23 1+2
a12 a13 1+3
a12 a13
= (−1) a11 + (−1) a21 + (−1) a31
a32 a33 a32 a33 a22 a23
= (a11 a22 a33 + a21 a32 a13 + a31 a12 a23 ) − (a11 a32 a23 + a21 a12 a33 + a31 a22 + a31 a13 )
37
3.2. propriétés su déterminant 3. déterminant d'une matrice carrée
Proposition 3.2.1. :
1. Le déterminant d'une matrice dont une colonne (ou une ligne ) est multiple d'une
autre colonne (ou ligne ) est nul.
2. Le déterminant d'une matrice dont deux colonnes (ou deux lignes) sont égales est
nul.
3. Le déterminant d'une matrice change de signe, lorsque l'on échange deux colonnes
Autres propriétés.
Proposition 3.2.2. :
Soient A, B ∈ Mn (R).
1. det(AB) = det(A)det(B).
2. det(A⊤ ) = det(A)
3. det(An ) = (det(A))n
On a alors
1
det(A−1 ) =
det(A)
Théorème 3.2.1. :
Pour toute matrice A de Mn (R), on a :
38
3.3. déterminant d'un endomorphisme 3. déterminant d'une matrice carrée
Proposition 3.3.1. :
Deux matrices semblables ont le même déterminant.
Proposition 3.3.2. :
Soit U un R-espace vecetoriel de dimension nie n et soit f un endomorphisme de
E . On appelle déterminant de f le déterminant de la matrice M atB (f ) qui représente f
dans une base quelconque B de E :
Proposition 3.3.3. :
Soit f : E → E ′ une application linéaire entre deux R-espaces vectoriel de même
dimension nie. Les assertions suivantes sont équivalentes :
1. detf est non nul,
2. f est injective,
3. f est surjective,
4. f est bijective,
5. Ker(f ) = {0E }
6. Im(f ) = E ′
7. rang(f ) = dim(E ′ )
39