Integration Segment
Integration Segment
Integration Segment
A p p l i c at i o n s l i n é a i r e s
1.1 Généralités
Définition 1. Soient E et F deux K-espaces vectoriels et soit f : E −→ F une application de E
dans F. On dit que f est une application linéaires si elle vérifie les deux conditions suivantes :
Exemples 1.
1. Si E et F sont deux K-espaces vectoriels alors l’application nulle de E dans F qui à tout
vecteur u ∈ E associe le vecteur nul 0F est linéaire.
1
C H A P T E R 1 . A P P L I CAT I O N S L I N É A I R E S
3. Soit K[X] désigne l’ensemble des polynômes à une indeterminée à coefficients dans K, on
rappelle que K[X] est un K-espace vectoriel. L’application F : K[X] −→ K[X], F(P ) := P 0
qui à chaque polynôme associe sa dérivée est linéaire : c’est un endomorphisme de K[X].
4. Soient a, b ∈ R tel que a<b. Notons C0 ([a, b], R) l’ensemble des fonctions continues de
l’intervalle [a, b] à valeurs dans R, on rappelle que C0 ([a, b], R) est un R-espace vectoriel.
L’application I : C0 ([a, b], R) −→ R donnée par
Z b
I(f ) := f (x)dx,
a
qui à chaque fonction continue associe son intégrale sur [a, b] est linéaire : c’est une forme
linéaire sur C0 ([a, b], R).
Notation. Dans la suite, on désigne par L(E, F) l’ensemble des applications linéaires de
E dans F où E et F sont deux K-espaces vectoriels.
Proposition 3. Soient E et F deux K-espaces vectoriels, alors (L(E, F), +, ·) est un K-espace
vectoriel i.e c’est un sous-espace vectoriel de (F(E, F), +, ·).
2 P r o f . Na b i l M e h d i
Prof. Na b i l M e h d i 1 . 2 . I M AG E E T N OYAU D ’ U N E A P P L I CAT I O N L I N É A I R E
D’autre part l’image réciproque de B par f est le sous-ensemble de X noté f −1 (B) et donné
par :
f −1 (B) := {x ∈ X, f (x) ∈ B}.
Dans le cas d’une application linéaire entre deux espaces vectoriels, on a le résultat
important suivant :
Les applications linéaires injectives envoient familles génératrices sur familles génératri-
ces.
1. Si {e1 , . . . , ek } est une famille génératrice de E, alors Im(f ) := {f (e1 ), . . . , f (ek )}. En partic-
ulier, si f est surjective alors {f (e1 ), . . . , f (ek )} est une famille génératrice de F.
2. Si {e1 , . . . , ek } est une famille libre de E et que f est injective, alors {f (e1 ), . . . , f (ek )} est
une famille libre de f .
3
C H A P T E R 1 . A P P L I CAT I O N S L I N É A I R E S
Ensuite, afin de montrer que f est un automorphisme, il suffit de montrer que ker(f ) = {(0, 0)}
et que Im(f ) = R2 . Commençons par calculer ker(f ), on a :
D’un autre côté, puisque {(1, 0), (0, 1)} est une base de R2 alors {f (0, 1), f (1, 0)} est une famille
génératrice de Im(f ) d’après la Proposition ?? i.e
Im(f ) = vect{f (0, 1), f (1, 0)} = {(1, 1), (−1, 1)}.
De plus, on a montrer que f est injective et donc par la Proposition ?? la famille {(1, 1), f (−1, 1)}
est libre, ainsi dim Im(f ) = dim R2 = 2 ce qui montre que Im(f ) = R2 . On conclut alors que f
est un automorphisme de R2 .
1.3 Endomorphismes
Si E est un K-espace vectoriels, on utilise la notation L(E) pour désigner l’ensemble des
endomorphismes de E i.e L(E) := L(E, E). Nous avons vu que L(E) est un sous-espace
vectoriel de F(E, E), de plus il est clair que pour tout f , g ∈ L(E),
g ◦ f ∈ L(E) et f ◦ g ∈ L(E),
c’est à dire que L(E) est stable par composition, cependant on a en général f ◦ g , g ◦ f
comme on peut voir dans l’exemple suivant :
pour tout (x, y) ∈ R2 . On vérifie que (g ◦ f )(1, 1) = (−1, 2) et que (f ◦ g)(1, 1) = (−2, 1) ce qui
montre que g ◦ f , f ◦ g.
4 P r o f . Na b i l M e h d i
Prof. Na b i l M e h d i 1 . 3 . E N D OM O R P H I S M E S
u k := u ◦ u ◦ · · · ◦ u .
| {z }
k fois
u −k := (u −1 )k = (u k )−1 .
(f ◦ g)−1 = g −1 ◦ f −1 .
Définition 6. Soit E un K-espace vectoriel. On dit qu’un endomorphisme f ∈ L(E) est une
homothétie de E si f := λ · IdE avec λ ∈ K appelé rapport de l’homothétie f et on a f ∈ GL(E).
Ainsi p(x) = x pour x ∈ E1 et p(x) = 0E pour x ∈ E2 . On dit alors que p est la projection sur E1
parallèlement à E2 .
5
C H A P T E R 1 . A P P L I CAT I O N S L I N É A I R E S
u G G
p(u)
F p(u)
F
(a) Projection sur une droite vectorielle F paral- (b) Projection sur un plan vectoriel F
lèlement à une droite vectorielle G. parallèlement à une droite vectorielle G.
Exemples 4.
∀x ∈ E, s(x) = 2p(x) − x,
6 P r o f . Na b i l M e h d i
Prof. Na b i l M e h d i 1 . 4 . A P P L I CAT I O N S L I N É A I R E S E N D I M E N S I O N F I N I E
u G
G
F F
s(u) s(u)
(a) Symétrie par rapport à une droite vectorielle (b) Symétrie par rapport à un plan vectoriel F de
F de direction une droite vectorielle G. direction une droite vectorielle G.
Exemples 5.
Théorème 2. Soient E et F deux K-espaces vectoriels tel que E est de dimension finie, on
note alors n := dim(E) et on se donne une base {e1 , . . . , en } de E. Soit f ∈ L(E, F), on a les
équivalences suivantes :
7
C H A P T E R 1 . A P P L I CAT I O N S L I N É A I R E S
Ce théorème possède aussi une version géométrique et qui est énoncée de la façon suiv-
ante :
Théorème 4. Soit f ∈ L(E, F) une application linéaire entre deux espaces vectoriels E et F tel
que E est de dimension finie. Si S ⊂ E est un supplémentaire de ker(u) i.e E = ker(f ) ⊕ S alors
la restriction f|S : S −→ Im(f ) est un isomorphisme.
Une conséquence directe du théorème précédent est le résultat suivant, qui est très utile
lorsqu’on veut montrer qu’une application linéaire est un isomorphisme :
2. f est injective.
3. f est surjective.
Soit E un K-espace vectoriel. On dira que f ∈ L(E) est inversible à gauche (resp. à droite)
s’il existe g ∈ L(E) tel que g ◦ f = IdE (resp. f ◦ g = IdE ). On obtient comme conséquence
du résultat précédent la chose suivante :
3. f est inversible.
Définition 7. Soit f ∈ L(E, F). La dimension de Im(f ) est appelée rang de f , noté rg(f ).
8 P r o f . Na b i l M e h d i
Prof. Na b i l M e h d i 1 . 4 . A P P L I CAT I O N S L I N É A I R E S E N D I M E N S I O N F I N I E
Nous allons déterminer ker(f ), Im(f ) et rg(f ). Commençons par calculer le noyau de f : il est
clair que (x, y, z) ∈ ker(f ) si et seulement si :
2x − y + z = 0
y +z = 0
ceci montre que x = y = −z et donc (x, y, z) = (−z, −z, z) = z · (−1, −1, 1). On déduit alors que
ker(f ) = vect{(−1, −1, 1)}. D’autre part, le Théorème noyau-image donne que :
on déduit alors que rg(f ) = dim Im(f ) = 2 et puisque Im(f ) ⊂ R2 alors Im(f ) = R2 .
Proposition 11. Soient E, F et G trois K-espaces vectoriels et soient f ∈ L(E, F) et g ∈ L(F, G).
Si f ou g est de rang fini alors g ◦ f est de rang fini et rg(g ◦ f ) ≤ min(rg(f ), rg(g)). De plus :
2. Si f est de rang fini, alors rg(g ◦ f ) = rg(f ) si et seulement si Im(f ) ∩ ker(g) = {0F }.
Afin de définir une application linéaire en dimension finie, il suffit d’expliciter l’image
d’une base par cette application, c’est l’objet du théorème suivant.
Théorème 6. Soient E et F deux K-espaces vectoriels tel que E est de dimension finie n ∈ N∗ .
Soit (u1 , . . . , un ) une base de E et (v1 , . . . , vn ) une famille de vecteurs de F. Alors il existe une
unique application linéaire f ∈ L(E, F) tel que f (ui ) = vi pour tout 1 ≤ i ≤ n.
Remarques 1. Soient E et F deux K-espaces vectoriels tel que E est de dimension finie. D’après
le résultat précédent, pour montrer que deux applications linéaires f , g ∈ L(E, F) sont égales
on pourra montrer que les vecteurs d’une base de E ont même image par f et g.
Corollaire 6. Si E et F sont deux K-espaces vectoriels de dimension finie, alors L(E, F) est de
dimension finie et on a dim(L(E, F)) = dim(E) · dim(F).
9
C H A P T E R 1 . A P P L I CAT I O N S L I N É A I R E S
On appelle matrice de ϕ dans les bases B et B0 la matrice notée Mat(ϕ, B, B0 ) ∈ Mn,p (K) i.e
de taille (n, p) donnée par :
10 P r o f . Na b i l M e h d i
Prof. Na b i l M e h d i 1 . 5 . M AT R I C E D ’ U N E A P P L I CAT I O N L I N É A I R E
Exemples 7. Pour tout n ∈ N, on note Cn [X] l’espace vectoriel des polynômes à une indeter-
minée de degré ≤ n à coefficients complexes. Soit ϕ : C3 [X] −→ C2 [X] l’application linéaire
donnée par ϕ(P ) := P 0 (qui associe à chaque polynôme P sa dérivée). Calculons la matrice de ϕ
dans les bases B = {1, X, X 2 , X 3 } et B0 = {1, X, X 2 }. On a :
ϕ(x, y, z) = (x − y, x + y + z, x − y − z).
La matrice de ϕ dans la base canonique B0 := {(1, 0, 0), (0, 1, 0), (0, 0, 1)} de R3 est donnée par :
1 −1 0
Mat(ϕ, B0 ) = 1 1 1
1 −1 −1
Ainsi, les coordonnées (x, y, z) du vecteur ϕ(1, 1, 1) dans la base B0 sont données par :
x 1 −1 0 1 0
y = 1 1 1 · 1 = 3
z 1 −1 −1 1 −1
Remarquons que si E est un espace vectoriel de dimension finie n et si B est une base
quelconque de E alors la matrice de l’application identité de E i.e IdE : E −→ E, u 7→ u
dans la base B est exactement la matrice identité In d’ordre n. En d’autres termes :
1 0 . . . 0
0 1 . . . 0
Mat(IdE , B) = In := . . . (1.3)
.. .. . . ...
0 0 ... 1
11
C H A P T E R 1 . A P P L I CAT I O N S L I N É A I R E S
Corollaire 8. Soient E et F deux espaces vectoriels de dimension finie. Soient B, B0 des bases
respectives de E et F et ϕ ∈ L(E, F). Si ϕ est un isomorphisme de E sur F alors M(ϕ, B, B0 )
est inversible, et on a :
(Mat(ϕ, B, B0 ))−1 = Mat(ϕ −1 , B0 , B).
Ce corollaire permet de donner une caractérisation simple des matrices carrées inversibles.
En effet, soit A ∈ Mn (K), E est un K-espace vectoriel de dimension n et B := {e1 , . . . , en }
est une base de E, alors il existe un (unique) endomorphisme ϕ ∈ L(E) dont la matrice
dans la base B est exactement A, i.e Mat(ϕ, B) = A. Ainsi A est inversible si et seulement
si ϕ est un automorphisme de E. D’autre part, on sait que ϕ est un automorphisme
de E si et seulement si {ϕ(e1 ), . . . , ϕ(en )} est libre, et puisque les coordonnées des vecteurs
de la famille {ϕ(e1 ), . . . , ϕ(en )} constituent les colonnes de la matrice A, ceci amène à la
conséquence suivante :
Théorème 8. Une matrice A ∈ Mn (K) est inversible si et seulement si ses vecteurs colonnes
sont linéairement indépendants.
Les vecteurs colonnes de A sont {(1, 0, 1), (−1, 1, 0), (1, 1, 0)} et la relation :
12 P r o f . Na b i l M e h d i
Prof. Na b i l M e h d i 1 . 5 . M AT R I C E D ’ U N E A P P L I CAT I O N L I N É A I R E
Le Corollaire 7 donne que toute matrice A := (aij )1≤i≤n ∈ Mn,p (K) peut être considérée
1≤j≤p
comme la matrice d’une unique application linéaire uA : Kp −→ Kn dans les bases canon-
iques B = {e1 , . . . , ep } et B0 = {e10 , . . . , en0 } de Kp et Kn respectivement, dans ce cas :
n
X
∀1 ≤ j ≤ p, uA (ej ) := aij ei0 = A · ej .
i=1
2. On appelle Im(A) et on note Im(A) l’image de uA . Il est clair que Im(A) est engendré par
les colonnes de la matrice A.
Proposition 14.
2. Une matrice carrée A ∈ Mn (K) est inversible si et seulement si rg(A) = n, i.e les vecteurs
colonnes de A engendrent Mn,1 (K).
3. Une matrice carrée A ∈ Mn (K) est inversible si et seulement si elle est inversible à gauche
ou à droite.
Remarques 2. Soit A ∈ Mn,p (K) et soient B = {e1 , . . . , ep } et B0 = {e10 , . . . , en0 } les bases canon-
iques respectives de Kp et Kn .
1. Les vecteurs colonnes de la matrice A sont donnés par les coordonnées des vecteurs uA (ej )
avec 1 ≤ j ≤ p dans la base B0 de Kn , ainsi rg(A) est exactement le nombre maximal de
vecteurs colonnes linéairement indépendant de la matrice A.
2. Par la formule du rang d’une composée, on obtient que si E ∈ Mn (K) et F ∈ Mp (K) sont
des matrices inversibles alors rg(E · A) = rg(A · F) = rg(A). En particulier A et la matrice
échelonnée réduite lui étant associée ont même rang.
13
C H A P T E R 1 . A P P L I CAT I O N S L I N É A I R E S
f1 f2 ...... fn
p11 p12 . . . p1n e1
p
21 p22 . . . p2n
e2
P (B1 , B2 ) = . .. .. .
.. . . .
.
.
pn1 pn2 . . . pnn en
Exemples 11. La famille B = {(1, 1, 1), (0, −1, 1), (2, 0, 0)} est une base de R3 et la matrice de
passage de la base canonique B0 = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} à la base B est donnée par :
1 0 2
P (B0 , B) = 1 −1 0
1 1 0
Dans les notations précédentent, il est clair que P (B1 , B2 ) = Mat(IdE , B2 , B1 ), en partic-
ulier on obtient que la matrice de passage P (B1 , B2 ) est inversible. De plus Id−1
E = IdE ,
ainsi le Corollaire 8 donne que :
Exemples 12. Soit E un K-espace vectoriel de dimension 2 et soit B0 = {e1 , e2 } une base de E.
La famille B = {f1 , f2 } définie par f1 = e1 + e2 et f2 = e1 − e2 est une base de E et on a :
1 1
P (B0 , B) = .
1 −1
14 P r o f . Na b i l M e h d i
Prof. Na b i l M e h d i 1 . 6 . FO R M U L E S D E C H A N G E M E N T D E BA S E S
Nous allons maintenant donner les formules explicitant l’effet des changements de bases
sur les coordonnées d’un vecteur et sur la matrice d’une application linéaire.
Mat(ϕ, B1 ) = P −1 Mat(ϕ, B0 )P .
Définition 10. Deux matrices carrées A et B d’ordre n sont dites semblables dans Mn (K) s’il
existe une matrice carrée inversible P ∈ Mn (K) telle que B = P −1 AP .
Remarques 3. D’après le Corollaire 9, les matrices carrées d’un même endomorphisme dans
deux bases différentes sont semblables.
Le résultat suivant est utile dans plusieurs situations et montre que les puissances de
matrices semblables sont aussi semblables.
Bk = P −1 Ak P .
De plus, A est inversible si et seulement si B est inversible, et dans ce cas pour tout k ∈ Z :
Bk = P −1 Ak P ,
15
C H A P T E R 1 . A P P L I CAT I O N S L I N É A I R E S
Proposition 18. Soit A ∈ Mn,p (K) et soit M ∈ Mn,p (K) l’unique matrice échelonnée réduite en
lignes associée à A, alors rg(A) = rg(M). Si de plus M possède r pivots non nuls alors rg(A) = r.
Proposition 19. Le rang d’une matrice A ∈ Mn,p (K) est égal au nombre de maximal de lignes
de A linéairement indépendantes dans Kp . En particulier rg(A) = rg( t A).
Étant donné un système linéaire de la forme AX = B avec A ∈ Mn,p (K) et B ∈ Mn,1 (K), il est
évident que ce système est compatible si et seulement si B ∈ Im(A). De plus, l’ensemble
des solutions du système linéaire homogène associé AX = 0n,1 est exactement ker(A).
Théorème 10. Soit (E) un système linéaire compatible s’écrivant matriciellement sous la forme
(E) : AX = B
où A ∈ Mn,p (K) et B ∈ Im(A). Soit X0 ∈ Mp,1 (K) une solution particulière de (E), S l’ensemble
des solutions de (E) et SH l’ensemble des solutions du système linéaire homogène AX = 0. Alors
SH est un sous-espace vectoriel de Kp de dimension p − r avec r := rg(A) et on a :
S:= {X0 + Y , Y ∈ SH } := X0 + SH .
16 P r o f . Na b i l M e h d i