Integration Segment

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 16

1

A p p l i c at i o n s l i n é a i r e s

1.1 Généralités
Définition 1. Soient E et F deux K-espaces vectoriels et soit f : E −→ F une application de E
dans F. On dit que f est une application linéaires si elle vérifie les deux conditions suivantes :

1. Pour tout u ∈ E et tout v ∈ E, f (u + v) = f (u) + f (v).

2. Pour tout λ ∈ K et tout u ∈ E, f (λu) = λf (u).

Les conditions 1 et 2 de la définition ci-dessus sont équivalentes à la condition suivante :


pour tout λ ∈ K et pour tout u, v ∈ E,

f (λu + v) = λf (u) + f (v).

Définition 2. Soient E et F deux K-espace vectoriel.

• Une application linéaire f : E −→ E s’appelle endomorphisme de E.

• Une application linéaire f : E −→ K s’appelle forme linéaire sur E.

• Une application linéaire bijective f : E −→ F s’appelle isomorphisme de E sur F. Un


isomorphisme de E sur E s’appelle aussi automorphisme de E.

Les propriétés suivantes sont immédiates :

Proposition 1. Soient E et F deux K-espace vectoriel et f : E −→ F une application linéaire.

1. Pour tout u ∈ E, f (−u) = −f (u) et f (0E ) = 0F .

2. Si f est un isomorphisme de E sur F alors l’application réciproque f −1 : F −→ E est un


isomorphisme de F sur E appelé isomorphisme réciproque.

Exemples 1.

1. Si E et F sont deux K-espaces vectoriels alors l’application nulle de E dans F qui à tout
vecteur u ∈ E associe le vecteur nul 0F est linéaire.

1
C H A P T E R 1 . A P P L I CAT I O N S L I N É A I R E S

2. Soit E un K-espace vectoriel. L’application identité de E, notée IE : E −→ E, u 7→ u est


linéaire et c’est en fait un automorphisme de E.

3. Soit K[X] désigne l’ensemble des polynômes à une indeterminée à coefficients dans K, on
rappelle que K[X] est un K-espace vectoriel. L’application F : K[X] −→ K[X], F(P ) := P 0
qui à chaque polynôme associe sa dérivée est linéaire : c’est un endomorphisme de K[X].

4. Soient a, b ∈ R tel que a<b. Notons C0 ([a, b], R) l’ensemble des fonctions continues de
l’intervalle [a, b] à valeurs dans R, on rappelle que C0 ([a, b], R) est un R-espace vectoriel.
L’application I : C0 ([a, b], R) −→ R donnée par
Z b
I(f ) := f (x)dx,
a

qui à chaque fonction continue associe son intégrale sur [a, b] est linéaire : c’est une forme
linéaire sur C0 ([a, b], R).

Proposition 2. Soient E, F et G trois K-espaces vectoriels.

1. Si f , g : E −→ F sont deux applications linéaires, alors f + g : E −→ F et λ · f : E −→ F


sont des applications linéaires, en particulier l’application λf + µg : E −→ F est linéaire
pour tout λ, µ ∈ K.

2. Si f : E −→ F et g : F −→ G sont deux applications linéaires, alors g ◦ f : E −→ G est


linéaire.

Notation. Dans la suite, on désigne par L(E, F) l’ensemble des applications linéaires de
E dans F où E et F sont deux K-espaces vectoriels.

Proposition 3. Soient E et F deux K-espaces vectoriels, alors (L(E, F), +, ·) est un K-espace
vectoriel i.e c’est un sous-espace vectoriel de (F(E, F), +, ·).

Proposition 4. Soient E, F et G trois K-espaces vectoriels et f1 , f2 : E −→ F, g1 , g2 : F −→ G


des applications linéaires. On a les propriétés suivantes :

∀λ ∈ K, (f1 + λf2 ) ◦ g1 = f1 ◦ g1 + λf2 ◦ g2 et f1 ◦ (g1 + λg2 ) = f1 ◦ g1 + λf1 ◦ g2 ,

on dit que la composition des applications linéaires est bilinéaire.

1.2 Image et noyau d’une application linéaire


Étant donné une application f : X −→ Y entre deux ensembles quelconques et A ⊂ X et
B ⊂ Y deux sous-ensembles respectifs de X et Y , on rappelle que l’image de A par f est
le sous-ensemble de Y noté f (A) et donné par :

f (A) := {f (x), x ∈ A} = {y ∈ Y , (∃ x ∈ A), y = f (x)}.

2 P r o f . Na b i l M e h d i
Prof. Na b i l M e h d i 1 . 2 . I M AG E E T N OYAU D ’ U N E A P P L I CAT I O N L I N É A I R E

D’autre part l’image réciproque de B par f est le sous-ensemble de X noté f −1 (B) et donné
par :
f −1 (B) := {x ∈ X, f (x) ∈ B}.

Dans le cas d’une application linéaire entre deux espaces vectoriels, on a le résultat
important suivant :

Théorème 1. Soient E et F deux K-espaces vectoriels et soit f : E −→ F une application


linéaire.

1. Si V est un sous-espace vectoriel de E alors l’image f (V ) de V par f est un sous-espace


vectoriel de F.

2. Si W est un sous-espace vectoriel de F alors l’image réciproque f −1 (W ) de W par f est


un sous-espace vectoriel de E.

Le théorème précédent donne un sens à la définition suivante :

Définition 3. Soient E et F deux K-espaces vectoriels et f : E −→ F une application linéaire.

1. Le sous-espace vectoriel f (E) de F est appelé image de f et est noté Im(f ).

2. Le sous-espace vectoriel f −1 (0F ) = {x ∈ F, f (x) = 0F } de E est appelé noyau de f et est


noté ker(f ).

Il est clair qu’une application linéaire f : E −→ F est surjective si et seulement si Im(f ) = F.


Le noyau d’une application linéaire permet en contrepartie de tester si celle-ci est injective
ou non.

Proposition 5. Soit f : E −→ F une application linéaire. Alors f est injective si et seulement


si ker(f ) = {0E }.

Les applications linéaires injectives envoient familles génératrices sur familles génératri-
ces.

Proposition 6. Soit f : E −→ F une application linéaire entre deux espaces vectoriels E et F.

1. Si {e1 , . . . , ek } est une famille génératrice de E, alors Im(f ) := {f (e1 ), . . . , f (ek )}. En partic-
ulier, si f est surjective alors {f (e1 ), . . . , f (ek )} est une famille génératrice de F.

2. Si {e1 , . . . , ek } est une famille libre de E et que f est injective, alors {f (e1 ), . . . , f (ek )} est
une famille libre de f .

En combinant les deux assertions de la proposition précédente, on obtient la conséquence


suivante :

Corollaire 1. Soit f : E −→ F un isomorphisme et soit {e1 , . . . , en } une base de E. Alors la


famille {f (e1 ), . . . , f (en )} est une base de F.

3
C H A P T E R 1 . A P P L I CAT I O N S L I N É A I R E S

Exemples 2. Soit f : R2 −→ R2 l’application donnée par f (x, y) = (x − y, x + y). Nous allons


montrer que f est un automorphisme de R2 . On commence par montrer que f est linéaire :
soient (x, y), (x0 , y 0 ) ∈ R2 et soit α ∈ R, on a :

f (α · (x, y) + (x0 , y 0 )) = f (αx + x0 , αy + y 0 )


= (αx + x0 − αy − y 0 , αx + x0 + αy + y 0 )
= α · (x − y, x + y) + (x0 − y 0 , x0 + y 0 )
= α · f (x, y) + f (x0 , y 0 )

Ensuite, afin de montrer que f est un automorphisme, il suffit de montrer que ker(f ) = {(0, 0)}
et que Im(f ) = R2 . Commençons par calculer ker(f ), on a :

ker(f ) = {(x, y) ∈ R2 , f (x, y) = (0, 0)} = {(x, y) ∈ R2 , x − y = 0 et x + y = 0} = {(0, 0)}

D’un autre côté, puisque {(1, 0), (0, 1)} est une base de R2 alors {f (0, 1), f (1, 0)} est une famille
génératrice de Im(f ) d’après la Proposition ?? i.e

Im(f ) = vect{f (0, 1), f (1, 0)} = {(1, 1), (−1, 1)}.

De plus, on a montrer que f est injective et donc par la Proposition ?? la famille {(1, 1), f (−1, 1)}
est libre, ainsi dim Im(f ) = dim R2 = 2 ce qui montre que Im(f ) = R2 . On conclut alors que f
est un automorphisme de R2 .

1.3 Endomorphismes
Si E est un K-espace vectoriels, on utilise la notation L(E) pour désigner l’ensemble des
endomorphismes de E i.e L(E) := L(E, E). Nous avons vu que L(E) est un sous-espace
vectoriel de F(E, E), de plus il est clair que pour tout f , g ∈ L(E),

g ◦ f ∈ L(E) et f ◦ g ∈ L(E),

c’est à dire que L(E) est stable par composition, cependant on a en général f ◦ g , g ◦ f
comme on peut voir dans l’exemple suivant :

Exemples 3. Soient f , g : R2 −→ R2 les endomorphismes donnés par :

f (x, y) = (−y, x) et g(x, y) = (x, 2y),

pour tout (x, y) ∈ R2 . On vérifie que (g ◦ f )(1, 1) = (−1, 2) et que (f ◦ g)(1, 1) = (−2, 1) ce qui
montre que g ◦ f , f ◦ g.

On a plus précisemment le résultat suivant :

Proposition 7. Soit E un K-espace vectoriel. La composition des applications linéaires ◦ est


commutative dans L(E) si et seulement si E est de dimension finie n ≤ 1.

4 P r o f . Na b i l M e h d i
Prof. Na b i l M e h d i 1 . 3 . E N D OM O R P H I S M E S

Définissons à présent la notion de puissance d’un endomorphisme :

Définition 4. Soit E un K-espace vectoriel et soit u ∈ L(E).

1. On appelle puissance k-ième de u avec k ∈ N∗ l’endomorphisme noté u k : E −→ E et


donné par :

u k := u ◦ u ◦ · · · ◦ u .
| {z }
k fois

En particulier u 1 := u, par convention on pose u 0 := IdE .

2. Si u est bijective, on peut définir la puissance (−k)-ième de u avec k ∈ N∗ par la formule

u −k := (u −1 )k = (u k )−1 .

Définition 5. Soit E un K-espace vectoriel. On appelle automorphisme de E tout endomor-


phisme bijectif f : E −→ E. L’ensemble des automorphismes de E est noté GL(E).

Il est clair que pour tout f , g ∈ GL(E), f ◦ g ∈ GL(E) et g ◦ f ∈ GL(E) et on a

(f ◦ g)−1 = g −1 ◦ f −1 .

En particulier, un raisonnement par récurrence montre que f k ∈ GL(E) pour tout k ∈ Z


et pour tout f ∈ GL(E) avec (f k )−1 = f −k . Nous donnons dans la suite la définition de
certains endomorphismes possédans un sens géométrique.

Définition 6. Soit E un K-espace vectoriel. On dit qu’un endomorphisme f ∈ L(E) est une
homothétie de E si f := λ · IdE avec λ ∈ K appelé rapport de l’homothétie f et on a f ∈ GL(E).

Définition-Proposition 1. On dit qu’un endomorphisme p : E −→ E est une projection s’il


existe deux sous-espaces vectoriels supplémentaires E1 et E2 de E i.e E = E1 ⊕ E2 tels que :

p(x1 + x2 ) = x1 pour tout x1 ∈ E1 , x2 ∈ E2 .

Ainsi p(x) = x pour x ∈ E1 et p(x) = 0E pour x ∈ E2 . On dit alors que p est la projection sur E1
parallèlement à E2 .

5
C H A P T E R 1 . A P P L I CAT I O N S L I N É A I R E S

u G G

p(u)

F p(u)
F

(a) Projection sur une droite vectorielle F paral- (b) Projection sur un plan vectoriel F
lèlement à une droite vectorielle G. parallèlement à une droite vectorielle G.

Exemples 4.

1. L’endomorphisme p : R2 −→ R2 donné par p(x, y) := (x, 0) est la projection sur E1 :=


vect{(1, 0)} parallèlement à E2 := vect{(0, 1)}.

2. L’endomorphisme p1 : R3 −→ R3 donné par p(x, y, z) = (x, y, 0) est la projection sur


E1 := vect{(1, 0, 0), (0, 1, 0)} parallèlement à E2 := vect{(0, 0, 1)}.

3. L’endomorphisme p2 : R3 −→ R3 donné par p2 (x, y, z) = (0, 0, z) est la projection sur E2 :=


vect{(0, 0, 1)} parallèlement à E1 := vect{(1, 0, 0), (0, 1, 0)}. On remarque que p2 = Id − p1 .

Proposition 8. Soit E := E1 ⊕ E2 un K-espace vectoriel et p : E −→ E la projection sur E1


parallèlement à E2 . Alors Im(p) = E1 , ker(p) = E2 et IdE − p : E −→ E est la projection sur E2
parallèlement à E1 .

On a la caractérisation suivante des projections qui donne en particulier une réciproque


au résultat précédent :

Proposition 9. Soit E un K-espace vectoriel. Un endomorphisme p : E −→ E est une projection


si et seulement si p2 = p, dans ce cas E = Im(p) ⊕ ker(p) et p est la projection sur Im(p)
parallèlement à ker(p).

Définition-Proposition 2. On dit qu’un endomorphisme s : E −→ E est une symétrie s’il


existe deux sous-espaces vectoriels supplémentaires E1 et E2 de E tels que :

∀x ∈ E, s(x) = 2p(x) − x,

où p : E −→ E est la projection de sur E1 parallèlement à E2 . On dit dans ce cas que s est la


symétrie par rapport à E2 et de direction E1 . Il est clair que s(x) = x pour x ∈ E2 et s(x) = −x
pour x ∈ E1 . Il est simple de vérifier que s ∈ GL(E).

6 P r o f . Na b i l M e h d i
Prof. Na b i l M e h d i 1 . 4 . A P P L I CAT I O N S L I N É A I R E S E N D I M E N S I O N F I N I E

u G
G

F F

s(u) s(u)

(a) Symétrie par rapport à une droite vectorielle (b) Symétrie par rapport à un plan vectoriel F de
F de direction une droite vectorielle G. direction une droite vectorielle G.

Exemples 5.

1. L’endomorphisme s : R2 −→ R2 donnée par s(x, y) := (−x, y) est la symétrie par rapport à


vect{(0, 1)} de direction la droite vectorielle vect{(1, 0)}.

2. L’endomorphisme s : R3 −→ R3 donnée par s(x, y, z) := (−x, y, z) est la symétrie par


rapport à vect{(0, 1, 0), (0, 0, 1)} de direction la droite vectorielle vect{(1, 0, 0)}.

3. L’endomorphisme s : R3 −→ R3 donnée par s(x, y, z) := (−x, −y, z) est la symétrie par


rapport à vect{(0, 0, 1)} de direction le plan vectoriel vect{(1, 0, 0), (0, 1, 0)}.

Proposition 10. Un endomorphisme s : E −→ E est une symétrie si et seulement si s2 = IdE ,


dans ce cas E = Im(IdE − s) ⊕ Im(IdE + s) et s est la symétrie par rapport à Im(IdE + s) de
direction Im(IdE − s).

1.4 Applications linéaires en dimension finie


Nous avons vu dans la Proposition 6 que les applications linéaires surjectives préservent
les familles génératrices, que les applications linéaires injectives préservent les familles
libres et que les isomorphismes préservent les bases. Dans le cas où l’espace de départ
est de dimension finie, on a davantage de propriétés intéréssantes, ceci est illustré par les
résultats suivants :

Théorème 2. Soient E et F deux K-espaces vectoriels tel que E est de dimension finie, on
note alors n := dim(E) et on se donne une base {e1 , . . . , en } de E. Soit f ∈ L(E, F), on a les
équivalences suivantes :

1. f est injective si et seulement si {f (e1 ), . . . , f (en )} est une famille libre de F.

2. f est surjective si et seulement si {f (e1 ), . . . , f (en )} est une famille génératrice de F.

7
C H A P T E R 1 . A P P L I CAT I O N S L I N É A I R E S

3. f est un isomorphisme de E sur F si et seulement si {f (e1 ), . . . , f (en )} est une base de F.

Le théorème suivant est considéré comme le théorème fondamental de l’algèbre linéaire :

Théorème 3 (Théorème noyau-image). Soient E et F deux K-espaces vectoriels tel que E


est de dimension finie et soit f ∈ L(E, F). Alors Im(f ) est un sous-espace vectoriel de F de
dimension finie et l’on a :

dim ker(f ) + dim Im(f ) = dim(E).

Ce théorème possède aussi une version géométrique et qui est énoncée de la façon suiv-
ante :

Théorème 4. Soit f ∈ L(E, F) une application linéaire entre deux espaces vectoriels E et F tel
que E est de dimension finie. Si S ⊂ E est un supplémentaire de ker(u) i.e E = ker(f ) ⊕ S alors
la restriction f|S : S −→ Im(f ) est un isomorphisme.

Une conséquence directe du théorème précédent est le résultat suivant, qui est très utile
lorsqu’on veut montrer qu’une application linéaire est un isomorphisme :

Théorème 5. Soient E et F deux K-espaces vectoriels de dimension finie et de même dimension


et soit f ∈ L(E, F). Alors les propriétés suivantes sont équivalentes :

1. f est un isomorphisme de E sur F.

2. f est injective.

3. f est surjective.

Soit E un K-espace vectoriel. On dira que f ∈ L(E) est inversible à gauche (resp. à droite)
s’il existe g ∈ L(E) tel que g ◦ f = IdE (resp. f ◦ g = IdE ). On obtient comme conséquence
du résultat précédent la chose suivante :

Corollaire 2. Soit f ∈ L(E) un endomorphisme d’un K-espace vectoriel E de dimension finie.


Les assertions suivantes sont équivalentes :

1. f est inversible à gauche.

2. f est inversible à droite.

3. f est inversible.

Définition 7. Soit f ∈ L(E, F). La dimension de Im(f ) est appelée rang de f , noté rg(f ).

Le théorème du noyau-image affirme alors que toute application linéaire f ∈ L(E, F) où E


est de dimension finie vérifie dim ker(f )+rg(f ) = dim(E). De plus, f est un isomorphisme
de E sur F si et seulement si rg(f ) = dim(E) = dim(F).

8 P r o f . Na b i l M e h d i
Prof. Na b i l M e h d i 1 . 4 . A P P L I CAT I O N S L I N É A I R E S E N D I M E N S I O N F I N I E

Exemples 6. Soit f : R3 −→ R2 l’application linéaire (à vérifier) définie par l’expression :

f (x, y, z) = (2x − y + z, y + z).

Nous allons déterminer ker(f ), Im(f ) et rg(f ). Commençons par calculer le noyau de f : il est
clair que (x, y, z) ∈ ker(f ) si et seulement si :

 2x − y + z = 0



 y +z = 0

ceci montre que x = y = −z et donc (x, y, z) = (−z, −z, z) = z · (−1, −1, 1). On déduit alors que
ker(f ) = vect{(−1, −1, 1)}. D’autre part, le Théorème noyau-image donne que :

dim ker(f ) + dim Im(f ) = 3,

on déduit alors que rg(f ) = dim Im(f ) = 2 et puisque Im(f ) ⊂ R2 alors Im(f ) = R2 .

Proposition 11. Soient E, F et G trois K-espaces vectoriels et soient f ∈ L(E, F) et g ∈ L(F, G).
Si f ou g est de rang fini alors g ◦ f est de rang fini et rg(g ◦ f ) ≤ min(rg(f ), rg(g)). De plus :

1. Si g est de rang fini, alors rg(g ◦ f ) = rg(g) si et seulement si F = Im(f ) + ker(g).

2. Si f est de rang fini, alors rg(g ◦ f ) = rg(f ) si et seulement si Im(f ) ∩ ker(g) = {0F }.

Les résultats suivants sont des conséquence immédiates du résultat précédent.

Corollaire 3. Soit E un K-espace vectoriel et f ∈ L(E) un endomorphisme de rang fini, alors


pour tout k ∈ N∗ , rg(f k ) ≤ rg(f ).

Corollaire 4. Soient f ∈ L(E, F) et g ∈ F, G deux applications linéaires.

1. Si f est de rang fini et g : F −→ G est un isomorphisme, alors rg(g ◦ f ) = rg(f ).

2. Si g est de rang fini et f : E −→ F est un isomorphisme alors rg(g ◦ f ) = rg(g).

Afin de définir une application linéaire en dimension finie, il suffit d’expliciter l’image
d’une base par cette application, c’est l’objet du théorème suivant.

Théorème 6. Soient E et F deux K-espaces vectoriels tel que E est de dimension finie n ∈ N∗ .
Soit (u1 , . . . , un ) une base de E et (v1 , . . . , vn ) une famille de vecteurs de F. Alors il existe une
unique application linéaire f ∈ L(E, F) tel que f (ui ) = vi pour tout 1 ≤ i ≤ n.

Remarques 1. Soient E et F deux K-espaces vectoriels tel que E est de dimension finie. D’après
le résultat précédent, pour montrer que deux applications linéaires f , g ∈ L(E, F) sont égales
on pourra montrer que les vecteurs d’une base de E ont même image par f et g.

Corollaire 5. Deux K-espaces vectoriels E et F de dimensions finies sont isomorphes si et


seulement s’ils possède même dimension.

Corollaire 6. Si E et F sont deux K-espaces vectoriels de dimension finie, alors L(E, F) est de
dimension finie et on a dim(L(E, F)) = dim(E) · dim(F).

9
C H A P T E R 1 . A P P L I CAT I O N S L I N É A I R E S

1.5 Représentation matricielle d’une application linéaire


Dans la suite, les espaces vectoriels considérés seront de dimension finie.

Définition 8. Soient E et F deux K-espaces vectoriels respectivement de dimensions p et n


et soit ϕ ∈ L(E, F). Fixons une base B = {e1 , . . . , ep } de E et une base B0 = {f1 , . . . , fn } de F et
écrivons :
n
X
ϕ(ej ) = aij fi . (1.1)
i=1

On appelle matrice de ϕ dans les bases B et B0 la matrice notée Mat(ϕ, B, B0 ) ∈ Mn,p (K) i.e
de taille (n, p) donnée par :

ϕ(e ) ϕ(e ) ...... ϕ(e )


 1 2 p

a11 a12 . . . a1p  f1
 
a21 a22 . . . a2p  f2
Mat(ϕ, B, B0 ) =  . ∈ Mn,p (K).
 
 .. .. .. 
 . .  .
.
  .
an1 an2 . . . anp fn

Dans les notations de la définition précédente, si x = x1 e1 + x2 e2 + · · · + xp ep est un vecteur


de E et si on écrit ϕ(x) := y1 f1 + y2 f2 + · · · + yn fn , on obtient que :
 
X p X n X p 

ϕ(x) = xj ϕ(ej ) = a x  fi . (1.2)

ij j

 
j=1 i=1 j=1

Matriciellement, l’équation précédente s’exprime de la façon suivante :


     
y1  a11 a12 . . . a1p  x1 
     
y  a
 2   21 a22 . . . a2p  x2 
  
 .  =  . .. ..  ·  .. 
 ..   .. . .   . 
  
     
yn an1 an2 . . . anp xp

L’application linéaire ϕ est donc entièrement déterminée par sa matrice Mat(ϕ, B, B0 )


dans les bases B et B0 . Dans le cas où E = F et B = B0 , la matrice Mat(ϕ, B, B0 ) est
appelée matrice de ϕ dans la base B sera notée Mat(ϕ, B) : c’est une matrice carrée de
taille n × n. Ceci est résumé dans l’énoncé suivant :

Proposition 12. Soient E et F deux K-espaces vectoriels de dimensions respectives p et n,


fixons deux bases respectives B et B0 de E et F et soit ϕ ∈ L(E, F). Si (x1 , . . . , xp ) sont les
coordonnées de x ∈ E dans la base B, alors les coordonnées (y1 , . . . , yn ) de ϕ(x) dans la base B0
sont données par la formule :
   
y1  x1 
 ..  .
   
 .  = Mat(ϕ, B, B0 )  ..  .
   
yn xp
   

10 P r o f . Na b i l M e h d i
Prof. Na b i l M e h d i 1 . 5 . M AT R I C E D ’ U N E A P P L I CAT I O N L I N É A I R E

Exemples 7. Pour tout n ∈ N, on note Cn [X] l’espace vectoriel des polynômes à une indeter-
minée de degré ≤ n à coefficients complexes. Soit ϕ : C3 [X] −→ C2 [X] l’application linéaire
donnée par ϕ(P ) := P 0 (qui associe à chaque polynôme P sa dérivée). Calculons la matrice de ϕ
dans les bases B = {1, X, X 2 , X 3 } et B0 = {1, X, X 2 }. On a :

ϕ(1) = 0, ϕ(X) = 1, ϕ(X 2 ) = 2X et ϕ(X 3 ) = 3X 2 .

Ainsi la matrice de ϕ dans les bases B et B0 est donnée par :


 
0 1 0 0
 
Mat(ϕ, B, B0 ) = 0 0 2 0
 
0 0 0 3

Exemples 8. Considérons l’application linéaire ϕ : C3 [X] −→ C3 [X] donnée par ϕ(P ) := XP 0 .


Calculons la matrice de ϕ dans la base B = {1, X, X 2 , X 3 }. On a :

ϕ(1) = 0, ϕ(X) = X, ϕ(X 2 ) = 2X 2 et ϕ(X 3 ) = 3X 3 .

Ainsi la matrice de ϕ dans la base B est donnée par :


 
0 0 0 0
 
0 1 0 0

Mat(ϕ, B) =  
0 0 2 0
 
0 0 0 3

Exemples 9. On considère l’application linéaire ϕ : R3 −→ R3 définie par

ϕ(x, y, z) = (x − y, x + y + z, x − y − z).

La matrice de ϕ dans la base canonique B0 := {(1, 0, 0), (0, 1, 0), (0, 0, 1)} de R3 est donnée par :
 
1 −1 0 
 
Mat(ϕ, B0 ) = 1 1 1 
 
1 −1 −1

Ainsi, les coordonnées (x, y, z) du vecteur ϕ(1, 1, 1) dans la base B0 sont données par :
       
x 1 −1 0  1  0 
       
y  = 1 1 1  · 1 =  3 
  
       
z 1 −1 −1 1 −1

Remarquons que si E est un espace vectoriel de dimension finie n et si B est une base
quelconque de E alors la matrice de l’application identité de E i.e IdE : E −→ E, u 7→ u
dans la base B est exactement la matrice identité In d’ordre n. En d’autres termes :
 
1 0 . . . 0
 
0 1 . . . 0
Mat(IdE , B) = In :=  . . . (1.3)
 
 .. .. . . ... 

 
 
0 0 ... 1

11
C H A P T E R 1 . A P P L I CAT I O N S L I N É A I R E S

Proposition 13. Soient E et F deux K-espaces vectoriels de dimension finie et B, B0 deux


bases respectives de E et F. Pour tout ϕ, ψ ∈ L(E, F) et tout λ ∈ K, on a :

Mat(ϕ + λψ, B, B0 ) = Mat(ϕ, B, B0 ) + λ · Mat(ψ, B, B0 ).

De plus, Mat(ϕ, B, B0 ) = 0 si et seulement si ϕ est identiquement nulle.

La proposition précédente peut être reformulée de la façon suivante :

Corollaire 7. Soient E et F deux K-espaces vectoriels de dimensions finies p et n respectivement


et soient B, B0 deux bases respectives de E et F. L’application :

L(E, F) −→ Mn,p (K), ϕ 7→ Mat(ϕ, B, B0 ),

est un isomorphisme d’espaces vectoriels.

Théorème 7. Soient E, F et G trois espaces vectoriels de dimension finie. Soient B, B0 et B00


des bases respectives de E, F et G. Étant données ϕ1 ∈ L(E, F) et ϕ2 ∈ L(F, G), on a :

Mat(ϕ2 ◦ ϕ1 , B, B00 ) = Mat(ϕ2 , B0 , B00 ) · Mat(ϕ1 , B, B0 ).

Le corollaire suivant est une conséquence de la formule (1.3) et du Théorème précédent :

Corollaire 8. Soient E et F deux espaces vectoriels de dimension finie. Soient B, B0 des bases
respectives de E et F et ϕ ∈ L(E, F). Si ϕ est un isomorphisme de E sur F alors M(ϕ, B, B0 )
est inversible, et on a :
(Mat(ϕ, B, B0 ))−1 = Mat(ϕ −1 , B0 , B).

Ce corollaire permet de donner une caractérisation simple des matrices carrées inversibles.
En effet, soit A ∈ Mn (K), E est un K-espace vectoriel de dimension n et B := {e1 , . . . , en }
est une base de E, alors il existe un (unique) endomorphisme ϕ ∈ L(E) dont la matrice
dans la base B est exactement A, i.e Mat(ϕ, B) = A. Ainsi A est inversible si et seulement
si ϕ est un automorphisme de E. D’autre part, on sait que ϕ est un automorphisme
de E si et seulement si {ϕ(e1 ), . . . , ϕ(en )} est libre, et puisque les coordonnées des vecteurs
de la famille {ϕ(e1 ), . . . , ϕ(en )} constituent les colonnes de la matrice A, ceci amène à la
conséquence suivante :

Théorème 8. Une matrice A ∈ Mn (K) est inversible si et seulement si ses vecteurs colonnes
sont linéairement indépendants.

Exemples 10. Soit A ∈ M3 (R) la matrice donnée par :


 
1 −1 1
 
A = 0 1 1
 
1 0 0

Les vecteurs colonnes de A sont {(1, 0, 1), (−1, 1, 0), (1, 1, 0)} et la relation :

α(1, 0, 1) + β(−1, 1, 0) + γ(1, 1, 0) = (0, 0, 0),

12 P r o f . Na b i l M e h d i
Prof. Na b i l M e h d i 1 . 5 . M AT R I C E D ’ U N E A P P L I CAT I O N L I N É A I R E

est équivalente à α = 0, β + γ = α = 0 et α − β + γ = 0. Ceci montre que α, β, γ = 0 et par suite


la famille {(1, 0, 1), (−1, 1, 0), (1, 1, 0)} est libre. Ainsi la matrice A est inversible.

Le Corollaire 7 donne que toute matrice A := (aij )1≤i≤n ∈ Mn,p (K) peut être considérée
1≤j≤p
comme la matrice d’une unique application linéaire uA : Kp −→ Kn dans les bases canon-
iques B = {e1 , . . . , ep } et B0 = {e10 , . . . , en0 } de Kp et Kn respectivement, dans ce cas :

n
X
∀1 ≤ j ≤ p, uA (ej ) := aij ei0 = A · ej .
i=1

On dit que uA est l’application linéaire associée à la matrice A.

Définition 9. Soit A ∈ Mn,p (K).

1. On appelle noyau de A et on note ker(A) le noyau de l’application linéaire uA .

2. On appelle Im(A) et on note Im(A) l’image de uA . Il est clair que Im(A) est engendré par
les colonnes de la matrice A.

3. De même, on appelle rang de A et on note rg(A) le rang de uA , dans ce cas rg(A) :=


dim Im(A).

Les résultats suivants découlent directement de la définition précédente :

Proposition 14.

1. Une matrice carrée A ∈ Mn (K) est inversible si et seulement si ker(A) = {0n,1 }.

2. Une matrice carrée A ∈ Mn (K) est inversible si et seulement si rg(A) = n, i.e les vecteurs
colonnes de A engendrent Mn,1 (K).

3. Une matrice carrée A ∈ Mn (K) est inversible si et seulement si elle est inversible à gauche
ou à droite.

Remarques 2. Soit A ∈ Mn,p (K) et soient B = {e1 , . . . , ep } et B0 = {e10 , . . . , en0 } les bases canon-
iques respectives de Kp et Kn .

1. Les vecteurs colonnes de la matrice A sont donnés par les coordonnées des vecteurs uA (ej )
avec 1 ≤ j ≤ p dans la base B0 de Kn , ainsi rg(A) est exactement le nombre maximal de
vecteurs colonnes linéairement indépendant de la matrice A.

2. Par la formule du rang d’une composée, on obtient que si E ∈ Mn (K) et F ∈ Mp (K) sont
des matrices inversibles alors rg(E · A) = rg(A · F) = rg(A). En particulier A et la matrice
échelonnée réduite lui étant associée ont même rang.

13
C H A P T E R 1 . A P P L I CAT I O N S L I N É A I R E S

1.6 Formules de changement de bases


Soit E un K-espace vectoriel de dimension n et B1 = {e1 , . . . , en } et B2 = {f1 , . . . , fn } deux
bases de E. On appelle matrice de passage de B1 à B2 , la matrice carrée d’ordre n,
généralement notée P (B1 , B2 ) ou parfois P , dont la i ème colonne est formée par les coor-
données du vecteur fi dans la base B1 . En d’autres termes si on écrit :
n
X
fi = pji ej = p1i e1 + p2i e2 + · · · + pni en ,
j=1

pour tout i = 1, . . . , n, alors P (B1 , B2 ) s’écrit sous la forme :

 f1 f2 ...... fn

p11 p12 . . . p1n  e1
 
p
 21 p22 . . . p2n 

e2
P (B1 , B2 ) =  . .. ..  .
 .. . .  .
.

  .
pn1 pn2 . . . pnn en

Exemples 11. La famille B = {(1, 1, 1), (0, −1, 1), (2, 0, 0)} est une base de R3 et la matrice de
passage de la base canonique B0 = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} à la base B est donnée par :
 
1 0 2
 
P (B0 , B) = 1 −1 0
 
1 1 0

Dans les notations précédentent, il est clair que P (B1 , B2 ) = Mat(IdE , B2 , B1 ), en partic-
ulier on obtient que la matrice de passage P (B1 , B2 ) est inversible. De plus Id−1
E = IdE ,
ainsi le Corollaire 8 donne que :

Mat(IdE , B2 , B1 )−1 = Mat(Id−1


E , B1 , B2 ) = Mat(IdE , B1 , B2 ).

Ceci nous amène au résultat suivant :

Proposition 15. Soit E un K-espace vectoriel de dimension n et soient B1 et B2 deux bases


de E. Alors P (B1 , B2 ) est inversible et on a :

(P (B1 , B2 ))−1 = P (B2 , B1 ).

Exemples 12. Soit E un K-espace vectoriel de dimension 2 et soit B0 = {e1 , e2 } une base de E.
La famille B = {f1 , f2 } définie par f1 = e1 + e2 et f2 = e1 − e2 est une base de E et on a :
 
1 1 
P (B0 , B) =   .
1 −1

Comme e1 = 12 (f1 + f2 ) et e2 = 12 (f1 − f2 ), on déduit que :


 
−1 1 1 1 
(P (B0 , B)) = P (B, B0 ) =  .
2 1 −1

14 P r o f . Na b i l M e h d i
Prof. Na b i l M e h d i 1 . 6 . FO R M U L E S D E C H A N G E M E N T D E BA S E S

Nous allons maintenant donner les formules explicitant l’effet des changements de bases
sur les coordonnées d’un vecteur et sur la matrice d’une application linéaire.

Proposition 16. Soit E un K-espace vectoriel de dimension n et B1 et B2 deux bases de E.


Soit x ∈ E de coordonnées (x1 , . . . , xn ) dans la base B1 et notons (y1 , . . . , yn ) les coordonnées du
vecteur x dans la base B2 . Alors :
     
y1  x1  x1 
 ..  ..  .
     
−1 
 .  = (P (B1 , B2 ))  .  = P (B2 , B1 )  .. 

     
yn xn xn
   

Théorème 9. Soient E et F deux K-espaces vectoriels de dimension finie et soient B0 et B


deux bases de E et B00 et B0 deux bases de F. Pour toute application linéaire ϕ ∈ L(E, F), on a
la formule :

Mat(ϕ, B, B0 ) = (P (B00 , B0 ))−1 · Mat(ϕ, B0 , B00 ) · P (B0 , B)


= P (B0 , B00 ) · Mat(ϕ, B0 , B00 ) · P (B0 , B).

Le cas particuler suivant mérite d’être préciser :

Corollaire 9. Soit E un K-espace vectoriel de dimension finie et B0 et B1 deux bases de E,


notons P la matrice de passage de B0 à B1 . Soit ϕ : E −→ E un endomorphisme. Alors :

Mat(ϕ, B1 ) = P −1 Mat(ϕ, B0 )P .

Définition 10. Deux matrices carrées A et B d’ordre n sont dites semblables dans Mn (K) s’il
existe une matrice carrée inversible P ∈ Mn (K) telle que B = P −1 AP .

Remarques 3. D’après le Corollaire 9, les matrices carrées d’un même endomorphisme dans
deux bases différentes sont semblables.

Le résultat suivant est utile dans plusieurs situations et montre que les puissances de
matrices semblables sont aussi semblables.

Proposition 17. Soient A, B ∈ Mn (K) deux matrices carrées semblables, écrivons B = P −1 AP


avec P ∈ GLn (K). Pour tout k ∈ N, les puissances Ak et Bk sont aussi semblables et on a :

Bk = P −1 Ak P .

De plus, A est inversible si et seulement si B est inversible, et dans ce cas pour tout k ∈ Z :

Bk = P −1 Ak P ,

en particulier on a dans ce cas B−1 = P −1 A−1 P .

15
C H A P T E R 1 . A P P L I CAT I O N S L I N É A I R E S

1.7 Retour sur les systèmes linéaires


L’objectif de ce paragraphe est de donner une reformulation du théorème donnons l’ensemble
des solutions d’un système linéaire. Le premier résultat de cette partie permet de faire le
lien entre les différentes notions du rang d’une matrice : celle définie dans le chapitre sur
les systèmes linéaires et celle définie dans ce chapitre.

Proposition 18. Soit A ∈ Mn,p (K) et soit M ∈ Mn,p (K) l’unique matrice échelonnée réduite en
lignes associée à A, alors rg(A) = rg(M). Si de plus M possède r pivots non nuls alors rg(A) = r.

Comme conséquence du résultat précédent, on obtient la chose suivante :

Proposition 19. Le rang d’une matrice A ∈ Mn,p (K) est égal au nombre de maximal de lignes
de A linéairement indépendantes dans Kp . En particulier rg(A) = rg( t A).

Étant donné un système linéaire de la forme AX = B avec A ∈ Mn,p (K) et B ∈ Mn,1 (K), il est
évident que ce système est compatible si et seulement si B ∈ Im(A). De plus, l’ensemble
des solutions du système linéaire homogène associé AX = 0n,1 est exactement ker(A).

Théorème 10. Soit (E) un système linéaire compatible s’écrivant matriciellement sous la forme

(E) : AX = B

où A ∈ Mn,p (K) et B ∈ Im(A). Soit X0 ∈ Mp,1 (K) une solution particulière de (E), S l’ensemble
des solutions de (E) et SH l’ensemble des solutions du système linéaire homogène AX = 0. Alors
SH est un sous-espace vectoriel de Kp de dimension p − r avec r := rg(A) et on a :

S:= {X0 + Y , Y ∈ SH } := X0 + SH .

16 P r o f . Na b i l M e h d i

Vous aimerez peut-être aussi