Cours7bis SMPE

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 10

IV.

Applications linéaires

1. Définition et propriétés élémentaires


Soit E et F deux espaces vectoriels sur K.

Définition. Une application linéaire de E dans F est une application f : E → F telle que pour
tous vecteurs u, v ∈ E et tout scalaire λ ∈ K,
• f (u + v) = f (u) + f (v),
• f (λu) = λf (u).
Si F = K on dit que f est une forme linéaire. Si F = E, f est appelée un endomorphisme.
Pour montrer que f est une application linéaire, il suffit de vérifier que
f (u + λv) = f (u) + λf (v) pour tous u, v ∈ E, λ ∈ K.

Propriétés. Si f : E → F est une application linéaire alors


• f (~0) = ~0,
• f (λ1 u1 + · · · + λn un ) = λ1 f (u1 ) + · · · + λn f (un ).

Preuve.
• Soit λ = 0 et u ∈ E. On a f (λu) = λf (u). Or λu = ~0E et λf (u) = ~0F , donc f (~0E ) = ~0F .
• On montre par récurrence sur n la propriété suivante :
∀u1 , . . . , un ∈ E, ∀λ1 , . . . , λn ∈ K, on a f (λ1 u1 + · · · + λn un ) = λ1 f (u1 ) + · · · + λn f (un ).
– Pour n = 1 on a f (λ1 u1 ) = λ1 u1 par définition.
– On suppose que le résultat est vrai au rang n. On pose v = λ1 u1 + · · · + λn un et w = λn+1 un+1 .
Alors f (λ1 u1 + · · · + λn un + λn+1 un+1 ) = f (v + w) = f (v) + f (w). Par hypothèse de récurrence
f (v) = λ1 f (u1 ) + · · · + λn f (un ) et par définition f (w) = λn+1 f (un+1 ). Donc
f (λ1 u1 + · · · + λn un + λn+1 un+1 ) = λ1 f (u1 ) + · · · + λn f (un ) + λn+1 f (un+1 ),
ce qui est la propriété de récurrence au rang n + 1.
– Conclusion : la propriété de récurrence est vraie pour tout n.

Exemples.
• Soit f : R3 → R2 définie par f (x, y, z) = (2x − 3y, z). Si u = (x, y, z), v = (x0 , y 0 , z 0 ) et λ ∈ R
alors u + λv = (x + λx0 , y + λy 0 , z + λz 0 ) et
f (u + λv) = (2(x + λx0 ) − 3(y + λy 0 ), z + λz 0 ) = (2x − 3y, z) + λ(2x0 − 3y 0 , z 0 ) = f (u) + λf (v)
donc f est une application linéaire.
• Soit θ un réel et Rθ : C → C l’application définie par Rθ (z) = eiθ z. Si z = ρeiα alors
Rθ (z) = ρei(α+θ) : Rθ est la rotation d’angle θ. C’est un endormorphisme du R-espace vectoriel C
car si z, z 0 ∈ C et λ ∈ R alors Rθ (z + λz 0 ) = eiθ (z + λz 0 ) = eiθ z + λeiθ z 0 = Rθ (z) + λRθ (z 0 ).
Remarque. Rθ est aussi un endomorphisme de C vu comme un C-espace vectoriel.

• Soit E l’ensemble des fonctions de R dans R et x0 ∈ R. On définit ϕx0 : E → R par ϕ(f ) = f (x0 )
(évaluation au point x0 ). C’est une forme linéaire. car pour toutes fonctions f, g ∈ E etλ ∈ R on
a ϕ(f + λg) = (f + λg)(x0 ) = f (x0 ) + λg(x0 ) = ϕ(f ) + λϕ(g).

Image d’une base.


Soit f : E → F une application linéaire et (e1 , . . . , en ) une base de E. On note ui = f (ei ) pour
i = 1, . . . , n. Soit v un vecteur de E, qu’on décompose dans la base de E : v = x1 e1 + · · · + xn en .
Alors f (v) = x1 u1 + · · · + xn un .

Propriété. Si E est de dimension finie, une application linéaire est définie de façon unique si on
connaı̂t les images des vecteurs d’une base de E.

1
Réciproquement, soit (e1 , . . . , en ) une base de E et u1 , . . . , un des vecteurs de F . On définit l’ap-
plication f : E → F par f (v) = x1 u1 + · · · + xn un pour tout v ∈ E, où (x1 , . . . , xn ) sont les
coordonnées de v dans la base (e1 , . . . , en ). Alors f est une application linéaire.

Preuve. Soit u, v ∈ E et λ ∈ K. Soit (x1 , . . . , xn ) les coordonnées de u et (y1 , . . . , yn ) les coor-


données de v dans la base (e1 , . . . , en ). Alors les coordonnées de u+λv sont (x1 +λy1 , . . . , xn +λyn )
donc f (u + λv) = (x1 + λy1 )u1 + . . . + (xn + λyn )un = x1 u1 + · · · + xn un + λ(y1 u1 + · · · + yn un ).
Donc f (u + λv) = f (u) + λf (v) et f est une application linéaire.
Cas particulier. Soit (e1 , . . . , en ) la base canonique de Kn . Si f : Kn → K est une forme linéaire,
alors f (x1 , . . . , xn ) = x1 f (e1 ) + x2 f (e2 ) + . . . + xn f (en ), où f (e1 ), . . . , f (en ) sont des scalaires.

Propriété. L’application f : Kn → K est une forme linéaire si et seulement s’il existe a1 , . . . , an ∈ K


tels que f (x1 , . . . , xn ) = a1 x1 + a2 x2 + . . . + an xn .

Exemple. f (x, y, z) = 17x − 53 y + z est une forme linéaire de R3 .

Composantes.
Définition. Si f est une application de E dans Kn , les composantes de f sont les
applications f1 , f2 , . . . , fn de E dans K correspondant aux coordonnées dans K :
pour tout u ∈ E, f (u) = (f1 (u), f2 (u), . . . , fn (u)).

Proposition. L’application f : E → K est linéaire si et seulement si ses composantes f1 , f2 , . . . , fn


sont des formes linéaires.

Exemple. L’application f : R4 → R2 définie par f (x, y, z, t) = (x + 2y + 3z + 4t, 17x − y − 13 t) est


une application linéaire car par ce qui précède (x, y, z, t) 7→ x + 2y + 3z + 4t et
(x, y, z, t) 7→ 17x − y − 13 t sont des formes linéaires.

Opérations sur les applications linéaires.


On définit les applications f + g: E → F et λf : E → F par (f + g)(u) = f (u) + g(u) et
(λf )(u) = λf (u) pour tout u ∈ E.

Théorème.
• Si f et g sont des applications linéaires de E dans F et λ ∈ K alors f + g et λf sont des
applications linéaires.
• Si f : E → F et h: F → G sont des applications linéaires alors h ◦ f est une application linéaire
de E dans G.

Preuve. Soit u, v ∈ E et µ ∈ K.
• L’application f + g va de E dans F . Elle est linéaire car
(f + g)(u + µv) = f (u + µv) + g(u + µv) = f (u) + µf (v) + g(u) + µg(v) = (f + g)(u) + µ(f + g)(v).
• Comme f va de E dans F et que h va de F dans H, l’application h ◦ f est bien définie et va de
E dans G. Notons u0 = f (u) et v 0 = f (v). L’application h ◦ f est linéaire car
h ◦ f (u + µv) = h(f (u) + µf (v)) = h(u0 + µv 0 ) = h(u0 ) + µh(v 0 ) = h ◦ f (u) + µh ◦ f (v).

2. Applications linéaires particulières


L’application identité de E est notée IdE ; elle est définie par IdE (u) = u pour tout u ∈ E. C’est
une application linéaire de E dans E.
Soit λ ∈ K. L’homothétie de rapport λ est l’application linéaire f : E → E définie par f (u) = λu
pour tout u ∈ E. On a f = λIdE .
Soit E1 et E2 deux sous-espaces vectoriels supplémentaires dans E : E = E1 ⊕ E2 . On rappelle
que tout vecteur u ∈ E se décompose de façon unique u = u1 + u2 avec u1 ∈ E1 et u2 ∈ E2 .

2
Projection.
On définit l’application p: E → E par p(u) = u1 pour tout x ∈ E. C’est une application linéaire,
appelée la projection sur E1 parallèlement à E2 .

Propriété. p(u) = u ⇔ u ∈ E1 et p(u) = ~0 ⇔ u ∈ E2 .

Preuve. Soit u ∈ E. On écrit u = u1 + u2 avec u1 ∈ E1 et u2 ∈ E2 et on a p(u) = u1 . Si p(u) = u


alors u = u1 ∈ E1 . Si p(u) = ~0 alors u1 = ~0 et u = u2 ∈ E2 . Ceci démontre les deux implications
p(u) = u ⇒ u ∈ E1 et p(u) = ~0 ⇒ u ∈ E2 .
Réciproquement, si u ∈ E1 alors la décomposition de u selon E1 ⊕ E2 est u + ~0, donc p(u) = u.
Si u ∈ E2 alors la décomposition de u selon E1 ⊕ E2 est ~0 + u, donc p(u) = ~0. Ceci démontre les
deux implications u ∈ E1 ⇒ p(u) et u ∈ E2 ⇒ p(u) = ~0. La preuve est terminée.
Symétrie.
On définit l’application s: E → E par s(u) = u1 − u2 pour tout u ∈ E. C’est une application
linéaire, appelée la symétrie par rapport à E1 parallèlement à E2 .

Propriété. s(u) = u ⇔ u ∈ E1 et s(u) = −u ⇔ u ∈ E2 .

Preuve. La preuve ressemble à la précédente.


Soit u ∈ E. On écrit u = u1 + u2 avec u1 ∈ E1 et u2 ∈ E2 et on a s(u) = u1 − u2 . Si s(u) = u alors
u1 + u2 = u1 − u2 donc 2u2 = ~0, donc u2 = ~0 et u = u1 ∈ E1 . Si s(u) =u alors u1 + u2 = −(u1 − u2 )
donc 2u1 = ~0, donc u1 = ~0 et u = u2 ∈ E2 . On a montré les deux implications “⇒”.
Réciproquement, si u ∈ E1 alors la décomposition de u selon E1 ⊕ E2 est u + ~0, donc s(u) = u.
Si u ∈ E2 alors la décomposition de u selon E1 ⊕ E2 est ~0 + u, donc s(u) = −u. On a montré les
deux implications “⇐.” Ceci termine la preuve.

3. Matrice d’une application linéaire


On considère deux espaces vectoriels E et F de dimension finie, B = (e1 , . . . , en ) une base de E
et B 0 = (e01 , . . . , e0p ) une base de F .

Définition. Soit f : E → F une application linéaire. La matrice de f dans les bases B et B0


est la matrice de taille n × p dont les coefficients de la j-ième colonne sont les coordonnées du
vecteur f (ej ) dans la base (e01 , . . . , e0p ).
Si F = E et B 0 = B alors cette matrice est appelée la matrice de f dans la base B.
Quand E = Rn et F = Rp on utilise souvent les bases canoniques de E et F .

Exemple 1. Soit f : R3 → R2 définie par f (x, y, z) = (2x − 3y + z, x + z).


Base canonique de R3 : (e1 , e2 , e3 ) avec e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1).
Base canonique de R2 : (e01 , e02 ) avec e01 = (1, 0) et e02 = (0, 1, 0).
On a : f (e1 ) = (2, 1) = 2e01 + e02 , f (e2 ) = (−3, 0) = −3e01 + 0e02 , f(e3 ) = (1, 1)= e01 + e02 ,
2 −3 1
donc la matrice de f dans les bases canoniques de R3 et R2 est
1 0 1

Exemple 2. Soit E un espace vectoriel de dimension n et B = (e1 , . . . , en ) une base quelconque.


La matrice de l’application identité dans la base B est la matrice identité In car IdE (ei ) = ei pour
i = 1, . . . , n.

Exemple 3. Soit f : R2 → R2 l’application linéaire telle que f (x, y) = ( x+y


2
, x+y
2
). Soit u1 = (1, 1),
0 0
u2 = (1, −1), B la base canonique de R et B = (u1 , u2 ) ; B est aussi une base de R2 .
2
 1 1 
La matrice de f dans la base B est 2
1
2
1 .
2 2

3
f (u1 ) = (1, 1) = u1 = u1 + 0u2 et f (u2 ) = (0, 0) = 0u1 + 0u2 donc les coordonnées de f (u1 ) dans
la base (u1 , u2 ) sont (1, 0)et les coordonnées
 de f (u2 ) dans la base (u1 , u2 ) sont (0, 0). La matrice
1 0
de f dans la base B 0 est .
0 0
f est la projection sur Ru1 parallèlement à Ru2 car ces deux applications coı̈ncident sur la base
(u1 , u2 ). C’est une base adaptée à la projection.

Théorème. Soit f : E → F une application linéaire et soit A la matrice de f dans les bases
B = (e1 , . . . , en ) et B 0 = (e01 , . . . , e0p ). Soit u un vecteur de E, on note
   
x1 y1
U =  ...  et V =  ...  où (x1 , . . . , xn ) sont les coordonnées de u dans la base B et où
   
xn yp
(y1 , . . . , yp ) sont les coordonnées de v = f (u) dans la base B 0 . Alors V = AU .

Preuve.
Soit C1 , . . . , Cn les colonnes de A. Par définition de A, les coefficients de Ci sont les coordonnées
de f (ei ) dans la base B 0 . On a vu dans le chapitre précédent que AU = x1 C1 + x2 C2 + · · · + xn Cn .
Donc les coefficients de la matrice colonne AU sont les coordonnées dans la base B 0 du vecteur
x1 f (e1 ) + x2 f (e2 ) + · · · + xn f (en ).
Or u = x1 e1 + · · · + xn en , donc f (u) = x1 f (e1 ) + x2 f (e2 ) + · · · + xn f (en ), autrement dit AU = V .
3
Exemple. Soit f : R → R2 définie par f (x, y, z) = (2x − 3y + z, x + z). Sa matrice dans les bases
2 −3 1
canoniques est A =
1 0 1
   
1   x  
−1 2x − 3y + z
A 2  = donc f (1, 2, 3) = (−1, 4). De façon générale, A  y  = .
4 x+z
3 z

Théorème.
• Soit f et g des applications linéaires de E dans F et λ ∈ K. Si A est la matrice de f et si B est
la matrice de g dans les bases B, B 0 , alors A + B est la matrice de f + g dans ces bases et λA est
la matrice de λf .
• Soit f : E → F et g: F → G des applications linéaires. Si A est la matrice de f dans les bases
B, B 0 et si B est la matrice de g dans les bases B 0 et B 00 alors BA est la matrice de g ◦ f dans les
bases B, B 00 .

Preuve.
• Soit B = (e1 , . . . , en ). On note A1 , . . . , An les colonnes de A et B1 , . . . , Bn les colonnes de B. On
a (f + g)(ei ) = f (ei ) + g(ei ), donc la i-ième colonne de la matrice de f + g est Ai + Bi . On en
déduit que la matrice de f + g dans les bases B, B 0 est A + B. De même la matrice de λf est λA
car (λf )(ei ) = λf (ei ).
• Soit B = (e1 , . . . , en ), p = dim F et q = dim G. Soit u ∈ E, notons (x1 , . . . , xn ) les coordonnées
de u dans la base B, (y1 , . . . , yp ) les coordonnées de v = f (u) dans la base B 0 et (z1 , . . . , zq ) les coor-
données de g(v) = g ◦ f (u) dans la base B 00 . Notons X, Y, Z les matrices colonnes correspondantes.
On a vu au théorème précédent que Y = AX et Z = BY . On a donc Z = B(AX) = (BA)X.
Appliquons ce résultat pour u = ei : on a xi = 1 et xj = 0 si j 6= 0 donc la matrice (BA)X est égale
à la i-ième colonne de BA. Par définition Z est la matrice des coordonnées de g ◦ f (u) = g ◦ f (ei )
dans la base B 00 . Comme Z = BAX, on en déduit que les colonnes de la matrice BA sont les
coordonnées de (g ◦ f (e1 ), . . . , g ◦ f (en )) dans la base B 00 , autrement dit BA est la matrice de g ◦ f
dans les bases B, B 00 .

4
4. Définitions : injection, surjection, bijection, isomorphisme

Définition.
Soit ϕ: X → Y une application.
– ϕ est injective si deux éléments distincts ont des images distinctes, autrement dit un élément
de Y a au plus un antécédent (éventuellement zéro), ou encore : ϕ(x) = ϕ(y) ⇒ x = y.
(C’est généralement cette dernière propriété qu’on utilise pour montrer l’injectivité.)
– ϕ est surjective si tout point de Y a au moins un antécédent (éventuellement plusieurs), ce
qu’on peut écrire ϕ(X) = Y .
– ϕ est bijective si elle est injective et surjective, autrement dit tout élément de Y a un et un
seul antécédent. Cela signifie exactement que ϕ est inversible.

Exemple 1.
e: R → R est injective. En effet, si ex = ey alors on peut prendre ln de chaque côté (car ex > 0 et
ey > 0) et on trouve x = y. Mais elle n’est pas surjective car ∀x ∈ R, ex > 0 donc par exemple −1
n’a pas d’antécédent (de même que tout point y ≤ 0).

Exemple 2.
Soit ϕ: R → R, ϕ(x) = x + 3. ϕ est injective car si x + 3 = x0 + 3 alors x = x0 . ϕ est surjective car
si y ∈ R alors ϕ(y − 3) = y. Donc ϕ est bijective.
Ceci revient à dire que dans l’équation y = ϕ(x) d’inconnue x il y a une et une seule solution x
(qui dépend de y). Ici x = y − 3 et ϕ−1 (y) = y − 3.

Définition.
Soit E, F deux espaces vectoriels. Un isomorphisme de E sur F est une application linéaire
f : E → F qui est bijective.

Théorème.
Soit E, F deux espaces vectoriels. Si l’application f est un isomorphisme de E sur F alors f −1 est
un isomorphisme de F sur E

Preuve.
Puisque f : E → F est une bijection, on sait que f −1 : F → E existe et est une bijection. Il reste à
montrer que c’est une application linéaire.
Soit v, v 0 ∈ F et λ ∈ K. On pose u = f −1 (v) et u0 = f −1 (v 0 ), on a f (u) = v et f (u0 ) = v 0 . Comme
f est linéaire, on a f (u + λu0 ) = f (u) + λf (u0 ), donc f (u + λu0 ) = v + λv 0 . En prenant f −1 , on
trouve u + λu0 = f −1 (v + λv 0 ), autrement dit f −1 (v) + λf −1 (v 0 ) = f −1 (v + λv 0 ), ce qui prouve que
f −1 est linéaire.

Définition.
On dit que les espaces vectoriels E et F sont isomorphes ou que E est isomorphe à F s’il existe
un isomorphisme de E sur F .

Exemple.  
4 a b
Soit f : M2 (R) → R , f = (a, b, c, d). f est une application linéaire et c’est une bijection,
c d  
−1 a b
de bijection réciproque f (a, b, c, d) = . Donc M2 (R) et R4 sont isomorphes.
c d

5
5. Image d’un sous-espace vectoriel, noyau
Dans cette partie, E et F sont des espaces vectoriels sur K et f : E → F est une application
linéaire.

Définition.
Si A est une partie de E, on note f (A) = {f (x) ∈ F | x ∈ A}).

Théorème.
Si G est un sous-espace vectoriel de E alors f (G) est un sous-espace vectoriel de F .

Preuve.
On a ~0 ∈ G et f (~0) = ~0, donc ~0 ∈ f (G) et f (G) 6= ∅.
Soit v, v 0 ∈ f (G) et λ ∈ K. Par définition il existe u, u0 ∈ G tels que f (u) = v et f (u0 ) = v 0 . On
a donc v + λv 0 = f (u) + λf (u0 ) = f (u + λu0 ) car l’application f est linéaire. Or u + λu0 ∈ G car
G est un sous-espace vectoriel, donc v + λv 0 ∈ f (G). L’ensemble f (G) est donc un sous-espace
vectoriel de F .

Définition.
On appelle image de f l’ensemble f (E) et on le note Imf . C’est un sous-espace vectoriel de F .
On appelle noyau de f l’ensemble des vecteurs u ∈ E tels que f (u) = ~0 et on le note Kerf . C’est
un sous-espace vectoriel de E.

Preuve.
Montrons que Kerf est un sous-espace vectoriel. On a f (~0) = ~0 donc ~0 ∈ Kerf et Kerf 6= ∅. Soit
u, u0 ∈ Kerf et λ ∈ K. Par définition f (u) = ~0 et f (u0 ) = ~0, donc f (u + λu0 ) = f (u) + λf (u0 ) = ~0,
ce qui implique que u + λu0 ∈ Kerf . On en déduit que Kerf est un sous-espace vectoriel de E.

Théorème.
L’application linéaire f est injective si et seulement si Kerf = {~0}.

Preuve.
Supposons que f est injective. Soit u ∈ Kerf . On a f (u) = ~0 = f (~0), donc par injectivité u = ~0.
Par conséquent Kerf = {~0}.
Réciproquement, supposons que Kerf = {~0}. Soit u, v ∈ E tels que f (u) = f (v), autrement dit
f (u) − f (v) = ~0. Comme f est linéaire, on a f (u) − f (v) = f (u − v) = ~0, donc u − v ∈ Kerf .
On en déduit que u − v = ~0, c’est-à-dire u = v. Par conséquent f est injective. Ceci termine la
preuve.

Par définition, f est surjective si et seulement si Imf = F .


On utilise souvent ces résultats sous la forme suivante :

Théorème.
L’application linéaire f est un isomorphisme si et seulement si Kerf = {~0} et Imf = F .

Théorème.
Soit G un sous-espace vectoriel de E. Si G est engendré par u1 , . . . , uk alors f (G) est engendré
par f (u1 ), . . . , f (uk ). En particulier dim f (G) ≤ dim G.
Si E est de dimension finie, dim Imf ≤ dim E. La dimension de Imf est appelée le rang de f .

Preuve.
Comme ui ∈ G on a f (ui ) ∈ f (G). Soit v ∈ f (G). Par définition il existe u ∈ G tel que f (u) = v.
Comme G = Vect(u1 , . . . , uk ), il existe des scalaires λ1 , . . . , λk tels que u = λ1 u1 + · · · + λk uk .

6
Par conséquent, v = f (λ1 u1 + · · · + λk uk ) = λ1 f (u1 ) + · · · + λk f (uk ). Ceci montre que la famille
(f (u1 ), . . . , f (uk )) engendre f (G).
Si dim G = k, il existe (u1 , . . . , uk ) une base de G, donc f (G) = Vect(f (u1 ), . . . , f (uk )) et
dim f (G) ≤ k.

Exemple.
Il n’existe pas d’application linéaire surjective f : R2 → R3 car dim Imf ≤ 2 < dim R3 .

Théorème.
Supposons que E est de dimension finie. Soit (e1 , . . . , en ) une base de E et soit f : E → F une
application linéaire. L’application f est un isomorphisme si et seulement si (f (e1 ), . . . , f (en )) est
une base de F .
En particulier, si f est un isomorphisme alors dim E = dim F .

Preuve.
Supposons que f est un isomorphisme et montrons que (f (e1 ), . . . , f (en )) est une base de F . L’ap-
plication f est surjective donc Imf = F . Comme (e1 , . . . , en ) engendre E, le théorème précédent
implique que la famille (f (e1 ), . . . , f (en )) engendre f (E) = F .
Soit λ1 , . . . , λn des scalaires tels que λ1 f (e1 ) + · · · + λn f (en ) = ~0. Par linéarité, on obtient que
f (λ1 e1 + · · · + λn en ) = ~0, et en prenant f −1 on trouve λ1 e1 + · · · + λn en = ~0. Comme (e1 , . . . , en )
est une famille libre de E, ceci implique que λ1 = · · · = λn = 0. Par conséquent, (f (e1 ), . . . , f (en ))
est une famille libre de F .
La famille (f (e1 ), . . . , f (en )) est libre et génératrice dans F , donc c’est une base de F .
Réciproquement, supposons que (f (e1 ), . . . , f (en )) est une base de F et montrons que f est un
isomorphisme. Le théorème précédent implique que (f (e1 ), . . . , f (en )) engendre Imf ; comme c’est
une famille génératrice de F , on obtient que Imf = F , autrement dit f est surjective.
Soit u ∈ E et (x1 , . . . , xn ) ses coordonnées dans la base (e1 , . . . , en ). On a u = x1 e1 +· · ·+xn en donc
f (u) = x1 f (e1 ) + · · · + xn f (en ), autrement dit (x1 , . . . , xn ) sont les coordonnées de f (u) dans la
base (f (e1 ), . . . , f (en )). Si f (u) = ~0 alors les coordonnées de f (u) sont nulles : x1 = · · · = xn = 0,
donc on a aussi u = ~0. Par conséquent, Kerf = {~0} et par un théorème vuprécédemment f est
injective.
L’application linéaire f est surjective et injective, donc c’est un isomorphisme.

Théorème.
Suposons que E et F sont de dimension finie. Alors E et F sont isomorphes si et seulement si
dim E = dim F .

Preuve.
Soit n = dim E. Soit (e1 , . . . , en ) une base de E. Supposons que E et F sont isomorphes : il existe
un isomorphisme f : E → F . Par le théorème précédent, (f (e1 ), . . . , f (en )) est une base de F donc
dim F = n.
Réciproquement, supposons que dim F = n. Soit (u1 , . . . , un ) une base de F . Nous avons vu qu’on
peut définir une application linéaire f : E → F en posant f (ei ) = ui pour i = 1, . . . , n. Par le
théorème précédent, f est un isomorphisme, autrement dit E et F sont isomorphes.

Le théorème suivant s’appelle également théorème de la dimension ou théorème du rang.


Théorème noyau-image.
Si E est de dimension finie alors

dim E = dim Kerf + dim Imf.

7
Preuve.
Puisque E est de dimension finie, le sous-espace vectoriel Kerf admet un supplémentaire dans E.
Choisissons-en un et appelons-le G. Cela signifie que E = G + Kerf et G ∩ Kerf = {~0}.
Soit g: G → Imf l’application définie par g(u) = f (u) pour tout u ∈ G (c’est une restriction de
l’application f ). Calculons Ker g. Soit u ∈ G tel que g(u) = ~0, autrement dit f (u) = ~0. On a donc
u ∈ G ∩ Kerf , donc u = ~0. Par conséquent Ker g = {~0} donc g est injective.
Soit v ∈ Imf . Par définition il existe u ∈ E tel que f (u) = v. Puisque E = G + Kerf , il existe
u1 ∈ G et u2 ∈ Kerf tels que u = u1 + u2 . Alors

v = f (u) = f (u1 + u2 ) = f (u1 ) + f (u2 ) = f (u1 ) + ~0 = g(u1 ).

L’application g: G → Imf est donc surjective. Par conséquent g est un isomorphisme de G sur
Imf , donc dim G = dim Imf . Enfin, puisque E = Kerf ⊕ G, on a dim E = dim Kerf + dim G donc
dim E = dim Kerf + dim Imf . Ceci conclut la preuve.

Exemple 1.
Soit f : Rn → R, f (x1 , . . . , xn ) = a1 x1 + · · · + an xn avec a1 , . . . , an sont tous nuls. Si (e1 , . . . , en )
est la base canonique de Rn , on a f (ei ) = ai . Donc Imf 6= {0}. Par conséquent dim Imf ≥ 1
et comme Imf est inclus dans R qui est de dimension 1, on a dim Imf = 1. Par le théorème
noyau-image, on en déduit Kerf est de dimension n − 1, autrement dit le sous-espace vectoriel
d’équation cartésienne a1 x1 + · · · + an xn = 0 est de dimension n − 1.

Exemple 2.
Il n’existe pas d’application linéaire injective f : R3 → R2 car dim Imf ≤ dim R2 = 2 et comme
dim Kerf = dim R2 − dim Imf on a dim Kerf ≥ 1.

Théorème.
Supposons que dim E = dim F . Alors les propriétés suivantes sont équivalentes :
– f est injective,
– f est surjective,
– f est un isomorphisme.
En général, il est plus facile de montrer qu’une application est injective (en montrant Kerf = {~0}).

Preuve.
On a les équivalences suivantes :
• f injective ⇔ Kerf = {~0} ⇔ dim Kerf = 0.
• f surjective ⇔ Imf = F ⇔ dim Imf = dim F ⇔ dim Imf = dim E.
Le théorème noyau-image nous donne que dim E = dim Kerf + dim Imf donc on a l’équivalence
dim Kerf = 0 ⇔ dim Imf = dim E, autrement dit f est injective si et seulement si elle est
surjective. Donc, si on suppose que f est injective ou surjective, elle est bijective. Et si on suppose
que f est bijective, elle est évidemment injective et surjective.

Exemple.
Soit f : R2 → R2 , f (x, y) = (x + y, x − y). Cherchons Kerf . f (x, y) = ~0 est équivalent à
 
x +y = 0 x +y = 0
x −y = 0 −2y = 0

donc y = 0 et x = 0. On a montré que Kerf = {~0} donc f est un isomorphisme (ici E = F = R2


donc évidemment dim E = dim F ).

8
6. Matrice d’une application inversible

Théorème.
Soit E et E 0 des espaces vectoriels de même dimension n, B une base de E et B 0 une base de
E 0 . Soit f : E → F une application linéaire et soit A sa matrice dans les bases B et B 0 . Alors
l’application f est un isomorphisme si et seulement si la matrice A est inversible.
De plus, si f est un isomorphisme alors A−1 est la matrice de f −1 dans les bases B 0 et B.

Preuve. Supposons que f est un isomorphisme. Soit M la matrice de f −1 dans les bases B 0 et B.
Par un théorème vu au paragraphe 3, la matrice M A est la matrice de l’application f −1 ◦ f dans
les bases B et B. Or f −1 ◦ f = IdE et la matrice de IdE dans la base B est la matrice identité, donc
M A = In . On a de même f ◦ f −1 = IdF et sa matrice dans la base B 0 est AM , donc AM = In .
On en déduit que A est inversible et M = A−1 .
Réciproquement, supposons que A est inversible. Soit g: F → E l’application linéaire telle que les
coordonnées de g(u0i ) dans la base B sont les coordonnées de la colonne i de la matrice A−1 (on
a vu qu’on peut définir une application linéaire en donnant les images des vecteurs d’une base).
Autrement dit, A−1 est la matrice de g dans les bases B 0 et B. La matrice A−1 A = In est la
matrice de l’application g ◦ f dans la base B. Or In est la matrice de IdE dans la base B, donc
g ◦ f = IdE (ces deux applications linéaires ont la même matrice, donc elles coı̈ncident sur une
base, donc elles sont égales). De même, la matrice AA−1 = In est la matrice de f ◦ g dans la base
B 0 , donc f ◦ g = IdF . On en déduit que f est inversible et g = f −1 .

7. Changement de bases

Définition.
Soit B = (u1 , . . . , un ) et B 0 = (u01 , . . . , u0n ) deux bases de E. La matrice de passage de la base
B à la base B 0 est la matrice carrée P ∈ Mn (K) dont les coefficients de la colonne i sont les
coordonnées du vecteur u0i dans la base B.

Exemple.
Soit E = R2 , u1 = (1, 0), u2 = (0, 1), B = (u1 , u2 ) (c’est la base canonique de R2 ), u01 = (1, 1),
u02 = (2, 3) et B 0= (u01 , u02 ) ; on peut montrer que B 0 est une base de R2 . La matrice de passage de
1 2
B à B 0 est P = .
1 3
On a (1, 0) = 3(1, 1) − (2, 3) et (0, 1) = −2(1, 1) + (2, 3), autrement dit u1 = 3u01 − u02 et
u2 = −2u01 + u02 . Donc les coordonnées de u1 dans B 0 sont (3,−1). et lescoordonnées de u2
3 −2
dans B 0 sont (−2, 1). La matrice de passage de B 0 à B est : P 0 = .
−1 1

Propriétés des matrices de passage.


Considérons l’application identité IdE : E → E. On a IdE (u0i ) = u0i donc par définition la matrice
de l’application IdE dans les bases B et B 0 est la matrice de passage P . Comme l’application IdE
est un isomorphisme, on en déduit que P est inversible et que P −1 est la matrice de l’application
Id−1 0
E = IdE dans les bases B et B. Par conséquent P
−1
est la matrice de passage de B 0 à B.
Soit v ∈ E. Notons (x1 , . . . , x
n ) les 
coordonnées
 de  v dans la base B, (x1 ,0 . . . , x0n ) les coordonnées
x1 x01
.
de v dans la base B 0 et X =  .. , X 0 =  ... .
   
xn x0n
On a l’égalité v = IdE (v), ce qui se traduit par la relation matricielle X = P X 0 .

9
Propriétés.
Soit B et B 0 des bases de E et soit P la matrice de passage de B à B 0 .
• La matrice P est inversible et son inverse P −1 est la matrice de passage de B 0 à B.
• Si X représente les coordonnées d’un vecteur u dans la base B et si X 0 représente les coordonnées
de u dans la base B 0 alors X = P X 0 .
Attention au piège !
P s’appelle la matrice de passage de B à B0 mais la formule X = P X 0 donne les coordonnées
dans B en fonction des coordonnées dans B0 , et non l’inverse.
Pour avoir les coordonnées dans B 0 en fonction des coordonnées dans B, il faut utiliser la formule
X 0 = P −1 X.
Formule de changement de bases.
Théorème.
Soit B et B 0 des bases de E et P la matrice de passage de B à B 0 . Soit f : E → E un endomorphisme
de E, A la matrice de f dans la base B et A0 la matrice de f dans la base B 0 . Alors on a la formule
de changement de bases suivante :
A0 = P −1 AP .
Preuve. Nous avons déjà vu que P est la matrice de IdE dans les bases B et B 0 et que P −1 est la
matrice de IdE dans les bases B 0 et B. Par un théorème vu au paragraphe 3, AP est la matrice de
f ◦ IdE dans les bases B 0 et B, et de même P −1 (AP ) est la matrice de IdE ◦ f ◦ IdE dans la base B 0 .
Or IdE ◦ f ◦ IdE = f donc P −1 AP est la matrice de f dans la base B 0 , c’est-à-dire P −1 AP = A0 .
Ceci termine la preuve.
Remarque.
La formule du changement de base a un intérêt théorique mais en pratique on ne l’utilise pas pour
calculer A0 à partir de A et de P . Pour calculer A0 , on revient à la définition de la matrice d’une
application dans une base.
Exemple.
Cet exemple illustre à quoi peut servir la formule de changement de bases.

2 2 5 −11
Soit f : R → R l’application linéaire dont la matrice dans la base canonique est A = 2
.
3 1
Soit u1 = (1, 1) et u2 = (1, 3). Les vecteurs u1 , u2 forment une base de R2 car ils ne sont pas
colinéaires (c’est-à-dire ils ne sont pas proportionnels).
On a f (u1 ) =(2, 2) = 2u1 et f (u2 ) = (1, 3) = u1 donc la matrice de f dans la base (u1 , u2 ) est
1 0
A0 = . Les puissances de A0 se calculent facilement par récurrence :
 0 2     
02 1 0 03 1 0 0n 1 0
A = ,A = ,. . . et A = pour tout entier n ≥ 1.
0 4 0 8 0 2n
 
1 1
La matrice de passage de la base canonique à la base (u1 , u2 ) est P = . Si on calcule son
  1 3
−1 1 3 −1
inverse, on trouve P = 2 .
−1 1
On a A0 = P −1 AP donc A = P A0 P −1 . Calculons les puissances de A en fonction de A0 :
A2 = (P A0 P −1 )(P A0 P −1 ) = P A02 P −1 , A3 = A2 A = (P A02 P −1 )(P A0 P −1 ) = P A03 P −1 ,. . .
An = P A0n P −1 . Si on utilise la formule de A0n pour calculer le produit P A0n P −1 , on trouve :
 
n 1 3 − 2n −1 + 2n
A = pour tout entier n ≥ 1.
2 3 − 3.2n −1 + 3.2n

10

Vous aimerez peut-être aussi