Cours7bis SMPE
Cours7bis SMPE
Cours7bis SMPE
Applications linéaires
Définition. Une application linéaire de E dans F est une application f : E → F telle que pour
tous vecteurs u, v ∈ E et tout scalaire λ ∈ K,
• f (u + v) = f (u) + f (v),
• f (λu) = λf (u).
Si F = K on dit que f est une forme linéaire. Si F = E, f est appelée un endomorphisme.
Pour montrer que f est une application linéaire, il suffit de vérifier que
f (u + λv) = f (u) + λf (v) pour tous u, v ∈ E, λ ∈ K.
Preuve.
• Soit λ = 0 et u ∈ E. On a f (λu) = λf (u). Or λu = ~0E et λf (u) = ~0F , donc f (~0E ) = ~0F .
• On montre par récurrence sur n la propriété suivante :
∀u1 , . . . , un ∈ E, ∀λ1 , . . . , λn ∈ K, on a f (λ1 u1 + · · · + λn un ) = λ1 f (u1 ) + · · · + λn f (un ).
– Pour n = 1 on a f (λ1 u1 ) = λ1 u1 par définition.
– On suppose que le résultat est vrai au rang n. On pose v = λ1 u1 + · · · + λn un et w = λn+1 un+1 .
Alors f (λ1 u1 + · · · + λn un + λn+1 un+1 ) = f (v + w) = f (v) + f (w). Par hypothèse de récurrence
f (v) = λ1 f (u1 ) + · · · + λn f (un ) et par définition f (w) = λn+1 f (un+1 ). Donc
f (λ1 u1 + · · · + λn un + λn+1 un+1 ) = λ1 f (u1 ) + · · · + λn f (un ) + λn+1 f (un+1 ),
ce qui est la propriété de récurrence au rang n + 1.
– Conclusion : la propriété de récurrence est vraie pour tout n.
Exemples.
• Soit f : R3 → R2 définie par f (x, y, z) = (2x − 3y, z). Si u = (x, y, z), v = (x0 , y 0 , z 0 ) et λ ∈ R
alors u + λv = (x + λx0 , y + λy 0 , z + λz 0 ) et
f (u + λv) = (2(x + λx0 ) − 3(y + λy 0 ), z + λz 0 ) = (2x − 3y, z) + λ(2x0 − 3y 0 , z 0 ) = f (u) + λf (v)
donc f est une application linéaire.
• Soit θ un réel et Rθ : C → C l’application définie par Rθ (z) = eiθ z. Si z = ρeiα alors
Rθ (z) = ρei(α+θ) : Rθ est la rotation d’angle θ. C’est un endormorphisme du R-espace vectoriel C
car si z, z 0 ∈ C et λ ∈ R alors Rθ (z + λz 0 ) = eiθ (z + λz 0 ) = eiθ z + λeiθ z 0 = Rθ (z) + λRθ (z 0 ).
Remarque. Rθ est aussi un endomorphisme de C vu comme un C-espace vectoriel.
• Soit E l’ensemble des fonctions de R dans R et x0 ∈ R. On définit ϕx0 : E → R par ϕ(f ) = f (x0 )
(évaluation au point x0 ). C’est une forme linéaire. car pour toutes fonctions f, g ∈ E etλ ∈ R on
a ϕ(f + λg) = (f + λg)(x0 ) = f (x0 ) + λg(x0 ) = ϕ(f ) + λϕ(g).
Propriété. Si E est de dimension finie, une application linéaire est définie de façon unique si on
connaı̂t les images des vecteurs d’une base de E.
1
Réciproquement, soit (e1 , . . . , en ) une base de E et u1 , . . . , un des vecteurs de F . On définit l’ap-
plication f : E → F par f (v) = x1 u1 + · · · + xn un pour tout v ∈ E, où (x1 , . . . , xn ) sont les
coordonnées de v dans la base (e1 , . . . , en ). Alors f est une application linéaire.
Composantes.
Définition. Si f est une application de E dans Kn , les composantes de f sont les
applications f1 , f2 , . . . , fn de E dans K correspondant aux coordonnées dans K :
pour tout u ∈ E, f (u) = (f1 (u), f2 (u), . . . , fn (u)).
Théorème.
• Si f et g sont des applications linéaires de E dans F et λ ∈ K alors f + g et λf sont des
applications linéaires.
• Si f : E → F et h: F → G sont des applications linéaires alors h ◦ f est une application linéaire
de E dans G.
Preuve. Soit u, v ∈ E et µ ∈ K.
• L’application f + g va de E dans F . Elle est linéaire car
(f + g)(u + µv) = f (u + µv) + g(u + µv) = f (u) + µf (v) + g(u) + µg(v) = (f + g)(u) + µ(f + g)(v).
• Comme f va de E dans F et que h va de F dans H, l’application h ◦ f est bien définie et va de
E dans G. Notons u0 = f (u) et v 0 = f (v). L’application h ◦ f est linéaire car
h ◦ f (u + µv) = h(f (u) + µf (v)) = h(u0 + µv 0 ) = h(u0 ) + µh(v 0 ) = h ◦ f (u) + µh ◦ f (v).
2
Projection.
On définit l’application p: E → E par p(u) = u1 pour tout x ∈ E. C’est une application linéaire,
appelée la projection sur E1 parallèlement à E2 .
3
f (u1 ) = (1, 1) = u1 = u1 + 0u2 et f (u2 ) = (0, 0) = 0u1 + 0u2 donc les coordonnées de f (u1 ) dans
la base (u1 , u2 ) sont (1, 0)et les coordonnées
de f (u2 ) dans la base (u1 , u2 ) sont (0, 0). La matrice
1 0
de f dans la base B 0 est .
0 0
f est la projection sur Ru1 parallèlement à Ru2 car ces deux applications coı̈ncident sur la base
(u1 , u2 ). C’est une base adaptée à la projection.
Théorème. Soit f : E → F une application linéaire et soit A la matrice de f dans les bases
B = (e1 , . . . , en ) et B 0 = (e01 , . . . , e0p ). Soit u un vecteur de E, on note
x1 y1
U = ... et V = ... où (x1 , . . . , xn ) sont les coordonnées de u dans la base B et où
xn yp
(y1 , . . . , yp ) sont les coordonnées de v = f (u) dans la base B 0 . Alors V = AU .
Preuve.
Soit C1 , . . . , Cn les colonnes de A. Par définition de A, les coefficients de Ci sont les coordonnées
de f (ei ) dans la base B 0 . On a vu dans le chapitre précédent que AU = x1 C1 + x2 C2 + · · · + xn Cn .
Donc les coefficients de la matrice colonne AU sont les coordonnées dans la base B 0 du vecteur
x1 f (e1 ) + x2 f (e2 ) + · · · + xn f (en ).
Or u = x1 e1 + · · · + xn en , donc f (u) = x1 f (e1 ) + x2 f (e2 ) + · · · + xn f (en ), autrement dit AU = V .
3
Exemple. Soit f : R → R2 définie par f (x, y, z) = (2x − 3y + z, x + z). Sa matrice dans les bases
2 −3 1
canoniques est A =
1 0 1
1 x
−1 2x − 3y + z
A 2 = donc f (1, 2, 3) = (−1, 4). De façon générale, A y = .
4 x+z
3 z
Théorème.
• Soit f et g des applications linéaires de E dans F et λ ∈ K. Si A est la matrice de f et si B est
la matrice de g dans les bases B, B 0 , alors A + B est la matrice de f + g dans ces bases et λA est
la matrice de λf .
• Soit f : E → F et g: F → G des applications linéaires. Si A est la matrice de f dans les bases
B, B 0 et si B est la matrice de g dans les bases B 0 et B 00 alors BA est la matrice de g ◦ f dans les
bases B, B 00 .
Preuve.
• Soit B = (e1 , . . . , en ). On note A1 , . . . , An les colonnes de A et B1 , . . . , Bn les colonnes de B. On
a (f + g)(ei ) = f (ei ) + g(ei ), donc la i-ième colonne de la matrice de f + g est Ai + Bi . On en
déduit que la matrice de f + g dans les bases B, B 0 est A + B. De même la matrice de λf est λA
car (λf )(ei ) = λf (ei ).
• Soit B = (e1 , . . . , en ), p = dim F et q = dim G. Soit u ∈ E, notons (x1 , . . . , xn ) les coordonnées
de u dans la base B, (y1 , . . . , yp ) les coordonnées de v = f (u) dans la base B 0 et (z1 , . . . , zq ) les coor-
données de g(v) = g ◦ f (u) dans la base B 00 . Notons X, Y, Z les matrices colonnes correspondantes.
On a vu au théorème précédent que Y = AX et Z = BY . On a donc Z = B(AX) = (BA)X.
Appliquons ce résultat pour u = ei : on a xi = 1 et xj = 0 si j 6= 0 donc la matrice (BA)X est égale
à la i-ième colonne de BA. Par définition Z est la matrice des coordonnées de g ◦ f (u) = g ◦ f (ei )
dans la base B 00 . Comme Z = BAX, on en déduit que les colonnes de la matrice BA sont les
coordonnées de (g ◦ f (e1 ), . . . , g ◦ f (en )) dans la base B 00 , autrement dit BA est la matrice de g ◦ f
dans les bases B, B 00 .
4
4. Définitions : injection, surjection, bijection, isomorphisme
Définition.
Soit ϕ: X → Y une application.
– ϕ est injective si deux éléments distincts ont des images distinctes, autrement dit un élément
de Y a au plus un antécédent (éventuellement zéro), ou encore : ϕ(x) = ϕ(y) ⇒ x = y.
(C’est généralement cette dernière propriété qu’on utilise pour montrer l’injectivité.)
– ϕ est surjective si tout point de Y a au moins un antécédent (éventuellement plusieurs), ce
qu’on peut écrire ϕ(X) = Y .
– ϕ est bijective si elle est injective et surjective, autrement dit tout élément de Y a un et un
seul antécédent. Cela signifie exactement que ϕ est inversible.
Exemple 1.
e: R → R est injective. En effet, si ex = ey alors on peut prendre ln de chaque côté (car ex > 0 et
ey > 0) et on trouve x = y. Mais elle n’est pas surjective car ∀x ∈ R, ex > 0 donc par exemple −1
n’a pas d’antécédent (de même que tout point y ≤ 0).
Exemple 2.
Soit ϕ: R → R, ϕ(x) = x + 3. ϕ est injective car si x + 3 = x0 + 3 alors x = x0 . ϕ est surjective car
si y ∈ R alors ϕ(y − 3) = y. Donc ϕ est bijective.
Ceci revient à dire que dans l’équation y = ϕ(x) d’inconnue x il y a une et une seule solution x
(qui dépend de y). Ici x = y − 3 et ϕ−1 (y) = y − 3.
Définition.
Soit E, F deux espaces vectoriels. Un isomorphisme de E sur F est une application linéaire
f : E → F qui est bijective.
Théorème.
Soit E, F deux espaces vectoriels. Si l’application f est un isomorphisme de E sur F alors f −1 est
un isomorphisme de F sur E
Preuve.
Puisque f : E → F est une bijection, on sait que f −1 : F → E existe et est une bijection. Il reste à
montrer que c’est une application linéaire.
Soit v, v 0 ∈ F et λ ∈ K. On pose u = f −1 (v) et u0 = f −1 (v 0 ), on a f (u) = v et f (u0 ) = v 0 . Comme
f est linéaire, on a f (u + λu0 ) = f (u) + λf (u0 ), donc f (u + λu0 ) = v + λv 0 . En prenant f −1 , on
trouve u + λu0 = f −1 (v + λv 0 ), autrement dit f −1 (v) + λf −1 (v 0 ) = f −1 (v + λv 0 ), ce qui prouve que
f −1 est linéaire.
Définition.
On dit que les espaces vectoriels E et F sont isomorphes ou que E est isomorphe à F s’il existe
un isomorphisme de E sur F .
Exemple.
4 a b
Soit f : M2 (R) → R , f = (a, b, c, d). f est une application linéaire et c’est une bijection,
c d
−1 a b
de bijection réciproque f (a, b, c, d) = . Donc M2 (R) et R4 sont isomorphes.
c d
5
5. Image d’un sous-espace vectoriel, noyau
Dans cette partie, E et F sont des espaces vectoriels sur K et f : E → F est une application
linéaire.
Définition.
Si A est une partie de E, on note f (A) = {f (x) ∈ F | x ∈ A}).
Théorème.
Si G est un sous-espace vectoriel de E alors f (G) est un sous-espace vectoriel de F .
Preuve.
On a ~0 ∈ G et f (~0) = ~0, donc ~0 ∈ f (G) et f (G) 6= ∅.
Soit v, v 0 ∈ f (G) et λ ∈ K. Par définition il existe u, u0 ∈ G tels que f (u) = v et f (u0 ) = v 0 . On
a donc v + λv 0 = f (u) + λf (u0 ) = f (u + λu0 ) car l’application f est linéaire. Or u + λu0 ∈ G car
G est un sous-espace vectoriel, donc v + λv 0 ∈ f (G). L’ensemble f (G) est donc un sous-espace
vectoriel de F .
Définition.
On appelle image de f l’ensemble f (E) et on le note Imf . C’est un sous-espace vectoriel de F .
On appelle noyau de f l’ensemble des vecteurs u ∈ E tels que f (u) = ~0 et on le note Kerf . C’est
un sous-espace vectoriel de E.
Preuve.
Montrons que Kerf est un sous-espace vectoriel. On a f (~0) = ~0 donc ~0 ∈ Kerf et Kerf 6= ∅. Soit
u, u0 ∈ Kerf et λ ∈ K. Par définition f (u) = ~0 et f (u0 ) = ~0, donc f (u + λu0 ) = f (u) + λf (u0 ) = ~0,
ce qui implique que u + λu0 ∈ Kerf . On en déduit que Kerf est un sous-espace vectoriel de E.
Théorème.
L’application linéaire f est injective si et seulement si Kerf = {~0}.
Preuve.
Supposons que f est injective. Soit u ∈ Kerf . On a f (u) = ~0 = f (~0), donc par injectivité u = ~0.
Par conséquent Kerf = {~0}.
Réciproquement, supposons que Kerf = {~0}. Soit u, v ∈ E tels que f (u) = f (v), autrement dit
f (u) − f (v) = ~0. Comme f est linéaire, on a f (u) − f (v) = f (u − v) = ~0, donc u − v ∈ Kerf .
On en déduit que u − v = ~0, c’est-à-dire u = v. Par conséquent f est injective. Ceci termine la
preuve.
Théorème.
L’application linéaire f est un isomorphisme si et seulement si Kerf = {~0} et Imf = F .
Théorème.
Soit G un sous-espace vectoriel de E. Si G est engendré par u1 , . . . , uk alors f (G) est engendré
par f (u1 ), . . . , f (uk ). En particulier dim f (G) ≤ dim G.
Si E est de dimension finie, dim Imf ≤ dim E. La dimension de Imf est appelée le rang de f .
Preuve.
Comme ui ∈ G on a f (ui ) ∈ f (G). Soit v ∈ f (G). Par définition il existe u ∈ G tel que f (u) = v.
Comme G = Vect(u1 , . . . , uk ), il existe des scalaires λ1 , . . . , λk tels que u = λ1 u1 + · · · + λk uk .
6
Par conséquent, v = f (λ1 u1 + · · · + λk uk ) = λ1 f (u1 ) + · · · + λk f (uk ). Ceci montre que la famille
(f (u1 ), . . . , f (uk )) engendre f (G).
Si dim G = k, il existe (u1 , . . . , uk ) une base de G, donc f (G) = Vect(f (u1 ), . . . , f (uk )) et
dim f (G) ≤ k.
Exemple.
Il n’existe pas d’application linéaire surjective f : R2 → R3 car dim Imf ≤ 2 < dim R3 .
Théorème.
Supposons que E est de dimension finie. Soit (e1 , . . . , en ) une base de E et soit f : E → F une
application linéaire. L’application f est un isomorphisme si et seulement si (f (e1 ), . . . , f (en )) est
une base de F .
En particulier, si f est un isomorphisme alors dim E = dim F .
Preuve.
Supposons que f est un isomorphisme et montrons que (f (e1 ), . . . , f (en )) est une base de F . L’ap-
plication f est surjective donc Imf = F . Comme (e1 , . . . , en ) engendre E, le théorème précédent
implique que la famille (f (e1 ), . . . , f (en )) engendre f (E) = F .
Soit λ1 , . . . , λn des scalaires tels que λ1 f (e1 ) + · · · + λn f (en ) = ~0. Par linéarité, on obtient que
f (λ1 e1 + · · · + λn en ) = ~0, et en prenant f −1 on trouve λ1 e1 + · · · + λn en = ~0. Comme (e1 , . . . , en )
est une famille libre de E, ceci implique que λ1 = · · · = λn = 0. Par conséquent, (f (e1 ), . . . , f (en ))
est une famille libre de F .
La famille (f (e1 ), . . . , f (en )) est libre et génératrice dans F , donc c’est une base de F .
Réciproquement, supposons que (f (e1 ), . . . , f (en )) est une base de F et montrons que f est un
isomorphisme. Le théorème précédent implique que (f (e1 ), . . . , f (en )) engendre Imf ; comme c’est
une famille génératrice de F , on obtient que Imf = F , autrement dit f est surjective.
Soit u ∈ E et (x1 , . . . , xn ) ses coordonnées dans la base (e1 , . . . , en ). On a u = x1 e1 +· · ·+xn en donc
f (u) = x1 f (e1 ) + · · · + xn f (en ), autrement dit (x1 , . . . , xn ) sont les coordonnées de f (u) dans la
base (f (e1 ), . . . , f (en )). Si f (u) = ~0 alors les coordonnées de f (u) sont nulles : x1 = · · · = xn = 0,
donc on a aussi u = ~0. Par conséquent, Kerf = {~0} et par un théorème vuprécédemment f est
injective.
L’application linéaire f est surjective et injective, donc c’est un isomorphisme.
Théorème.
Suposons que E et F sont de dimension finie. Alors E et F sont isomorphes si et seulement si
dim E = dim F .
Preuve.
Soit n = dim E. Soit (e1 , . . . , en ) une base de E. Supposons que E et F sont isomorphes : il existe
un isomorphisme f : E → F . Par le théorème précédent, (f (e1 ), . . . , f (en )) est une base de F donc
dim F = n.
Réciproquement, supposons que dim F = n. Soit (u1 , . . . , un ) une base de F . Nous avons vu qu’on
peut définir une application linéaire f : E → F en posant f (ei ) = ui pour i = 1, . . . , n. Par le
théorème précédent, f est un isomorphisme, autrement dit E et F sont isomorphes.
7
Preuve.
Puisque E est de dimension finie, le sous-espace vectoriel Kerf admet un supplémentaire dans E.
Choisissons-en un et appelons-le G. Cela signifie que E = G + Kerf et G ∩ Kerf = {~0}.
Soit g: G → Imf l’application définie par g(u) = f (u) pour tout u ∈ G (c’est une restriction de
l’application f ). Calculons Ker g. Soit u ∈ G tel que g(u) = ~0, autrement dit f (u) = ~0. On a donc
u ∈ G ∩ Kerf , donc u = ~0. Par conséquent Ker g = {~0} donc g est injective.
Soit v ∈ Imf . Par définition il existe u ∈ E tel que f (u) = v. Puisque E = G + Kerf , il existe
u1 ∈ G et u2 ∈ Kerf tels que u = u1 + u2 . Alors
L’application g: G → Imf est donc surjective. Par conséquent g est un isomorphisme de G sur
Imf , donc dim G = dim Imf . Enfin, puisque E = Kerf ⊕ G, on a dim E = dim Kerf + dim G donc
dim E = dim Kerf + dim Imf . Ceci conclut la preuve.
Exemple 1.
Soit f : Rn → R, f (x1 , . . . , xn ) = a1 x1 + · · · + an xn avec a1 , . . . , an sont tous nuls. Si (e1 , . . . , en )
est la base canonique de Rn , on a f (ei ) = ai . Donc Imf 6= {0}. Par conséquent dim Imf ≥ 1
et comme Imf est inclus dans R qui est de dimension 1, on a dim Imf = 1. Par le théorème
noyau-image, on en déduit Kerf est de dimension n − 1, autrement dit le sous-espace vectoriel
d’équation cartésienne a1 x1 + · · · + an xn = 0 est de dimension n − 1.
Exemple 2.
Il n’existe pas d’application linéaire injective f : R3 → R2 car dim Imf ≤ dim R2 = 2 et comme
dim Kerf = dim R2 − dim Imf on a dim Kerf ≥ 1.
Théorème.
Supposons que dim E = dim F . Alors les propriétés suivantes sont équivalentes :
– f est injective,
– f est surjective,
– f est un isomorphisme.
En général, il est plus facile de montrer qu’une application est injective (en montrant Kerf = {~0}).
Preuve.
On a les équivalences suivantes :
• f injective ⇔ Kerf = {~0} ⇔ dim Kerf = 0.
• f surjective ⇔ Imf = F ⇔ dim Imf = dim F ⇔ dim Imf = dim E.
Le théorème noyau-image nous donne que dim E = dim Kerf + dim Imf donc on a l’équivalence
dim Kerf = 0 ⇔ dim Imf = dim E, autrement dit f est injective si et seulement si elle est
surjective. Donc, si on suppose que f est injective ou surjective, elle est bijective. Et si on suppose
que f est bijective, elle est évidemment injective et surjective.
Exemple.
Soit f : R2 → R2 , f (x, y) = (x + y, x − y). Cherchons Kerf . f (x, y) = ~0 est équivalent à
x +y = 0 x +y = 0
x −y = 0 −2y = 0
8
6. Matrice d’une application inversible
Théorème.
Soit E et E 0 des espaces vectoriels de même dimension n, B une base de E et B 0 une base de
E 0 . Soit f : E → F une application linéaire et soit A sa matrice dans les bases B et B 0 . Alors
l’application f est un isomorphisme si et seulement si la matrice A est inversible.
De plus, si f est un isomorphisme alors A−1 est la matrice de f −1 dans les bases B 0 et B.
Preuve. Supposons que f est un isomorphisme. Soit M la matrice de f −1 dans les bases B 0 et B.
Par un théorème vu au paragraphe 3, la matrice M A est la matrice de l’application f −1 ◦ f dans
les bases B et B. Or f −1 ◦ f = IdE et la matrice de IdE dans la base B est la matrice identité, donc
M A = In . On a de même f ◦ f −1 = IdF et sa matrice dans la base B 0 est AM , donc AM = In .
On en déduit que A est inversible et M = A−1 .
Réciproquement, supposons que A est inversible. Soit g: F → E l’application linéaire telle que les
coordonnées de g(u0i ) dans la base B sont les coordonnées de la colonne i de la matrice A−1 (on
a vu qu’on peut définir une application linéaire en donnant les images des vecteurs d’une base).
Autrement dit, A−1 est la matrice de g dans les bases B 0 et B. La matrice A−1 A = In est la
matrice de l’application g ◦ f dans la base B. Or In est la matrice de IdE dans la base B, donc
g ◦ f = IdE (ces deux applications linéaires ont la même matrice, donc elles coı̈ncident sur une
base, donc elles sont égales). De même, la matrice AA−1 = In est la matrice de f ◦ g dans la base
B 0 , donc f ◦ g = IdF . On en déduit que f est inversible et g = f −1 .
7. Changement de bases
Définition.
Soit B = (u1 , . . . , un ) et B 0 = (u01 , . . . , u0n ) deux bases de E. La matrice de passage de la base
B à la base B 0 est la matrice carrée P ∈ Mn (K) dont les coefficients de la colonne i sont les
coordonnées du vecteur u0i dans la base B.
Exemple.
Soit E = R2 , u1 = (1, 0), u2 = (0, 1), B = (u1 , u2 ) (c’est la base canonique de R2 ), u01 = (1, 1),
u02 = (2, 3) et B 0= (u01 , u02 ) ; on peut montrer que B 0 est une base de R2 . La matrice de passage de
1 2
B à B 0 est P = .
1 3
On a (1, 0) = 3(1, 1) − (2, 3) et (0, 1) = −2(1, 1) + (2, 3), autrement dit u1 = 3u01 − u02 et
u2 = −2u01 + u02 . Donc les coordonnées de u1 dans B 0 sont (3,−1). et lescoordonnées de u2
3 −2
dans B 0 sont (−2, 1). La matrice de passage de B 0 à B est : P 0 = .
−1 1
9
Propriétés.
Soit B et B 0 des bases de E et soit P la matrice de passage de B à B 0 .
• La matrice P est inversible et son inverse P −1 est la matrice de passage de B 0 à B.
• Si X représente les coordonnées d’un vecteur u dans la base B et si X 0 représente les coordonnées
de u dans la base B 0 alors X = P X 0 .
Attention au piège !
P s’appelle la matrice de passage de B à B0 mais la formule X = P X 0 donne les coordonnées
dans B en fonction des coordonnées dans B0 , et non l’inverse.
Pour avoir les coordonnées dans B 0 en fonction des coordonnées dans B, il faut utiliser la formule
X 0 = P −1 X.
Formule de changement de bases.
Théorème.
Soit B et B 0 des bases de E et P la matrice de passage de B à B 0 . Soit f : E → E un endomorphisme
de E, A la matrice de f dans la base B et A0 la matrice de f dans la base B 0 . Alors on a la formule
de changement de bases suivante :
A0 = P −1 AP .
Preuve. Nous avons déjà vu que P est la matrice de IdE dans les bases B et B 0 et que P −1 est la
matrice de IdE dans les bases B 0 et B. Par un théorème vu au paragraphe 3, AP est la matrice de
f ◦ IdE dans les bases B 0 et B, et de même P −1 (AP ) est la matrice de IdE ◦ f ◦ IdE dans la base B 0 .
Or IdE ◦ f ◦ IdE = f donc P −1 AP est la matrice de f dans la base B 0 , c’est-à-dire P −1 AP = A0 .
Ceci termine la preuve.
Remarque.
La formule du changement de base a un intérêt théorique mais en pratique on ne l’utilise pas pour
calculer A0 à partir de A et de P . Pour calculer A0 , on revient à la définition de la matrice d’une
application dans une base.
Exemple.
Cet exemple illustre à quoi peut servir la formule de changement de bases.
2 2 5 −11
Soit f : R → R l’application linéaire dont la matrice dans la base canonique est A = 2
.
3 1
Soit u1 = (1, 1) et u2 = (1, 3). Les vecteurs u1 , u2 forment une base de R2 car ils ne sont pas
colinéaires (c’est-à-dire ils ne sont pas proportionnels).
On a f (u1 ) =(2, 2) = 2u1 et f (u2 ) = (1, 3) = u1 donc la matrice de f dans la base (u1 , u2 ) est
1 0
A0 = . Les puissances de A0 se calculent facilement par récurrence :
0 2
02 1 0 03 1 0 0n 1 0
A = ,A = ,. . . et A = pour tout entier n ≥ 1.
0 4 0 8 0 2n
1 1
La matrice de passage de la base canonique à la base (u1 , u2 ) est P = . Si on calcule son
1 3
−1 1 3 −1
inverse, on trouve P = 2 .
−1 1
On a A0 = P −1 AP donc A = P A0 P −1 . Calculons les puissances de A en fonction de A0 :
A2 = (P A0 P −1 )(P A0 P −1 ) = P A02 P −1 , A3 = A2 A = (P A02 P −1 )(P A0 P −1 ) = P A03 P −1 ,. . .
An = P A0n P −1 . Si on utilise la formule de A0n pour calculer le produit P A0n P −1 , on trouve :
n 1 3 − 2n −1 + 2n
A = pour tout entier n ≥ 1.
2 3 − 3.2n −1 + 3.2n
10