Cpgep c32
Cpgep c32
Cpgep c32
Chapitre 32
Exponentielle d’une matrice
Dans tout le chapitre K = R ou C, (E, ∥.∥) est un K espace vectoriel normé de dimension finie n, et L(E)
désigne l’espace vectoriel (de dimension finie n2 ) des endomorphismes linéaires de E, implicitement muni
de la norme d’opérateur ~.~ induite par ∥.∥.
Notations
→ On note pour tout h ∈ L(E) et R ≥ 0,
Proposition I.1.
X
1. Pour tout u ∈ L(E) tel que ~u~ < R, ak uk est une série absolument convergente.
2. La fonction
B~.~ (0, R)
−→ L(E)
∞
f : X
u
7−→ f (u) = ak u k
k=0
est continue
1. On rappelle qu’une norme d’opérateur est une norme d’algèbre (sous-multiplicative) et que donc
1/15
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
|ak | ~u~k est convergente car ~u~ < R. Ainsi, la série est absolument convergente. De
X
et la série
plus, L(E) étant complet (E est de dimension finie sur K = R ou C et donc L(E) aussi), la série
converge bien dans L(E) aussi (d’après le corolaire III.4 du chapitre 11.2).
Remarque : On rappelle que, par équivalence des normes en dimension finie sur K = R ou C, la
convergence normale ne dépend pas de la norme choisie (qu’elle soit triple ou pas), donc ce résultat
est toujours valable si on avait choisi une autre norme N sur E et sa norme d’opérateur associée
~.~N (ici par contre on oblige qu’elle soit triple pour assurer sa sous-multiplicativé). En particulier,
X
pour montrer que la série ak uk converge, il suffit de trouver une norme ∥.∥ sur E dont la norme
X
triple vérifie ~u~∥.∥ < R où R est le rayon de convergence de ak z k .
X
2. Soit ρ tel que 0 < ρ < R. La série ak z k est normalement convergente sur B(0, ρ), ceci étant car
∞
X
et |ak |·ρk est convergente. En particulier, B(0, ρ) étant ouvert, f est donc continue sur ce dernier.
k=0
S
On déduit donc que f est continue sur B(0, ρ) = B(0, R)
0<ρ<R
X
Notation : Par abus de notation, parfois on confondra série entière ak z k et son application associée
∞
X X
sur L(E), u 7→ ak uk . Par exemple, on dira que la série entière ak uk est convergente sur B~.~ (h, R)
k=0
n
!
X
+ k
(avec (h, R) ∈ L(E) × R ) si la suite ak u est convergente pour tout u ∈ B~.~ (h, R).
k=0 n∈N
Exercice I.2.
∞
X
1. On suppose que K = C, u ∈ L(E) et ak z k une série entière de rayon R > 0. Montrer
k=0
que si
ρ(u) := sup{|λ|, λ ∈ VP(u)} < R,
X
alors ak uk est convergente.
∞
X ∞
X
2. Soit u ∈ L(E), f = ak z k et g = bk z k tel que ~u~ < min(ρ(f ), ρ(g)). Montrer que
k=0 k=0
f (u) ◦ g(u) = (f g)(u).
2/15
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Définition I.3.
∞ k
X u
Soit u ∈ L(E), on appelle exponentielle de u l’endomorphisme exp(u) := ∈ L(E).
k=0 k!
Par ce qui précède,
L(E) −→ L(E)
∞ k
exp : X u
u
7−→ exp(u) =
k=0 k!
est bien définie partout et est continue (et même vérifie ~exp(u)~ ≤ e~u~ ).
Remarque : Pour montrer que l’application exp telle que définie ci-dessus est bien définie, il suffit
∞
X 1 k
d’appliquer le théorème précédent à z qui est de rayon de convergence infini.
k=0 k!
Proposition I.4.
Notons pour tout (u, v) ∈ L(E)2 , [u, v] := u ◦ v − v ◦ u. Pour tout, (u, v) ∈ L(E)2 on a
En particulier, exp(u) ◦ exp(−u) = idE et donc exp est à valeurs dans GL(E).
On fournira deux preuves : la première type série entière et une seconde, plus longue, moins calculatoire,
et plus aspect differentiel/morphisme (pour anticiper sur le chapitre suivant).
Preuve 1 : Posons pour tout n ∈ N,
n n n
uk vk (u + v)k
! ! !
X X X
Sn := ◦ −
k=0 k! k=0 k! k=0 k!
On a pour tout n ∈ N,
k i j
X ui ◦ v j X X i u ◦ v
Xn n n
~Sn ~ = −
i=0j=0 i!j! k=0 i+j=k k!
n n
X ui ◦ v j X ui ◦ v j X ui ◦ v j
X
= − =
i=0j=0 i!j! i+j≤n i!j! i+j≥n+1 i!j!
i≥0 j≥0
0≤i,j≤n
X ~u~i · ~v~j
≤
i+j≥n+1 i!j!
0≤i,j≤n
n
~u~k n
~v~k n
(~u~ + ~v~)k
! ! !
X X X
= · −
0 k! 0 k! 0 k!
~u~ ~v~ ~u~+~v~
−→ e ·e −e =0
n→+∞
Ainsi
Sn −−−−→ 0
n→+∞
3/15
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
d’où le résultat
Preuve 2 : Cette preuve est facultative et a été ajoutée uniquement pour donner un avant goût du
chapitre suivant. Le lecteur peut la saute s’il le souhaite.
∞ k
X t k
Pour tout t ∈ R, posons expt : z 7−→ z = etz . On a pour t, t′ ∈ R et u ∈ L(E)
k=0 k!
exp(tu) ◦ exp(t′ u) = expt (u) ◦ expt′ (u) = (expt × expt′ )(u) = (expt+t′ )(u) = exp((t + t′ )u)
(∗)
L’égalité (∗) est vraie d’après l’exercice I.2. Ceci nous assure que exp(u) ∈ GL(E) étant donné que le
résultat ci-dessus donne exp(u) ◦ exp(−u) = exp(0) = idE .
Pour tout u ∈ L(E), notons
R −→ GL(E)
fu :
t 7−→ exp(tu)
qui est, par ce qui précède, un morphisme (continu) de groupes.
Remarquons maintenant que
∞
tk
!
fu (t) − fu (0)
∗
uk+2
X
∀t ∈ R , =u+t
t k=0 (k + 2)!
| {z }
g(t)
On sait que g : R → L(E) est continue et est donc en particulier bornée sur le compact [−1, 1].
On déduit en particulier que fu est dérivable en 0 et que en passant à la limite, étant donné que g est
bornée sur un voisinage de 0, on a fu′ (0) = u. De plus, en utilisant l’égalité vue en début de cette preuve,
on a pour tout t, t0 ∈ R,
fu (t + t0 ) = fu (t0 ) ◦ fu (t) = fu (t) ◦ fu (t0 )
et donc
fu (t) − fu (t0 ) fu (t − t0 ) ◦ fu (t0 ) − fu (t0 )
=
t − t0 t − t0
fu (t − t0 ) − fu (0)
= ◦ fu (t0 ) −−−→ u ◦ fu (t0 )
t − t0 t→t0
g ′ (t) = fu′ (t) ◦ fv (t) + fu (t) ◦ fv′ (t) = u ◦ fu (t) ◦ fv (t) + fu (t) ◦ v ◦ fv (t) = (u + v) ◦ fu (t) ◦ fv (t) = (u + v) ◦ g(t)
4/15
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
En évaluant en 0 on obtient
g ′ (0) = fu′ (0) + fv′ (0) = u + v
On en déduit donc que g vérifie les propriétés suivantes
g
∈ C 1 (R, L(E))
g ′ (t) = (u + v) ◦ g(t)
g(0) = idE
ce qui signifie d’après l’unicité fournie par le théorème de Cauchy-Lipschitz que g = fu+v et donc finale-
ment
Remarque culturelle : Nous citons dans cette remarque des éléments hors programmes et non néces-
saires pour les concours.
→ En fait, en examinant la preuve ci-dessus, on peut facilement déduire une preuve du résultat suivant.
0 f
∈ C 1 (R, L(E))
f ∈ C (R, L(E)) ∩ Hom(R, L(E))
=⇒ ∀t ∈ R, f ′ (t) = f ′ (0) ◦ f (t)
f dérivable en 0
f (0) = idE
Les conditions de gauches sont donc suffisantes pour caractériser l’exponentielle (elle y sont même
clairement équivalentes, étant donné que l’exponentiel est dans Hom(R, L(E)) ∩ C 1 (R, L(E))). On
en déduit qu’une autre version de la preuve aurait pu être la suivante : g vérifie les deux conditions
de gauche ainsi que les deux conditions avec g ′ (0) = u + v, ce qui nous permet directement de dire
que g = fu+v et finalement exp(u) ◦ exp(v) = g(1) = exp(u + v).
→ L’intérêt des deux approches (homomorphisme et differentielle) est qu’elles sont généralisables, ou
plutôt sont les approches typiques, lorsqu’on travaille avec des groupes et algèbres de Lie abstraites.
Pour le lecteur curieux, la manière moderne typique de définir l’exponentielle de v ∈ Lie(G) est
de considérer le flot de l’unique champs de vecteur invariant à gauche (ou droite) associé à v et de
l’évaluer en 1. C’est ce qui a été fait (de manière plus simplifiée) ci dessus.
Exercice I.5.
Remarque : Bien évidemment, tout ce qui a été construit jusqu’à présent est valable lorsqu’on remplace
L(E) par Mn (K) et la composition d’endomorphisme par le produit matriciel.
2. Logarithme
Cette partie est à but purement culturel, nous ne fournirons donc pas les preuves de résultats ci-dessus.
5/15
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Définition I.6.
Proposition I.7.
II Propriétés géométriques
Cette partie est hors-programme. Désormais K = C. On note ∥.∥ la norme matricielle sur Mn (K).
On note de plus pour P ∈ GLn (K)
M −→ Mn (K)
n (K)
iP :
A 7−→ P AP −1
Exercice II.1.
Proposition II.2.
Preuve : On a pour N ∈ N
N N
(P AP −1 )k Ak
!
P −1
X X
=P
0 k! 0 k!
Par continuité de iP et en passant à la limite, on obtient le résultat.
6/15
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Lemme II.3.
e λ1
λ1 ∗ ∗ ∗ ∗
A=
.. ..
. ∗ et exp(A) = . ∗
0 λn 0 eλn
Preuve
1. Clair en remarquant que pour tout k ∈ N, Dk = diag(λk1 , . . . , λkn ). Le lecteur ayant un doute est
encouragé à faire la preuve lui même.
2. N est nilpotente et son degré de nilpotence est au plus n, donc tous les termes de degré strictement
∞
X Nk
supérieur à n dans la somme sont nuls.
k=0 k!
3. Pour montrer ce résultat, il suffit de remarquer que pour tout n ∈ N,
n k
X λ1
∗ ∗
k=0 k!
n
k
X A
..
= . ∗ .
k=0 k!
n k
X λn
0
k=0 k!
Soit A ∈ Mn (C)
1. On note Spec(A) = [λ1 , . . . , λn ] (on rappelle que la notation [.] veut dire un n−uplet avec
possible répétition et sans prise en compte de l’ordre). On a
2. det(exp(A)) = eTr(A) (on retrouve que det A ̸= 0, i.e. exp(A) ∈ GLn (C))
7/15
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Proposition II.5.
Preuve :
1. Écrivons A = P DP −1 où D est diagonale. Ceci donne que exp(A) = P exp(D)P −1 . Le lemme
permet de conclure vu que exp(D) est également diagonale.
An−1
2. Il suffit de voir que A + · · · + est nilpotente. Le lecteur ayant un doute peut le vérifier à la
(n − 1)!
main.
3. On rappelle que det(exp(A)) = eTr(A) ∈ R+∗ .
Exercice II.6.
1. Trouver les matrices A ∈ GL2 (R) tel que det(A) > 0 et A ̸∈ exp(M2 (R))
2. Soit A ∈ Mn (C). Montrer que A est diagonalisable si et seulement si exp(A) l’est
3. Montrer que exp(Mn (C)) = GLn (C).
8/15
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
n
X n
X
N (u(x)) = ∥[u]β [x]β ∥1 = xk λ k + bk,j xj
k=1 j=k+1
n
X Xn n
X
≤ |λk | |xk | + |bk,j | |xj |
k=1 k=1j=k+1
|{z}
≤ρ(u)
n X
X n
≤ ρ(u)N (x) + ε |xj | ≤ (ρ(u) + nε)N (x).
k=1j=k+1
On en déduit donc que ~u~N ≤ ρ(u) + nε < R, d’où le résultat. On notera au passage que cette
preuve nous permet de déduire le résultat suivant.
Soit A ∈ Mn (C). Pour toute norme N de Cn on notera ~ · ~N la norme d’opérateur associée. Alors
En effet, on a pour tout λ ∈ Spec(A), |λ| ≤ ~A~N . Pour voir ce point, il suffit de considérer
X ∈ Ker(A − λI) \ {0} et de remarquer que ~A~N N (X) ≥ N (AX) = |λ|N (X). Ceci entraîne que
ρ(A) ≤ ~A~N , i.e. ρ(A) est un minorant de H. La preuve ci-dessus montre que pour tout R > ρ(A),
il existe N tel que ~A~N ≤ R, ce qui donne le résultat voulu.
2. Preuve exactement similaire à celle (type série entière) du théorème I.4. en majorant par la norme
et utilisant le produit de convolution.
On a pour tout k ≥ N + 1,
9/15
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
k!
k
k !
i ∞ i
k − 1 ∞ j
u X k u Xu X (k − i)!k i X u
i
idE + − exp(u)
= − = u −
k i=0 i k i i=0 i!
i=0 i! j=k+1 j!
−k→+∞
−−−→0
≤1 z }| {
z }| {
k! k! k!
N −1 k +1 ∞ j N −1 ∞
(k − i)!k i
i (k − i)!k i
i r (k − i)!k i rj
ri + 2
X X X X X
≤ r + r + ≤
i=0 i! i=N +1 i! j=k+1 j! i=0 i! j=N +1 j!
| {z }
−−−−→0
| {z }
k→+∞
< 2ε
Et donc k
u
idE + −−−−→ exp(u)
k k→+∞
Méthode 2 (réduction d’endomorphisme) : Attention, cette preuve n’est valable que dans le cas
K = C car on y utilise la décomposition de Jordan-Dunford qui n’est valable que dans C. Nous utilisons
ici des propriétés vues dans le chapitre 28 sur la réduction d’endomorphisme.
Soit β une base de E où on peut écrire u = d + ν (Jordan-Dunford, proposition VI.9 chapitre 28) avec
Remarquons que dans le terme droite de l’égalité (∗), l’indice de sommation s’arrête à n et non pas k
car ν est nilpotent et pour tout i ≥ n, ν n = 0. Ainsi par continuité de la composition/multiplication
(n = dim E est fixé), on obtient
n−1
X i
" k # " !#
u ν
idE + −−−−→ exp(d) ◦ = [exp(d) ◦ exp(ν)]β = [exp(d + n)]β = [exp(u)]β
k β
k→+∞
0 i! β ↑
d◦ν =ν◦d
10/15
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
K[A] est donc fermé (d’après la proposition III.6 du chapitre 11.7). exp(A) est limite d’une suite à valeurs
dans K[A]. En effet, on a
n
X Ak
−−−−→ exp(A).
k=0 k!
n→+∞
| {z }
∈K[A]
et donc
Il suffit donc de calculer l’image de chaque classe d’équivalence (de conjugaison) par exp.
Rappelons également ce résultat classique
Lemme II.7.
Deux matrices A, B ∈ Mn (R) réelles sont équivalences dans C si et seulement si elles le sont
dans R, i.e.
Ceci signifie que toutes les équivalences qu’on manipulera ci-dessous qui sont valables dans C le
sont également dans R dès lors que les matrices sont réelles.
Remarquons qu’il est facile de voir que l’exponentielle de toute matrice est de déterminant stricte-
ment positif et qu’il suffit de traiter le cas des matrices de déterminant égal à 1. En effet, pour tout
A ∈ GL2 (R) et B ∈ M2 (R) avec det A > 0, on a l’équivalence
A 1
A = exp(B) ⇐⇒ q = exp B − log(det(A))I2
det(A) 2
| {z }
déterminant égal à 1
En utilisant cette remarque, on peut voir que pour tout A ∈ M2 (R) de déterminant égal à 1, si il
existe B ∈ GL2 (R) telle que A = exp(B), alors
Sachant que det(exp(B)) = exp(Tr(B)), nous nous intéresseront donc à l’exponentielle de matrices
de traces nulles. Trouvons donc toutes les classes d’équivalence (de conjugaison) d’une matrice de
la forme M = exp(A) avec A ∈ M2 (R).
→ Cas 1 : A diagonalisable dans R.
A étant de trace nulle, on a nécessairement A ≃ diag(λ, −λ) avec λ ∈ R. Dans ce cas,
11/15
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
*
t 0 +
1 , t > 0
0
t R
λ = −λ ⇐⇒ λ = ±µi avec µ ∈ R
L’équivalence (∗) est vraie car les deux matrices sont diagonalisables et ont les mêmes valeurs
propres, comptés avec multiplicité (un autre argument aurait pu être le fait qu’ils sont diago-
nalisables, de taille 2, et ont la même trace et le même déterminant). Ce cas correspond donc
aux classes de conjugaison de la forme
(* !+ )
cos(µ) − sin(µ)
, µ∈R
sin(µ) cos(µ) R
A 1
∃B ∈ M2 (R), A = exp(B) ⇐⇒ ∃B ∈ M2 (R), q = exp B − log(det(A))I2
det(A) 2
A
⇐⇒ q ∈ exp(M2 (R))
det(A)
q
det(A) peut prendre n’importe quelle valeur dans R∗+ , on en déduit donc que A ∈ exp(M2 (R)) si,
et seulement si, A appartient aux classes d’équivalences trouvées multipliées par un réel strictement
positif, c’est à dire une classe appartenant à l’ensemble suivant
( ! ) ( ! ) ( ! )
a a a cos(µ) −a sin(µ) a 0
, a>0 ∪ , µ ∈ R et a > 0 ∪ , a, b > 0
0 a a sin(µ) a cos(µ) 0 b
L’ensemble des classes d’équivalences possibles pour A ∈ exp(M2 (C)) sont les classes de l’ensemble
12/15
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
suivant.
( ! ) ( ! ) ( ! )
a 1 a cos(µ) −a sin(µ) a 0
, a>0 ∪ , µ ∈ R et a > 0 ∪ , a, b > 0
0 a a sin(µ) a cos(µ) 0 b
On souhaite maintenant trouver les classes d’équivalences des matrices A ̸∈ exp(M2 (R)). En s’ins-
pirant de l’exercice VI.6 du chapitre 28 sur la réduction d’endomorphisme, on peut voir que les
classes d’équivalence de {A ∈ GL2 (R), det A > 0} sont les suivantes
( ! ) ( ! ) ( ! )
a 1 a cos(µ) −a sin(µ) a 0
, a ∈ R∗ ∪ , µ ∈ R et a > 0 ∪ , a, b ∈ R∗ et ab > 0
0 a a sin(µ) a cos(µ) 0 b
Donc les classes restantes n’appartenant pas à exp(M2 (R)) sont les suivantes
( ! ) ( ! )
a 1 a 0
, a<0 ∪ , a < 0, b < 0 et a ̸= b
0 a 0 b
2. Le sens direct a déja été fait, faisons donc la réciproque. Soit A ∈ Mn (R) telle que exp(A) est
diagonalisable. Écrivons la décomposition de Dunford de A
A = D + N, D diagonalisable, N nilpotente et DN = N D
ce qui nous donne la relation voulue en faisant tendre r vers l’infini. Ainsi, exp(D)N ′ est nilpotente
(car N ′ est nilpotente et commute avec exp(D)) et donc l’unicité de la décomposition de Dunford
de exp(A) fournit que
exp(D)N ′ = 0 i.e. N ′ = 0
car exp(A) est diagonalisable. D’après la proposition VII.5 du chapitre 28 de réduction d’endomor-
phismes, (In , N, . . . , N d−1 ) est une base de K[N ] et donc, en particulier, une famille libre. Ainsi,
N ′ = 0 implique que d = 1 i.e. N = 0 et A est donc diagonalisable car égale à D, qui est diagonali-
sable.
Remarque : En examinant la preuve ci-dessus, on peut voir que le résultat suivant est vrai : pour
tout A ∈ Mn (C), on a l’équivalence
3. La première chose à laquelle on pense ici est la décomposition de Dunford. Soit A ∈ GLd (C). On
veut trouver une matrice Ω telle que A = exp(Ω). En posant A = D + N avec D diagonalisable et
N nilpotente avec DN = N D, on peut voir que
−1
| {z N} )
A = D (I + D
nilpotente
| {z }
H
13/15
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
Il semble donc intuitif de chercher à montrer qu’il existe ∆, V ∈ Md (C) tels que D = e∆ et H = eV
et de montrer que ∆ et V commutent. Commençons par montrer ce résultat pour H : on montre
que pour toute matrice de la forme I + N ′ avec N ′ nilpotente, il existe M ∈ Md (C) telle que
I + N ′ = exp(M ). Soit donc B = I + N ′ avec N ′ nilpotente.
On veut s’inspirer du développement en série entière de x 7−→ ln(1+x). On sait que le développement
en série entière de cette fonction s’écrit
∞
xk
(−1)k+1
X
ln(1 + x) =
k=1 k
Notre intuition est donc d’utiliser un équivalent matriciel de ce développement en série entière, et
donc on souhaite montrer que
∞
N ′k d−1 N ′k
(−1)k+1 (−1)k+1
X X
M= =
k=1 k ↑ k=1 k
N ′d = 0
y2 y d−1
ey − 1 = y + + ··· + +O(y d )
2! (d − 1)!
| {z }
Q(y)
x2 xd−1
ln(1 + x) = x − + · · · + (−1)d +O(xd )
|
2 {z
d − 1
}
P (x)
et donc
On voit clairement que R ne contient que des termes de degré supérieur ou égal à d. On en déduit
donc, en utilisant le fait que M d = 0, que
On rappelle que R(N ′ ) = Q(P (N ′ ))−N ′ est une combinaison de puissances de N ′ de degré supérieur
à d et est donc nulle. On en déduit donc que
d−1 ′k
!
′ k+1 N
X
I + N = exp (−1)
k=1 k
k=1 k
| {z }
M
14/15
Mathématiques en MP* d’après un cours au lycée Louis-le-Grand
De plus, D étant diagonalisable, on en déduit qu’il existe λ1 , . . . , λn ∈ R et U ∈ GLd (C) tels que
D = U diag(λ1 , . . . , λd )U −1
Soit µ1 , . . . , µd tels que pour tout i ∈ J1; dK, eµi = λi et vérifiant ∀i, j ∈ J1; nK, λi = λj =⇒ µi = µj .
On veut choisir ∆ de manière à garder la commutation avec M . Soit F un polynôme complexe tel que
pour tout i ∈ J1; nK, F (λi ) = µi (existe, pour le voir on peut utiliser les polynômes interpolateurs
de Lagrange). On a alors, posant ∆ = U diag(µ1 , . . . , µn )U −1 ,
De plus, il est clair que e∆ = D. ∆ est polynômiale en D et D commute avec M donc ∆ aussi, et
alors en utilisant la proposition I.4, on en déduit que
D’où le résultat.
* *
*
15/15