Exponentielle de Matrices

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 7

Exponentielle de matrices

Tristan Vaccon
septembre 2012

Table des matières


Références 2

1 Définitions et premières propositions 2

2 Calcul de l’exponentielle 3
2.1 Cas où l’on peut reconnaître des séries entières . . . . . . . . . . . . 3
2.2 Cas nilpotent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.3 Cas diagonalisable, si l’on connaît les valeurs propres . . . . . . . . 3

3 Dunford et exponentielles 4
3.1 Calcul et diagonalisabilité . . . . . . . . . . . . . . . . . . . . . . . 4
3.2 une première démonstration de surjectivité de l’exponentielle . . . . 5

4 De la surjectivité de l’exponentielle 5
4.1 Groupes topologiques et exponentielle complexe . . . . . . . . . . . 5
4.2 Le cas réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
4.3 Autre application . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1
Références
[1] Serre, Denis Les matrices
[2] Mneimé & Testard Introduction à la théorie des groupes de Lie classiques
[3] Gourdon, Xavier Les Maths en tête
[4] Beck, Peyré, Malick Objectif Agreg
[5] Rouvière Calcul différentiel
[6] Demailly Analyse numérique et équations différentielles
[7] Nourdin Épreuve orale, etc...

1 Définitions et premières propositions


On munit Mn (C) d’une norme d’algèbre quelconque. On pose pour A ∈ Mn (C),
+∞
X 1 n
exp(A) = A .
n=0
n!

Alors,
N +∞
X 1 X 1
kAn k 6 kAkn 6 exp(kAk).
n=0
n! n=0
n!

On en déduit que l’application exponentielle est C 0 sur Mn (C) car cette série converge
normalement sur tout compact.

Proposition 1.1. Soit A ∈ Mn (C), alors ∃P ∈ C[X] tel que exp(A) = P (A).

Démonstration. C[A] est un sous-espace vectoriel de Mn (C), et est donc complet (ou
fermé...), comme nous sommes en dimension finie. Ainsi,
N
X 1
∀N ∈ N, An ∈ C[A]
n=0
n!

donc exp(A) ∈ C[A] (comme on est fermé...).

Proposition 1.2. Si U et V commutent, alors exp(U + V ) = exp(U ) exp(V ).

Démonstration. Soit n ∈ N, comme les deux matrices commutent,


n
!
(U + V )n 1 X n X 1
= U k V n−k = U i 1j!V j
n! n! k=0 k i+j=n
i!

exp(U +V ) est le produit de Cauchy de exp(U ) et de exp(V ), donc on a le résultat.

2
Corollaire 1.3. exp est à valeur dans GLn (C) : M et −M commutent, M + (−M ) = 0,
exp(0) = In .

Proposition 1.4. Si P ∈ GLn (C) et A ∈ (Mn (C), alors exp(P −1 AP ) = P −1 exp(A)P .

Démonstration. Continuité du morphisme d’algèbre A 7→ P −1 AP .

Proposition 1.5.
exp(T r(A)) = det(exp(A)).
exp(Sp(A)) = Sp(exp(A)).

Démonstration. On trigonalise, et on sait ce qu’il se passe sur la diagonale, plus la


proposition précédente.
" #!
2iπ 0
Remarque. Si on considère exp : Mn (C) → GLn (C), alors exp = I2 =
0 2iπ
exp(0).

2 Calcul de l’exponentielle
La référence est un document sur la page de Richard Leroy. Il y a quelques cas où
l’on peut calculer explicitement l’exponentielle d’une matrice donnée.

2.1 Cas où l’on peut reconnaître des séries entières


" #
0 −t
En voici un exemple. On pose A = At = . Alors, on montre que A2k =
t 0
" # " #
(−1)k t2k 0 0 (−1)k t2k+1
k 2k et A2k+1 = k 2k+1 .
0 (−1) t (−1) t 0
" #
cos(t) −sin(t)
Ainsi, eAt = .
sin(t) cos(t)

2.2 Cas nilpotent


On est réduit à une somme finie.

2.3 Cas diagonalisable, si l’on connaît les valeurs propres


On peut utiliser la proposition 1.4, si l’on connaît les valeurs propres, et diagonaliser
notre matrice. Ceci nécessite de calculer les matrices de passages, ce qui peut se révéler
un petit peu "tricky" et fastidueux si l’on n’y est pas habitué... (note : voir le Paugam si
l’on n’est pas très à l’aise avec le concept de matrice de passage).
Il existe une méthode plus simple (appréciée par le jury) qui se fonde sur l’interpo-
lation de Lagrange.

3
Soit A une matrice diagonalisable sur C, et soit λ1 , . . . , λn ses valeurs propres (com-
plexes, non nécessairement distinctes).
Alors :

∃P ∈ GLn (C, A = P −1 Diag(λ1 , . . . , λn )P = P −1 DP.


On peut trouver un polynôme Q ∈ C[X] tel que exp(A) = Q(A). Cela existe vu la
proposition 1.1, mais pour une matrice diagonale, on peut être explicite.
En effet, si Q ∈ C[X], alors Q(A) = P −1 Q(D)P . Il suffit de trouver Q tel que

Q(D) = Diag(Q(λ1 ), . . . , Q(λn )) = Diag(eλ1 ,...,λn ) = exp(D).

Cela se fait très bien par interpolation de Lagrange : Q = ni=1 eλi Pi avec Pi =
P
Q X−λj
j=1,...,n, j6=i λi −λj .
Au final, Q(A) = P −1 Q(D)P = P −1 exp(D)P = exp(A), ce que l’on souhaitait.
Exemple. On reprend l’exemple précédent.
On trouve Spec(A) = {it, −it}.
sin(t)
Alors, on calcule comme polynôme
"
interpolateur
#
Q(X) = t X + cos(t). On en
cos(t) −sin(t)
déduit alors directement : eAt = .
sin(t) cos(t)

3 Dunford et exponentielles
3.1 Calcul et diagonalisabilité
La décomposition de Dunford est bien adaptée à l’étude de l’exponentielle d’une
matrice : on peut ramener certains problèmes à l’étude du cas diagonale et du cas
nilpotent. C’est le cas pour le calcul ici.
Si A ∈ Mn (C) et A = D + N sa décomposition de Dunford, alors exp(A) =
exp(D) exp(N ). On est ramené au cas précédent.

Proposition 3.1. On trouve alors que la décomposition de Dunford de eA est eA =


eD + eD (eN − In ).

Démonstration. D et N sont des polynômes en A, et avec 1.1, il en est de même des


deux termes de la somme. Le premier est bien diagonalisable (1.4) et le second est bien
nilpotent. En effet, Spec(eN ) = {1} et donc Spec(eD (eN − In )) = {0}, ce qui donne le
fait que cette matrice est nilpotente. On conclut par unicité.

Théorème 3.2. Soit A ∈ Mn (C), alors A est diagonalisable si et seulement si exp(A)


est diagonalisable.

Démonstration. Le sens direct est évident vu la proposition 1.4.


Pour la réciproque, on utilise la décomposition de Dunford que l’on vient de voir.
On a alors, par unicité, eN = In .

4
Soit a l’indice de nilpotence de N . Son polynôme minimal est X a , mais alors, si
1
a > 1, on a eN = In qui peut s’écrire In + N + · · · + a−1 N a−1 + 0 = In et alors
1
N + · · · + a−1 N a−1 = 0 ce qui contredit la définition du polynôme minimal (a − 1 < a...).
D’où a = 1 et N = 0 et le résultat est montré.

Corollaire 3.3. exp(A) = In ⇔ A est diagonalisable et Spec(A) ⊂ 2iπZ.

3.2 une première démonstration de surjectivité de l’expo-


nentielle
Théorème 3.4. Soit A GLn (C), alors il existe P ∈ C[X] tel que A = exp(P (A)).

Démonstration. On utilise à nouveau la décomposition de Dunford A = D + N que l’on


réécrit A = D(In + D−1 N ).
D est diagonalisable, il est facile de l’écrire comme l’exponentielle d’une matrice
polynôme en A en faisant une interpolation de Lagrange, mais cette fois-ci avec un log
(complexe) des λi ses valeurs propres. On remarque que ceci requiert de connaître le cas
n = 1, mais il se déduit du cas réel, qui est évident connaissant la fonction exponentielle
réelle.
Pour In + D−1 N , il se trouve que D−1 N est nilpotente, donc on peut écrire le log
de la matrice unipotente In + D−1 N , qui est une somme finie, avec pour un certain l :
l
!
−1
X (−1)k−1 −1 k
In + D N = exp (D N) .
k=1
k

On a donc le résultat étant donné que D et N sont des polynômes en A.

4 De la surjectivité de l’exponentielle
4.1 Groupes topologiques et exponentielle complexe
Théorème 4.1. Soit A GLn (C), alors il existe P ∈ C[X] tel que A = exp(P (A)).

Pour cela nous allons développer la notion de groupe topologique.

Définition 4.2. Un groupe topologique est une triplet (G, ., T ) où (G, .) est un groupe,
(G, T ) est un espace topologique, et ces deux notions sont compatibles : les applications
(g, h) 7→ gh et g 7→ g −1 sont continues.

Nous allons utiliser de manière cruciale le lemme suivant :

Lemme 4.3. Soit G un groupe topologique , et soit H un sous-groupe de G contenant


un voisinage de e. Alors H est ouvert et fermé dans G.

5
Démonstration. Montrons que H est ouvert. Par définition, on peut prendre V voisinage
ouvert de e dans G qui est inclus dans H. Mais alors, si h ∈ H, on a h ∈ hV ⊂ H ⊂ G,
et ainsi, hV est un voisinage ouvert de h inclus dans H (on utilise la continuité du
morphisme de translation par multiplication à gauche par h...). On en déduit que H est
un voisinage de chacun de ses points, donc est ouvert.
Montrons maintenant que H est fermé. On remarque que H c = g∈H
S
/ gV et que si
g∈/ H, gV ⊂ H c . Comme gV est ouvert pour tout g, H c est ouvert, et le résultat est
montré.

Démonstration. On considère la sous-algèbre C[A] de Mn (C) engendrée par A. C’est


une algèbre commutative de dimension finie sur C, isomorphe à C[X]/(Π) avec Π le
polynôme minimal de A.
– Pour toute matrice M de C[A], on a exp(M ) ∈ C[A] (avec 1.1, mais aussi exp(M ) ∈
GLn (C). On note que l’inverse de exp(M ) est exp(−M ) et est donc aussi bien dans
C[A].
– Tout les éléments de C[A] commutent, on en déduit que exp induit un homomor-
phisme du groupe additif de C[A] dans le groupe multiplicatif U des inversibles de
C[A].
– Montrons que l’image de ce morphisme, exp(C[A]) est un ouvert-fermé de U . La
différentielle de exp : C[A] → U ⊂ C[A] en 0 ∈ C[A] est l’identité de C[A], qui est
bien inversible. On peut donc appliquer le théorème d’inversion locale : exp réalise
un difféomorphisme entre un voisinage ouvert V0 de 0 et un voisinage ouvert V de
In ⊂ U ⊂ C[A].
Par le lemme précédent, exp(C[A]) est alors un ouvert-fermé de U .
– Il nous reste à donner un argument de connexité pour conclure : U est connexe.
En effet, si M et N sont dans U , alors la droite complexe formée des points
zM + (1 − z)N ne rencontre C[A] \ U qu’en un nombre fini de points : les zéros
du polynôme det(zM + (1 − z)N ), dont ne font pas partie 0 et 1. Or, la droite
complexe C privée d’un nombre fini de points est connexe par arcs. On en déduit
qu’il existe un chemin continu contenu dans U entre M et N . Ainsi, U est connexe
par arc, donc connexe.
– En conclusion, exp(C[A]) est alors un ouvert-fermé de U , qui est connexe. On a
donc le résultat : exp(C[A]) = U .

Remarque. On a aussi montré ici le cas n = 1.


Remarque. L’essentiel des lemmes se trouvent dans le Nourdin [7] et le Mneimné-Testard
[2].

Corollaire 4.4. Si A ∈ GLn (C) et p ∈ N∗ , il existe B ∈ GLn (C) tel que A = B p .

6
4.2 Le cas réel
On n’a pas cette fois-ci de surjectivité de exp : Mn (R) → GLn (R). En effet, exp est
continue et GLn (R) a deux composantes connexes (cf la décomposition polaire et [2])
tandis que Mn (R) est connexe.
Cela dit, une application amusante du résultat complexe permet de donner une ca-
ractérisation :

Proposition 4.5. Soit A une matrice de GLn (R), montrer qu’il existe une matrice réelle
M telle que A = eM si et seulement si il existe une matrice réelle B telle que A = B 2 .

Démonstration. Le sens direct est évident.


Maintenant, soit A ∈ GLn (R) telle qu’il existe une matrice réelle B telle que A = B 2 ,
et soit B une telle matrice.
Remarquons que B ∈ GLn (R) ⊂ GLn (C) donc le théorème de surjectivité précédent
permet de dire qu’il existe un polynôme Q ∈ C[X] tel que B = exp(Q(B)).
Mais alors, on a aussi, comme B est une matrice réelle, B = B = exp(Q(B)) =
exp(Q(B)). Ainsi, A = B 2 = B × B = B × B = exp(Q(B)) × exp(Q(B)). Comme tout
commute comme polynôme en B, on a donc A = exp(Q(B) + Q(B)) = exp((Q + Q)(B)),
et Q + Q ∈ R[X], B est réelle, donc on a bien le résultat.

4.3 Autre application


Proposition 4.6. GLn (C) n’admet pas de sous-groupes arbitrairement petits.

Démonstration. On montre qu’il existe un voisinage V de In dans GLn (C) tel que le
seul sous-groupe contenu dans V soit {In }.
Soit V un voisinage de In dans GLn (C) et U un voisinage de 0 dans Mn (C) tel que
exp réalise un difféomorphisme de U sur V .
On pose U 0 = U2 et V 0 = exp(U ).
V 0 est ouvert, c’est un voisinage de In .
Soit M ∈ V 0 . On va montrer qu’il existe k ∈ N tel que M k ∈ / V 0 , ce qui permettra
de conclure.
On peut écrire M = exp(A) avec A ∈ U 0 . Il existe alors k ∈ N tel que kA ∈ U \U 0 . On
a alors exp(kA) = M k ∈ V \ V 0 et donc M k ∈ / V 0 , ce que l’on souhaitait démontrer.

Vous aimerez peut-être aussi