Cours Espace Prehilbertien
Cours Espace Prehilbertien
Cours Espace Prehilbertien
EL AMDAOUI Mustapha,
Lycée IBN TIMIYA,
site web: www.elamdaoui.com,
email: [email protected]
Niveau: MP
IV Endomorphismes symétriques 27
IV.1 Endomorphisme symétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
IV.2 Cas euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
IV.3 Théorème spectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
IV.4 Extrémum sur la sphère . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
Définition 1
Notation :
Le produit scalaire de deux vecteurs x et y est souvent noté < x, y >.
Remarque :
n
ϕ : ( x, y) ∈ Rn × Rn 7−→ xk yk où x = ( x1 , · · · , xn ) et y = ( y1 , · · · , yn ), est un produit scalaire sur Rn
X
k=1
Preuve:
ϕ : Mn,p (R) × Mn,p (→) R est bien définie.
Soient λ, µ ∈ R et A, B, C ∈ Mn,p (R).
ϕ(A, λB + µC) = Tr t A λB + µC = λTr(t AB) + µTr(t AC).
¡ ¡ ¢¢
ϕ(A, B) = Tr AB = Tr AB = Tr t BA = ϕ(B, A)
¡t ¢ ¡t ¢ ¡ ¢
Preuve:
ϕ : C 2π (R) × C 2π (R) → R est bien définie.
Soient λ, µ ∈ R et f , g, hZ∈ C 2π (R).
1 π 1 π 1 π
Z Z
ϕ( f , λ g + µ h) = f (t) λ g(t) + µ h(t) dt = λ f (t)g(t)dt + µ
¡ ¢
f (t)h(t)dt.
π −π π −π π −π
1 π 1 π
Z Z
ϕ( f , g) = f (t)g(t)dt = g(t) f (t)dt = ϕ(g, f )
π Z−π π −π
1 π 2
ϕ( f , f ) = f (t)dt Ê 0
π −π
I.1 Produit scalaire 3
1 π 2
Z
Si ϕ( f , f ) = 0 alors f (t)dt = 0. Or la fonction f 2 est continue positive sur [−π, π] donc f est nulle sur [−π, π],
π −π
puis elle est nulle sur R puisqu’elle est 2π-périodique..
ϕ est un produit scalaire sur le R-espace vectoriel C 2π (R).
Soit I un intervalle de R d’intérieur non vide et soit ω ∈ C ( I, R∗+ ) telle que pour tout n ∈ N, t 7−→ t n ω( t) est
intégrable. Alors l’application Z
ϕ : (P,Q ) 7−→ P ( t)Q ( t)ω( t) d t
I
est un produit scalaire sur R[ X ]
Preuve:
ϕ : R[X ]2 → R est bien définie.
Soit λ ∈ R et P,Q, R Z∈ R[X ]. Z Z
ϕ(P, λQ + R) = P(t) (λQ(t) + R(t)) ω(t) dt = λ P(t)Q(t)ω(t) dt + P(t)R(t)ω(t) dt.
Z I Z I I
ϕ(P,Q) = P(t)Q(t)ω(t) dt = Q(t)p(t)ω(t) dt = ϕ(Q, P)
IZ I
1 π 2
ϕ( f , f ) = f (t)dt Ê 0
π −π Z
Si ϕ(P, P) = 0 alors P 2 (t)ω(t) dt = 0. Or la fonction P 2 .ω est continue positive et intégrable sur I d’intégrale nulle,
I
donc P 2 .ω est nulle sur I, puisque ω ne s’annule pas, alors P est nul sur I, puis il est nul sur R car il admet une infinité
de racines.
ϕ est un produit scalaire sur le R-espace vectoriel R[X ].
Exemple
Z +∞
L’application (P,Q ) 7−→ P ( t)Q ( t) e− t d t définit un produit scalaire sur R[ X ].
0
Définition 2
Un R-espace E muni d’un produit scalaire est dit préhilbertien et noté (E, < ., . >).
Propriété 5
Preuve:
2. Pour x ∈ E,
p
k xk = 0 ⇔ < x, x > = 0
⇔ < x, x >= 0
⇔ x=0
3. Pour x ∈ E et α ∈ R,
p
kα x k = < α x, α x >
p p
= α2 < x, x >
= |α| k xk
I.1 Produit scalaire 4
Preuve:
Il suffit de sommer les deux premières identités remarquables précédentes
Remarque :
L’identité du parallélogramme signifie que, dans un parallélogramme donné, la somme des carrés des lon-
gueurs des diagonales est égale à la somme des carrés des longueurs des côtés.
1¡
k x + yk2 − k xk2 − k yk2
¢
< x, y >=
2
1¡
k x + yk2 − k x − yk2
¢
< x, y >=
4
Preuve:
Il suffit de faire la différence des deux premières identités remarquables précédentes
Remarque :
Par l’identité de polarisation, on peut calculer un produit scalaire à partir de la norme euclidienne associée.
Preuve:
Si x = 0, la propriété est immédiate avec égalité et colinéarité des vecteurs x et y.
En posant a =< x, x > (a 6= 0 car x 6= 0), b = 2 < x, y > et c =< y, y >, le trinôme aλ2 + bλ + c est de signe constant donc
de discriminant négatif. Ainsi b2 − 4ac É 0 ce qui donne
De plus, s’il y a égalité dans cette inégalité, le discriminant est nul et donc il existe λ ∈ R tel que < λ x + y, λ x + y >= 0 ce
qui entraîne λ x + y = 0. La famille (x, y) est alors liée.
Inversement, supposons la famille (x, y) liée. Sachant x 6= 0, on peut écrire y = λ x et vérifier par bilinéarité du produit
scalaire l’égalité < x, y >2 =< x, x > . < y, y >.
I.2 Orthogonalité et base orthonormale 5
Exemple
Pour E = Rn , < ., . > le produit scalaire canonique, alors pour (α1 , · · · , αn ) , β1 , · · · , βn ∈ Rn , d’après l’inégalité
¡ ¢
de Cauchy-Schwartz,
à !2 à !à !
n n n
2 2
X X X
αi βi É αi βi
i =1 i =1 i =1
Exemple
Z b
Pour E = C ([a, b] , R) muni de < f , g >= f g,
a
µZ b ¶2 Z b Z b
fg É f2 g2
a a a
Exemple
¡t
Pour E = Mn,p (R) muni de < A, B >= Tr AB , alors ∀ A, B ∈ Mn,p (R),
¢
¡ ¡t ¢¢2
Tr AB É Tr t A A Tr t BB
¡ ¢ ¡ ¢
k x + yk É k xk + k yk
De plus, il y a égalité si, et seulement si, x et y sont colinéaires et < x, y >Ê 0 (ce qui signifie que x et y ont
même direction et même sens)
Preuve:
Soient x, y ∈ E. k x + yk2 =< x + y, x + y >
Par bilinéarité et symétrie du produit scalaire
k x + yk2 =< x, x > +2 < x, y > + < y, y >= k xk2 + 2 < x, y > +k yk2
|k xk − k yk| É k x − yk É k xk + k yk
Preuve:
Soient x, y ∈ E.
k xk = k(x − y) + yk É k x − yk + k yk
donc
k xk − k yk É k x − yk
De façon symétrique, on a aussi
k yk − k xk É k y − xk = k x − yk
Définition 5
orthonormale si
(
1 si i = j
∀ i, j ∈ I, < x i , x j >= δ i j où δ i j =
0 si i = j
Exemple
Soit n ∈ N, on définit
Alors (
1 π δnm si n 6= 0 ou m 6= 0
Z
cos( nt) cos( mt)d t = ;
π −π 2 si n = m = 0
(
1 π δnm si n 6= 0 ou m 6= 0
Z
sin( nt) sin( mt)d t = ;
π −π 0 si n = 0 ou m = 0
Z π
1
cos( nt) sin( mt)d t = 0.
π −π n o
Donc la famille { c 0 , c n , s n , n ∈ N∗ } est orthogonale et pc0 , c n , s n , n ∈ N∗ est orthonormale.
2
k x + y k2 = k x k2 + k y k2
Preuve:
1. Soit x, y ∈ E , on a
k x + yk2 = k xk2 + 2 < x, y > +k yk2
Donc k x + yk2 = k xk2 + k yk2 si, et seulement si, < x, y >= 0
2. Soit (x1 , . . . , x p ) une famille de vecteurs orthogonaux, on a
°2
p p ° p °
°
°X °
° x °2 + 2 ° x °2
X ° X X °
xk ° = < xi , x j > =
° °
° k k
k=1 k=1 1É i < j É p | {z } k=1
° °
=0
Propriété 12
Preuve:
X
1. Soient J ⊂ I fini et (λ i ) i∈ J une famille de scalaires tels que λ i x i = 0. Par le théorème de Pythagore
i∈ J
° °2
X 2 ° °2 ° °X
°
λi xi =° λi xi ° = 0
° ° °
i∈ J
° i∈ J °
° °2
Donc pour tout i ∈ J, λ2i ° x i ° = 0, avec x i 6= 0, on tire λ i = 0. Ceci montre que la famille (x i ) i∈ I est alors libre.
2. Une famille orthonormale est une famille orthogonale de vecteurs non nuls
Soit ( e 1 , · · · , e n ) une famille libre de E . Il existe une et une seule famille orthonormée (ε1 , · · · , εn ) de E telle
que :
1. Pour tout k ∈ [[1, n]] , Vect(ε1 , . . . , εk ) = Vect( e 1 , . . . , e k ).
2. Pour tout k ∈ [[1, n]] , < εk , e k >> 0.
Cette famille est donnée par :
e1
• ε1 = .
ke1k
kX
−1
ek − < e k , εi > εi
i =1
• ∀ k ∈ [[2, n]] , εk = ° °.
° kX −1 °
° ek − < e k , εi > εi °
° °
i =1
° °
Preuve:
La famille (e i ) i∈ I est libre donc ∀ i ∈ I, e i 6= 0.
e1
Existence: Par récurrence, pour ε1 = on a ε1 ∈ Vect(e 1 ) et < ε1 , e 1 >= 1 > 0.
ke1k
Soit k Ê 2 et k ∈ I. Supposons qu’on a construit les vecteurs ε1 , . . . , εk−1 qui vérifient les deux conditions de la propriété.
kX−1
On pose u k = e k − < ε i , e k > ε i = e k − p k−1 (e k ).
i =1
Le vecteur u k est non nul car sinon e k = p k−1 (e k ) ∈ Vect ε1 , . . . , εk−1 = Vect e 1 , . . . , e k−1 donc la famille (e 1 , . . . , e k )
¡ ¢ ¡ ¢
sera liée.
¢⊥
Par construction u k ∈ Vect ε1 , . . . , εk−1 et on déduit que
¡
donc ε0k = αk εk .
On a < ε0k , e k >= αk < εk , e k >, < ε0k , e k >> 0 et < εk , e k >> 0, alors αk > 0. Comme kε0k k = kεk k = 1, on obtient αk = 1.
D’où ε0k = εk . D’où l’unicité.
Exemple
On pose e 1 = (1, 1, 0), e 2 = (0, 1, 1) et e 3 = (1, 0, 1). On a la famille ( e 1 , e 2 , e 3 ) est libre et soit (ε1 , ε2 , ε3 ) la
famille orthonormale obtenue à partir de ( e 1 , e 2 , e 3 ) par le procédé de Gram-Schmidt.
On a ε1 = k ee 11 k = p1 (1, 1, 0).
2
On pose u2 = e 2 − < ε1 , e 2 > ε1 . On a
1
u2 = (−1, 1, 2)
2
u2 1
On déduit que ε2 = = p (−1, 1, 2) .
ku2 k 6
On pose u3 = e 3 − < ε1 , e 3 > ε1 − < ε2 , e 3 > ε2 . On a
2
u3 = (1, −1, 1)
3
u3 1
On déduit que ε3 = = p (1, −1, 1).
ku3 k 3
Exemple
Z 1
Orthonormalisation dans R3 [ X ] muni du produit scalaire < P,Q >= P ( t)Q ( t) d t de la base canonique
0
2 3
(1, X , X , X )
3 2 3 1
Donc R 3 = X 3 − X + X− . Or
2 5 20
Z 1 Z 1
3 3 1 2 1
k R 3 k2 = R 32 = (X 3 − X 2 + X − ) =
0 0 2 5 20 2800
R3 p 3 3 1
µ ¶
On déduit que Q 3 = = 20 7 X 3 − X 2 + X − .
kR 3 k 2 5 20
Théorème 1
Preuve:
Voir le procédé de Gram-Schmidt
Propriété 14
Toute famille orthonormale d’un espace euclidien E se complète en une base orthonormale de E .
Preuve:
n
X
1. Soit x = xk e k . Soit k ∈ {1, . . . , n}. On a
k=1
n
X n
X
< e k , x >=< e k , x i e i >= x i < e k , e i >= xk
i =1 i =1
n
X
donc x = < e k , x > e k et par suite
k=1
n n
k x k2
X X
= < x, x >=< xk e k , xk e k >
k=1 k=1
n n n
x2k
X X X
= xk x` < e k , e ` >= xk x` δk,` =
k,`=1 k,`=1 k=1
v
u n
| x k |2
uX
donc k xk = t
k=0
n
X n
X
2. Soit x = xk e k et y = yk e k donc
k=0 k=0
n
X n
X n
X
< x, y > = < xk e k , yk e k >= xk y` < e k , e ` >
k=0 k=0 k,`=0
n
X n
X
= xk yk δk,` = xk yk
k,`=0 k=0
° ° v
°Xn ° u n ¢2
° uX ¡
On a d(x, y) = k x − yk = ° |(xk − yk )e k ° = t xk − yk .
°
k=0 k=0
° °
I.3 Orthogonal d’une partie et supplémentaire orthogonal 10
3. Soit B = (e 1 , . . . , e n ) une base de E , u ∈ L (E) et A la matrice de u dans la base B . Soit j ∈ {1, . . . , n} donc u(e j ) =
Xn n
X
a i j e i d’où < e i , u(e i ) >= a ii . On a Tr (u) = a kk donc
i =1 k=1
n
X
Tr (u) = < e k , u(e k ) >
k=1
{ x ∈ E, ∀a ∈ A, < x, a >= 0}
∀a ∈ A, ∀ b ∈ B, < a, b >= 0
On note A ⊥ B.
Une famille ( A i ) i∈ I de parties de E est dite orthogonale si les A i sont deux à deux orthogonales.
Notation :
¡ ¢⊥
Le double orthogonal A ⊥ est noté A ⊥⊥
Propriété 16
Deux sous-espaces vectoriels F et G sont dits supplémentaires orthogonaux s’ils sont supplémentaires et
orthogonaux. C’est-à-dire
E = F ⊕ G et F ⊥ G
On écrit, alors
⊥
E = F ⊕G
Exemple
Dans M n (R) muni du produit scalaire canonique les sous-espaces vectoriels S n (R) et A n (R) sont supplé-
mentaires orthogonaux.
et
< A, B >=< B, A >= Tr t BA = −Tr (BA ) = Tr ( AB)
¡ ¢
I.3 Orthogonal d’une partie et supplémentaire orthogonal 11
donc < A, B >= 0. Ainsi S n (R) et A n (R) sont orthogonaux et donc en somme directe.
De plus, pour tout M ∈ M n (R), on peut écrire
1 1
M = (M + t M) + (M − t M)
2 2
1 1
avec ( M + t M ) ∈ S n (R) et ( M − t M ) ∈ A n (R). Ainsi
2 2
⊥
M n (R) = S n (R) ⊕ A n (R)
Propriété 17
F ⊥ G ⇐⇒ G = F ⊥ ⇐⇒ F = G ⊥
Preuve:
G = F ⊥ ⇒ F ⊥ G et F = G ⊥ ⇒ F ⊥ G sont évidentes
Montrons F ⊥ G ⇒ G = F ⊥ . On a G ⊂ F ⊥
Inversement soit x ∈ F ⊥ , puisque E = F ⊕ G,il existe (xF , xG ) ∈ F × G tel que x = xF + xG . On a < x, xF >= 0, car x ∈ F ⊥
et puisque G ⊥ F, alors < xF | xG >= 0, donc
Attention
Soit E = `2 (R) = ( u n ) ∈ RN | u2n converge et F l’ensemble des suites à support fini.
© P ª
+∞
X
< u|v >= u n vn définit un produit scalaire sur E .
n=0
F est un sous-espace vectoriel de E engendré par la famille ( H n ) avec H n = δk,n k∈N . Soit u = ( u n ) ∈ E , on
¡ ¢
u ∈ F⊥ ⇐⇒ ∀ n ∈ N, < u| H n >= 0
⇐⇒ ∀ n ∈ N, un = 0
u=0 ⇐⇒
1
µ ¶
⊥
∈ `2 (R) \ F .
L ⊥
Ainsi F = {0} et F F = F . Mais F 6= E , car la suite
n+1
Propriété 18
⊥
Soit F un sous-espace de dimension finie d’un espace préhilbertien E , alors E = F ⊕ F ⊥
Preuve:
On a F ∩ F ⊥ = {0}, alors il suffit de montrer que E ⊂ F + F ⊥
Si F = {0}, alors E = F ⊥ = F + F ⊥ .
¡ ¢ p
X
Si F 6= {0}. On pose p = dim F et soit e i i∈[[1,p]] une base orthonormale de F. Pour x ∈ E, on pose y = < ei, x > ei.
i =1
On voit bien que y ∈ F et pour tout k ∈ [[1, p]], on a
p
X
< ek, x − y > = < ek, x > − < e i , x >< e k , e j >
i =1
X p
= < ek, x > − < e i , x > δk,i = 0
i =1
en déduit donc E ⊂ F + F ⊥
Corollaire 2
Soit F un sous-espace vectoriel d’un euclidien E , alors
1. E = F F ⊥ ;
L
Propriété 19
p
p X
Si (F i ) i=1 une famille finie de sous-espaces vectoriels deux à deux orthogonaux, la somme F i est directe
i =1
p
X M
Fi = Fi
i =1 1É i É p
M p
Si la somme directe F i égale E , on dit que (F i ) i=1 est une famille de sous-espaces supplémentaires
1É i É p
orthogonaux
Preuve:
p
X
Soit (x1 , · · · , x p ) ∈ F1 × · · · × F p tel que x i = 0. Pour tout k ∈ [[1, p]], on a :
i =1
p
k xk k2 =< xk ,
X
x i >=< xk , 0 >= 0
i =1
Propriété 20
p
Soit (F i ) i=1 est une famille de sous-espaces supplémentaires orthogonaux, on a :
F j = F i⊥
X
∀ i ∈ [[1, p]] ,
j ∈[[1,p]]
j 6= i
Preuve:
F j , on a G ⊂ F i⊥ et E = G F i donc G = F i⊥
X L
Soit G =
j ∈[[1,p]]
j 6= i
Définition 8
Propriété 21
Tout projecteur vérifiant l’une des trois assertions est projecteur orthogonal.
II.1 Projections orthogonales 13
Preuve:
p étant un projecteur, on sait alors que E = Imp ⊕ Kerp et les équivalences des trois assertions deviennent évidentes
Remarque :
Preuve:
1 ⇒ 2) Supposons que p est un projecteur orthogonal. Soit x, y ∈ E, on a
< p(x), y >=< p(x), y − p(y) > + < p(x), p(y) >=< p(x), p(y) >
De façon semblable < x, p(y) >=< p(x), p(y) > et donc < p(x), y >=< x, p(y) >.
2 ⇒ 3) On applique 2) avec y = p(x), ce qui donne alors p(y) = p2 (x) = p(x). Il vient k p(x)k2 =< x, p(x) >, donc, d’après
l’inégalité de Cauchy-Schwarz : k p(x)k2 É k p(x)k.k xk, et pour p(x) 6= 0, par simplification par k p(x)k, on obtient k p(x)k É
k xk. Enfin cette inégalité est vérifiée pour p(x) = 0
3) ⇒ 1) Si p n’est pas orthogonal, alors il existe x ∈ Imp et y ∈ Kerp tels que < x, y >6= 0, donc x 6= 0 et y 6= 0.
< x, y >
Avec λ = − , on obtient < y, x + λ y >= 0 et λ 6= 0, puis, d’après le théorème de Pythagore,
k yk2
donc k xk > k x + λ yk. Avec z = x + λ y, on trouve p(z) = x et k zk < k p(z)k, ce qui est absurde
Propriété 23
k x − yk Ê k x − p F ( x ) k
d ( x, F ) = inf {k x − y k , y ∈ F } = k x − p F ( x)k
Preuve:
1. D’après la propriété 22.
2. D’après la propriété 18.
3. On écrit x − y = (x − P F (x)) + (P F (x) − y) avec x − P F (x) ∈ F ⊥ et P F (x) − y ∈ F.
Par Pythagore
k x − yk2 = k x − P F (x)k2 + kP F (x) − yk2 Ê k x − P F (x)k2 ,
avec égalité si, et seulement, si y = P F (x)
Corollaire 3
Soit D = Vect (a) avec a 6= 0 et H = Vect(a)⊥ . Alors
< a, x > < x, a >
∀ x ∈ E, p D ( x) = a et p H ( x) = x − a
k a k2 k a k2
II.2 Suites totales, suites hilbertiennes 14
et ° °
° < x, a > °° et d ( x, H ) = | < x, a > |
d ( x, D ) = ° x − 2
a
° k ak ° k ak
Preuve:
Par la formule précédente, on obtient alors
< a| x >
∀ x ∈ E, p D (x) = a
k a k2
< x, a >
Puisque id − p H est la projection orthogonale sur la droite D = Vect(a), on obtient alors x − p H (x) = a puis
k a k2
< x, a >
p H (x) = x − a
kak2
Exemple
Soit E un espace vectoriel euclidien de dimension 3 muni d’une base orthonormée B = ( i, j, k).
Soit P : x + y − z = 0, D = Vect(a) avec a = i − k et u = i + 2 j − k. Calculons d ( u, D ) et d ( u, P ).
|< u, v >| |1 + 2 + 1| 4
d ( u, P ) = = p =
kvk 3 3
et ° ° ¯ ° p
° < u, a > °° = ¯ 3 i + 2 j − 1 ° = 26
¯ °
d ( u, D ) = ° u − 2
a
° k ak ° ¯ 2 2° 2
Soit ( e n )n∈N une famille orthonormale de E et x ∈ E , alors la famille < e n , x >2 n∈N est sommable et
¡ ¢
Preuve:
Pour tout partie finie J de N on a :
X ¡ ¢
〈 e i | x〉 e i est le projeté orthogonal de x sur Vect e i , i ∈ J
i∈ J
Remarque :
Propriété 25
∀ x ∈ E, P n ( x) −−−−−→ x
n→+∞
X
La série < e n , x > e n converge de somme x
nÊ0
II.2 Suites totales, suites hilbertiennes 15
+∞
< e n , x >2 = k xk2
X
(Égalité de Parseval)
n=0
Preuve:
On fixe x ∈ E
1. Soit ε > 0. Par hypothèse la suite e i i∈N est totale, donc il existe y ∈ Vect (e n , n ∈ N) tel que
¡ ¢
k x − yk < ε
Soit N ∈ N tel que y ∈ Vect e 0 , · · · , e N . La suite (F n ) définie par F n = Vect (e 0 , · · · , e n ) est croissante au sens de
¡ ¢
k P n (x) − x k É k y − x k < ε
k=0
n
< e n , x >2 −−−−−→ k x k2
X
Comme P n (x) −−−−−→ 0, alors
n→+∞ n→+∞
k=0
1 π
Z
∀ n ∈ N, a n = f ( t) cos( nt) d t;
π −π
Z π
1
∀ n ∈ N∗ , b n = f ( t) sin( nt) d t
π −π
Alors
a 0 +∞
∀ x ∈ R,
X
f ( x) = + (a n cos( nx) + b n sin( nx))
2 n=1
Et
1 π a20 +∞
Z
f 2 ( x) d x = a2n + b2n
X¡ ¢
+
π −π 2 n=1
Exemple
1 π2
+∞
X
2. Pour x = π, on obtient 2
= .
n=1 n 6
3. D’après la formule de Parseval on a
1 π 4 2π 4 +∞
X 1 +∞ 1 π4
Z X
x dx = + 16 Puis =
π −π 9 n=1 n
4
n=1 n
4 90
II.3 Symétrie orthogonale 16
On appelle symétrie orthogonale par rapport à F la symétrie vectorielle s F par rapport à F parallèlement
à F ⊥.
Si F est un hyperplan de E , on dit que s F est la réflexion par rapport à F .
Propriété 26
Preuve:
Analyse : Soit s une réflexion d’hyperplan H solution.
On a s(a) = b et s(b) = a donc s(b − a) = a − b = −(b − a). Par suite b − a ∈ H ⊥ . Or b − a 6= 0 donc H = Vectb − a⊥ . Ceci
déterminer H, et donc s, de façon unique.
Synthèse : Soit s la réflexion d’hyperplan H = Vectb − a⊥ . Puisque kak = kbk, on a (a + b|a − b) = kak2 −k bk2 = 0 donc
1 1 1 1
a + b ∈ H. Or a = (a + b) + (a − b) donc s(a) = (a + b) − (a − b) = b et s(b) = s2 (a) = a. Ainsi s est solution.
2 2 2 2
Propriété 27
Preuve:
Puisque s F est la symétrie par rapport à F et parallèlement à F ⊥ , s F est un endomorphisme de E vérifiant s2 = I d. Aussi
Ker(s F − I d) = F (espace par rapport auquel a lieu la symétrie) et Ker(s F + I d) = F ⊥ (espace parallèlement auquel a lieu la
symétrie).
De plus − s F est la symétrie complémentaire de s F c’est-à-dire la symétrie par rapport à F ⊥ parallèlement à F = F ⊥⊥ ,
autrement dit la symétrie par rapport à F ⊥ .
Enfin s F = 2p F − I d car p F est la projection sur F parallèlement à F ⊥ .
Propriété 28
Preuve:
p
X
Pour tout x ∈ E, p F (x) = < x, e j > e j
j =1
Exemple
[Symétrie par rapport à une droite vectorielle] Soit D = Vect (a) avec a 6= 0. Alors
< x, a >
∀ x ∈ E, s D ( x) = 2 a−x
k a k2
Exemple
Exemple
Soit E un espace vectoriel euclidien de dimension 3 muni d’une base orthonormée B = ( e 1 , e 2 , e 3 ).
Soit s la réflexion par rapport au plan P : x + y − z = 0.
II.3 Symétrie orthogonale 17
On en déduit
2 1
s( i ) = i − ( i + j − k) = ( i − 2 j + 2 k)
3 3
2 1
s( j ) = j − ( i + j − k) = (−2 i + j + 2 k)
3 3
2 1
s( k ) = k + ( i + j − k) = (2 i + 2 j + k)
3 3
1 −2 2
1
Ainsi A = −2 1 2
3
2 2 1
Preuve:
1 ⇒ 2) Supposons que s est une symétrie orthogonale.
1
On sait déjà s2 = id. Soit p = (s + id) la projection associée à la symétrie s.
2
Pour tout x, y ∈ E. On a
(s(x)| y) = (2p(x) − x| y) = 2(p(x)| y)− < x, y >
Or (p(x)| y) = (x| p(y)) car la projection p est orthogonale donc
2 ⇒ 1) Puisque s2 = id, les espaces F = Ker(s − id) et G = Ker(s + I d) sont supplémentaires dans E et q est la symétrie par
rapport à F et parallèlement à G. Pour conclure, il suffit de montrer que G = F ⊥ .
Soient x ∈ F et y ∈ G.
< x, y >= (s(x)| y) = (x| s(y)) = (x| − y) = − < x, y > donc < x, y >= 0
On en déduit que les espaces F et G sont orthogonaux. Ainsi G ⊂ F ⊥ , or dimG = dimE − dimF = dimF ⊥ donc G = F ⊥ .
Corollaire 4
La matrice d’une symétrie orthogonale dans une base orthonormée est symétrique.
Preuve:
Notons A = (a i, j ) la matrice d’une symétrie orthogonale s dans une base orthonormée B = (e 1 , ..., e n ).
Le coefficient d’indice (i, j) de A est la ième composante dans B de l’image du jème vecteur de base par p. Ainsi a i, j =
(e i | s(e j )).
Or p est une symétrie orthogonale donc a i, j = (s(e i )| e j ) = (e i | s(e j )) = a j,i . Par suite la matrice A est symétrique.
Corollaire 5
Les symétries orthogonales conservent le produit scalaire
∀ x ∈ E, k s( x)k = k xk
Endomorphismes orthogonaux d’un euclidien 18
Preuve:
Soit x, y ∈ E, on a
(s(x)| s(y)) = (x| s2 (y)) =< x, y >
Définition 11
Exemple
I n ∈ O n (R) et − I n ∈ O n (R)
Propriété 30
Preuve:
¡ ¢
Posons A = a i, j 1É i, jÉn .
Les trois assertions sont équivalentes.
1 ⇐⇒ 4. On a t A = a j,i 1É i, jÉn et t A A = b i, j 1É i, jÉn avec
¡ ¢ ¡ ¢
n
X
b i, j = a k,i a k, j =< C i , C j >
k=1
donc
t
A A = I n ⇐⇒ ∀ i, j ∈ [[1, n]] , < C i , C j >= b i, j = δ i, j
n
X
c i, j = a i,k a j,k =< L i , L j >
k=1
donc
A t A = I n ⇐⇒ ∀ i, j ∈ [[1, n]] , < L i , L j >= c i, j = δ i, j
4 ⇐⇒ 6. Soit B = (e 1 , · · · , e n ) une base orthonormée de E et B0 = (e01 , · · · , e0n ) une famille de vecteurs de E. Notons p i, j le
coefficient général de la matrice P = MatB (e01 , · · · , e0n ). p i, j est la ième composante dans la base B du vecteur e0j . Notons
p0i, j le coefficient général de la matrice t P. On a p0i, j = p j,i
Enfin, notons a i, j le coefficient général de la matrice t PP. On a
n n
p0i,k p k, j =
X X
a i, j = p k,i p k, j
k=1 k=1
Or par calcul du produit scalaire de deux vecteurs par ses composantes dans une base orthonormée, on a aussi
n
(e0i | e0j ) =
X
p k,i p k, j
k=1
Ainsi a i, j = (e0i | e0j ) et donc t PP = I n si, et seulement si, la famille B0 est orthonormée et cette dernière est alors une
base orthonormée de E.
III.1 Matrices orthogonales 19
Exemple
p1 p1 p1
13 2 6
Soit la matrice A = p
3 − p1 p1 ∈ M3 (R). Montrons que A ∈ O3 (R)
2 6
p1 0 − p2
3 6
On en déduit A ∈ O3 (R ).
Propriété 31
1. O n (R) est un sous-groupe compact de (GLn (R), ×) appelé groupe orthogonal d’ordre n.
2. det (O n (R)) = {−1, 1}.
Preuve:
de dimension finie, O n (R) est une partie compacte car fermée et bornée.
2. Soit A ∈ O n (R), on a ³ ´
det(A)2 = det t A A = 1
donc det(A) ∈ {−1, 1}. Or det(I n ) = 1 et det (diag (−1, 1, · · · , 1)) = −1 et I n , diag (−1, 1, · · · , 1) ∈ O n (R), donc det (O n (R)) =
{−1, 1}.
3. O +
n (R) = O n (R) ∩ Ker(det) est un sous-groupe fermé d’un groupe compact.
4. Soit O ∈ O − −
¡ +
n (R), l’application ϕ : A ∈ M n (R) 7−→ AO est continue et O n (R) = ϕ O n (R)
¢
Attention
n (R) n’est pas un sous-groupe de O n (R) puisque le produit de deux matrices de O n (R) appartient à O n (R).
O− − +
Soit M ∈ M2 (R)
1. M ∈ O2+ (R) si, et seulement si, il existe un réel θ unique à 2π près vérifiant
à !
cos θ − sin θ
M = R (θ ) =
sin θ cos θ
2. M ∈ O2− (R) si, et seulement si, il existe un réel θ unique à 2π près vérifiant
à !
cos θ sin θ
M = S (θ ) =
sin θ − cos θ
à !
2 1 ⊥ 0
En outre S (θ ) = I 2 et S (θ ) ≈
0 −1
III.2 Groupe orthogonal d’un espace euclidien 20
Preuve:
à !
a c
Soit M = ∈ M2 (R).
b d
1. Puisque a2 + c2 = 1, il existe θ ∈ R tel que a = cos θ et b = sin θ .
On a det(M) = ad − bc = 1 et a2 + c2 = b2 + d 2 = 1 donc
R (θ ) × R θ 0 = R θ + θ 0 .
¡ ¢ ¡ ¢
R (θ )−1 = t R (θ ) = R (−θ ) .
Définition 12
Remarque :
I d E ∈ O (E )
Propriété 33
Les seules valeurs propres réelles possibles d’un endomorphisme orthogonal sont −1 et 1. En particulier
tout endomorphisme orthogonal est un isomorphisme
Preuve:
Si λ est une valeur propre réelle de u ∈ O (E) et x ∈ E un vecteur propre associé unitaire, des égalités k u(x) k = k x k et
u(x) = λ x , on déduit alors que |λ| = 1.
Preuve:
1 ⇒ 2) si l’endomorphisme u conserve la norme, alors d’après l’identité de polarisation, on a :
2 ⇒ 3) Soit B = e i 1É iÉn une base orthonormale de E, alors pour tout i, j ∈ [[1, n]] :
¡ ¢
¡ ¢
Donc u(e i ) 1É iÉn est une famille orthonormale de n éléments, c’est une BON
3 ⇒ 4) Évidente
4) ⇒ 5) Supposons l’endomorphisme u orthogonal. La famille (u(e 1 ), · · · , u(e n )) est orthonormale et c’est donc une base
orthonormée. Puisque
MatB (u) = MatB (u(e 1 ), · · · , u(e n ))
MatB (u) ∈ O n (R) car matrice de passage entre deux bases orthonormales.
5) ⇒ 1) Supposons A = MatB (u) ∈ O n (R).
Soit x un vecteur de E de matrice X dans la base B . Puisque la base B est orthonormale k x k2 = t X X . Puisque la
matrice de u(x) dans B est A X , alors
k u(x) k2 = t (A X )A X = t X t A A X = t X X = k x k2
Exemple
Une symétrie orthogonale est un automorphisme orthogonal.
Attention
Il est essentiel de vérifier que la base B est orthonormale pour exploiter ce résultat.
Théorème 2
Preuve:
1. Si λ est une valeur propre réelle de u ∈ O (E) et x ∈ E un vecteur propre associé unitaire. Des égalités k u(x) k = k x k et
u(x) = λ x , on déduit alors que |λ| = 1.
2. Considérons B une base orthonormée de E et
(
M n ( R) −→ L (E)
Φ:
M 7−→ MatB (u)
On a Φ (O n (R)) = O(E) et Φ est continue (linéaire au départ d’un espace de dimension finie) donc O(E) est compact.
Φ est un morphisme de groupe multiplicatif donc O(E) est un sous-groupe de (GL(E), ◦).
3. Soit B une base orthonormale de E, alors u ∈ O(E) si, et seulement si, Mat (u) ∈ O n (R)
B
5. Si F est stable par u, u(F) ⊂ F. Notons u F l’application induite par u sur F ; alors u F ∈ L (F). Comme F ⊂ E, on a :
° °
∀ x ∈ F, ° u F (x) ° = k u(x) k = k x k
Donc u F ∈ O(F).
Soit y ∈ F ⊥ et soit x ∈ F. Comme u F ∈ O(F), il existe x0 ∈ F tel que x = u x0 et
¡ ¢
Donc F ⊥ est stable par u. Par un raisonnement analogue au précédent appliqué à u et F ⊥ on prouve que u F ⊥ ∈ O F ⊥
¡ ¢
2. R (θ ) × R θ 0 = R θ + θ 0 .
¡ ¢ ¡ ¢
Preuve:
à !
a c
Soit M = ∈ O 2+ (R).
b d
Puisque a2 + c2 = 1, il existe θ ∈ R tel que a = cos θ et b = sin θ .
On a det M = ad − bc = 1 et a2 + c2 = b2 + d 2 = 1 donc (a − d)2 + (b + c)2 = a2 + c2 + a2 + c2 − 2(ad − bc) = 0. On en déduit
a = d et c = − b puis M = R(θ )
1. Car (
cos θ = cos θ 0
⇐⇒ θ ≡ θ 0 [2π]
sin θ = sin θ 0
3. car R (θ ) ∈ O 2+ (R)
Corollaire 6
O 2 (R), × est un groupe commutatif.
¡ + ¢
Preuve:
Car les matrices de rotation commutent entre elles.
Propriété 36
[Rotation du plan euclidien orienté] La matrice d’un endomorphisme r ∈ O + (E ) est la même dans toute
base orthonormée directe du plan E .
Plus précisément, il existe θ ∈ R, unique à 2π près, tel que matrice de r dans toute base orthonormée directe
du plan E est R (θ )
Preuve:
Soient B et B0 deux bases orthonormées directes de E et P la matrice de passage de B à B0 . Puisque B et B0 sont orthonormée
directe P ∈ O 2+ (R).
Notons A et A 0 les matrices de l’endomorphisme r dans les bases B et B0 . Ces matrices appartiennent à O 2+ (R).
Par la formule de changement de base, A 0 = P −1 AP.
Or A, P ∈ O 2+ (R) et le groupe (O 2+ (R), ×) est commutatif donc A 0 = P −1 P A = A.
Ainsi, la representation de l’endomorphisme r est la même dans toute base orthonormée directe choisie et puisque celle-ci
est une matrice de O 2+ (R), c’est une matrice R(θ ) avec θ déterminé de façon unique à 2π près.
Définition 13
L’automorphisme orthogonal positif représenté par la matrice R (θ ) dans les bases orthonormées directes
du plan E est appelé rotation d’angle θ et noté Rotθ
Exemple
IdE = Rot0 , −IdE = Rotπ .
Propriété 37
Soit θ , θ 0 ∈ R.
1. Rotθ = Rotθ0 ⇐⇒ θ ≡ θ 0 [2π]
III.4 Réduction des endomorphismes orthogonaux 23
Preuve:
Il suffit de transposer matriciellement les énoncés.
Corollaire 7
O + (E ) = {Rotθ | θ ∈ R} est un groupe abélien.
Elles vérifient S (θ )2 = I 2
Preuve:
à !
a b
Soit M = .
c d
Comme a2 + b2 = 1, il existe θ ∈ R tel que a = cos θ et b = sin θ .
On a det M = ad − bc = −Ã1 et a2 + c2 = b!2 + d 2 = 1 donc (a + d)2 + (b − c)2 = a2 + c2 + a2 + c2 − 2(ad − bc) = 0. On en déduit
cos θ sin θ
a = − d et c = b puis M =
sin θ − cos θ
¶ s correspond
De µplus alors à la réflexion par rapport à la droite vectorielle dirigée par le vecteur u =
θ θ
µ ¶
cos i + sin j.
2 2
Il existe une base B 0 dans laquelle la symétrie est représentée par la matrice
à !
1 0
S (0) =
0 −1
Preuve:
θ θ
µ ¶ µ ¶
Considérons σ la réflexion par rapport à la droite vectorielle engendrée par le vecteur unitaire u = cos i + sin j. Pour
2 2
tout vecteur ¶ a σ(x) µ= 2¶< x,µu >¶ u − x donc
xµ de¶ E, on
θ θ θ
µ
σ(i) = 2 cos 2 − 1 i + 2 cos sin j = cos θ i + sin θ j et
µ ¶2 ³ ´ 2µ ¶ 2¶
θ ϕ θ
µ
σ( j) = 2 cos sin i − 2 sin2 − 1 j = sin θ i − cos θ j.
2 2 2
On en déduit que les applications linéaires σ et s prennent les mêmes valeurs sur i et j et sont donc égales.
Lemme 1
Soit u ∈ O (E ) et F un sous-espace vectoriel de E stable par u, alors F ⊥ est stable par u
Lemme 2
Soit u ∈ O (E ). Il existe des sous espaces vectoriels de E , P1 , · · · , P r , de dimension égale à 1 ou 2, deux à deux
III.4 Réduction des endomorphismes orthogonaux 24
⊥
orthogonaux, stables par u et tels que E = ⊕ P i
1É j É r
Preuve:
On procède par récurrence sur la dimension n = dim E Ê 1.
Pour n = 1 ou 2, le résultat est évident.
Supposons le acquis pour tout endomorphisme orthogonal sur un espace vectoriel euclidien de dimension p comprise
entre 1 et n − 1, avec n Ê 3.
Si P1 est un sous espace vectoriel de E non réduit à {0} de dimension au plus égale à 2 stable par u ∈ O (E) alors P1⊥
est stable par u.
Comme 1 É n − 1 É dim P1⊥ É n − 1, on peut trouver des sous espaces vectoriels de E, P2 , · · · , P r , de dimension au plus
2, deux à deux orthogonaux et stables par la restriction de u à P1⊥ , donc par u, tels que P1⊥ = ⊕rj=2 P i . On a alors
E = P1 ⊕ P1⊥ .
à !
a b
Dans le cas ou n = 2, la forme des matrices orthogonales est particulièrement simple : si A = ∈ O 2 (R) , il existe
c d
alors un unique réel θ ∈ [0, 2π[ tel que :
à ! à !
cos θ − sin θ cos θ sin θ
A= ou A=
sin θ cos θ sin θ − cos θ
à !
1 0
et dans le deuxième cas, A est orthogonalement semblable à , ce que l’on peut verifier avec :
0 −1
cos θ2 − sin θ2 θ
sin θ2
³ ´ ³ ´ Ã ! ³ ´ ³ ´ Ã !
³ ´ 1 0 cos ³2 ´ ³ ´ = cos θ sin θ
sin θ2 cos θ2 −1 − sin θ cos θ2
³ ´
0 sin θ − cos θ
2
On peut aussi dire que A est symétrique et orthogonale, donc A 2 = A t A = I n et elle est diagonalisable puisque
à annulée
!
1 0
par X 2 − 1 qui est scinde à racines simples dans R. Comme A 6= ± I 2 , elle est orthogonalement semblable à
0 −1
Théorème 3
Soit u ∈ O (E ) avec n Ê 2. Il existe une base orthonormée B de E dans laquelle la matrice de u s’ecrit :
Ip 0 ··· ··· 0
.. ..
0 −I q . .
.. ..
D= . . .. R ..
1 . .
. . ..
. .. . 0
.
0 ··· ··· 0 Rr
Preuve:
On procède par recurrence sur la dimension n Ê 2 de E.
Pour n = 2, c’est fait avec le lemme précèdent.
Supposons le résultat acquis pour les endomorphismes orthogonaux sur les espaces euclidiens de dimension p comprise
entre 2 et n − 1 et soit u ∈ O (E) avec n = dim(E) Ê 3.
4 Si u admet 1 ou −1 comme valeur propre, pour tout vecteur propre unitaire e 1 associé à cette valeur propre, le sous
espace vectoriel H = Vect(x)⊥ est stable par u et il existe alors une base orthonormée B1 de H dans laquelle la
matrice de la restriction de u à H est de la forme :
Ip 0 ··· ··· 0
.. ..
0
− I q . .
. .. .. ..
..
A1 = . R1 . .
. .. ..
.
. . . 0
0 ··· ··· 0 Rr
III.4 Réduction des endomorphismes orthogonaux 25
à !
±1 0
Dans la base orthonormée { e 1 } ∪ B1 la matrice de u est A = , qui se ramène bien à la forme souhaitée en
0 A1
permutant au besoin e 1 avec l’un des vecteurs de B1 .
4 Si toutes les valeurs propres de u sont complexes non réelles, on a alors une décomposition E = ⊕ri=1 P k où les P k
sont de dimension 2 deux à deux orthogonaux et stables par u. L’etude du cas n = 2 nous dit alors qu’il existe, pour
tout k compris entre 1 et r, une base orthonormée Bk de P k dans laquelle la matrice de u est de la forme :
à !
cos θk − sin θk
Rk =
sin θk cos θk
avec θk ∈ ]0, 2π[ \{π}. En réunissant toutes ces bases, on obtient une base orthonormée de E dans laquelle la matrice
de u est :
R1 0 ··· 0
.. ..
.
0 R2 .
A=
.. .. ..
. . . 0
0 ··· 0 Rr
Remarque :
Corollaire 8
Soit A ∈ O n (R) avec n Ê 2. Il existe une matrice P ∈ O n (R) telle que :
Ip 0 ··· ··· 0
.. ..
0 −I q . .
. ..
t
P AP = .. .. ..
. R 1 . .
. .. ..
. . .
. 0
0 ··· ··· 0 Rr
Preuve:
A est la matrice dans la base canonique Rn d’un endomorphisme orthogonal u et la matrice de passage P de la base
canonique à une base orthonormée dans laquelle la matrice de u à la forme indiquée est orthogonale, donc telle que
P −1 = t P.
0 sin θ cos θ
f est dite la rotation d’axe dirigé et orienté par u et d’angle θ . On la note Rotu,θ
Preuve:
Soit A la matrice de u dans une BON de E.
1. On a ³ ´
det (A − I 3 ) = det A − t A A = det(I 3 − t A) = − det(A − I 3 )
Donc det(A − I 3 ) = 0, puis 1 ∈ Sp ( f ).
2. On applique le théorème ?? à f ∈ O + (E), avec p + q + 2r = 3 et puisque q est pair, alors on a trois cas possibles p = 3,
(p, q, r) = (1, 2, 0) et (p, q, r) = (1, 0, 1) qui correspondent respectivement aux cas suivants
1 0 0 1 0 0 1 0 0
0 1 0 , 0 −1 0 et 0 cos θ − sin θ où θ ∈ ]0, 2π[ \ {π}
0 0 1 0 0 −1 0 sin θ cos θ
III.4 Réduction des endomorphismes orthogonaux 26
Propriété 41
Tr ( f ) − 1
cos(θ ) =< x, f ( x) >= et sin(θ ) = Det( u, x, f ( x))
2
Si x un vecteur non colinéaire avec u, alors sgn (sin θ ) = sgn (Det ( u, x, f ( x)))
Preuve:
1. On commence par le cas où x est orthogonal à u.
Cas x = 0 : Ok
x u∧i
Cas x 6= 0 : Posons i = et j = u ∧ i = .
k xk k uk
La famille B = (i, j) est une base orthonormée directe du plan P = D ⊥ .
Pour x ∈ P, f (x) = Rotθ (x) = k xkRotθ (i) = k xk (cos θ .i + sin θ . j) = cos (θ ) .x + sin (θ ) .u ∧ x
Revenons au cas général. Soit x ∈ E et notons p la projection orthogonale sur D et q celle sur D ⊥ . Alors
Puisque f (x) = f (p(x) + q(x)) = p(x) + f (q(x)) avec q(x) ∈ D ⊥ , la formule précédente donne
puis
f (x) = cos(θ ).x + (1 − cos(θ )) < x, u > u + sin(θ ).u ∧ x
Det (u, x, f (x)) =< u ∧ x, f (x) >= cos(θ ) < u ∧ x, x > + sin(θ ) k u ∧ x k2 = sin(θ )
Exemple
Soient B = ( i, j, k) une base orthonormée directe de E et f la rotation d’axe D dirigé et orienté par u =
1 π
p ( i + j − k) et d’angle θ = .
3 3
Formons la matrice de f dans la base B.
¡π¢ ¡π¢ p
1 3
On a cos 3 = 2 et sin cos 3 = 2 , donc par la formule
on obtient
1 1 1
f ( x) = x + < x, i + j − k > .( i + j − k) + .( i + j − k) ∧ x
2 6 2
On en déduit
f ( i)
= 32 i − 13 j − 32 k
f ( j) = 23 i + 23 j + 31 k
f ( k) = 13 i − 23 j + 32 k
puis, la matrice
2 2 1
1
Mat ( f ) = −1 2 −2
B 3
−2 1 2
Endomorphismes symétriques 27
Exemple
Soit f l’endomorphisme de E dont la matrice dans une base orthonormée directe B = ( i, j, k) est la matrice
A suivante :
0 0 1
A = 1 0 0
0 1 0
Montrer que f est une rotation et déterminer ses éléments caractéristiques
Les colonnes de A sont unitaires et deux à deux orthogonales donc A ∈ O3 (R) puis f ∈ O (E ).
Soit u = xi + y j + zk ∈ E . Après résolution
f ( u) = u ⇐⇒ x = y = z
p
3
L’ensemble des vecteurs invariants par f est une droite dirigée par le vecteur u = ( i + j + k), on en
3
déduit que f est une rotation autour de la droite D .
Orientons la droite D par le vecteur u et déterminons l’angle θ de cette rotation. Puisque Tr ( A ) = 1 + 2 cos θ
1
et Tr ( A ) = 0, on obtient cos θ = − .
2
Déterminons le signe de det u, i, f ( i )
¯ ¯
p ¯¯1 1 0¯¯ p
3¯ 3
Det ( u, i, f ( i )) = ¯1 0 1¯ =
¯
3 ¯¯ ¯ 3
1 0 0¯
2π
On en déduit sin θ > 0 puis θ ≡ [2π].
3 p
3 2π
Finalement f est la rotation d’axe dirigé et orienté par u = ( i + j + k) et d’angle
3 3
IV Endomorphismes symétriques
E un préhilbertien réel.
Définition 14
Soit u ∈ L (E ).
On dit que u est symétrique si ∀ x, y ∈ E, < u( x), y >=< x, u( y) >
Exemple
Les projecteurs orthogonaux sont des endomorphismes symétriques.
Notation :
S (E ) désigne l’ensemble des endomorphismes symétriques de E
Propriété 42
Soit u ∈ S (E ) et F un sous-espace vectoriel de E stable par f . Alors F ⊥ est aussi stable par u
Preuve:
Soit y ∈ F ⊥ , alors pour x ∈ F, on a u(x) ∈ F et outre
Propriété 43
Im ( u) = (Ker u)⊥
Preuve:
Soit x ∈ Keru et y ∈ Imu. On peut écrire y = u(a) avec a ∈ E et alors
Ainsi, les espaces Imu et Keru sont orthogonaux et donc Imu ⊂ (Keru)⊥ puis l’égalité par les dimensions.
Propriété 44
u ∈ S (E ) ⇐⇒ Mat ( u) ∈ S n (R)
B
Preuve:
¡ ¢
⇒ Supposons u symétrique et étudions A = a i, j 1É i, j Én = Mat (u).
B
On a a i, j =< e i , u(e j ) > et donc par symétrie
et
< x, u(y) >= t X AY
Or t A = A, donc < u(x), y >=< x, u(y) >
Attention
Il est essentiel de vérifier que la base B est orthonormale pour exploiter ce résultat.
Propriété 45
Preuve:
1. ⇒) u est un projecteur, donc u2 = u.
Le projecteur u est orthogonal donc ∀ x, y ∈ E,
donc
< x, u(y) >=< u(x), u(y) >=< u(x), y >
d’où u est symétrique.
⇐) On a u2 = u donc u est un projecteur et puisque u est symétrique donc Keru = (Imp)⊥ d’où le projecteur u est
orthogonal.
2. ⇒) On a u est une symétrie donc u2 = idE .
La symétrie u est orthogonale donc u ∈ O(E).
⇐) On a u2 = idE donc u est une symétrie.
Soient x ∈ Ker(u − id) et y ∈ Ker(u + id), on a
donc < x, y >= 0 d’où Ker(u − id) ⊥ Ker(u + id) d’où la symétrie u est orthogonale.
IV.3 Théorème spectral 29
Propriété 46
Preuve:
Soit B une base orthonormée de E et A = Mat (u). On a u ∈ S(E) donc A est symétrique.
B
Soit λ ∈ S p C (u) donc λ ∈ S p C (A) et par suite ∃ X ∈ Mn1 (C) \ {0}, A X = λ X . On a A X = λ X donc λ X = A X = A X = A X car
A = A puisque A ∈ Mn (R). On a t X A X = λt X X = λk X k2 ett X A X = t (t A X )X = t (A X )X = λt X X = λk X k2 donc λk X k2 =
λk X k2 . Or X 6= 0 donc λ = λ d’où λ ∈ R.
Propriété 47
Preuve:
Soient λ, µ ∈ S p(u) tels que λ 6= µ, x ∈ E λ (u) et y ∈ E µ (u).
On a
< u(x), y >=< λ x, y >= λ < x, y >
et
< x, u(y) >=< x, µ y >= µ < x, y >
donc (λ − µ) < x, y >= 0. Or λ 6= µ donc < x, y >= 0 et par suite E λ (u) ⊥ E µ (u).
Théorème 4
Spectral Tout endomorphisme symétrique d’un espace euclidien E est diagonalisable dans une base ortho-
normale.
Preuve:
⊥
Soit u ∈ S(E), on pose F = ⊕ E λ (u).
λ∈Sp( u)
Le sous-espace vectoriel F est stable par u donc F ⊥ aussi.
Par l’absurde, supposons F ⊥ 6= {0E }. L’endomorphisme induit par u sur F ⊥ est symétrique, il possède donc au moins un
vecteur propre. Or celui-ci est aussi vecteur propre de u et donc élément de F. C’est absurde car F ∩ F ⊥ = {0E }. Ainsi, E est
la somme directe des sous-espaces propres de u et puisque ceux-ci sont deux à deux orthogonaux, on peut former une base
orthonormale adaptée à cette décomposition, base qui diagonalise u.
Théorème 5
[spectral :Version matricielle] Soit A ∈ S n (R), il existe P ∈ O n (R) telle que P −1 AP = t P AP soit diagonale.
Preuve:
Soit A ∈ S n (R).
Munissons E = Rn du produit scalaire canonique et considérons u l’endomorphisme de Rn représenté par A dans la base
canonique.
Puisque A est symétrique et B orthonormée, l’endomorphisme u est symétrique. Il existe donc une base orthonormée B 0
diagonalisant u. Par changement de base, on a alors A = PDP −1 avec D diagonale et P orthogonale car c’est une matrice
de passage entre deux bases orthonormées.
Corollaire 9
Pour A ∈ M n (R), t A A est diagonalisable
Preuve:
t A A est symétrique réelle.
Remarque :
à !
1 i
Le résultat est faux pour les matrices symétriques non réelles. En effet, la matrice A = n’est pas
i −1
diagonalisable car elle est non nulle et nilpotente ( A 2 = 0) et la seule matrice nilpotente diagonalisable est
la matrice nulle.
IV.4 Extrémum sur la sphère 30
En particulier x 7−→< u( x), x > est bornée sur la sphère unité et atteint ses bornes et
min (< u( x), x >) = λmin et max (< u( x), x >) = λmax
k x k=1 k x k=1
Preuve:
Soit B = (e 1 , · · · , e n ) une base orthonormale diagonalisant u et λ1 , · · · , λn ∈ R les valeurs propres de u avec u(e i ) = λ i e i .
n
X n
X
Pour x ∈ E, on peut écrire x = x i e i et on a alors u(x) = λi xi e i .
i =1 i =1
Puisque la base B est orthonormale,
n n
k x k2 = x2i λ i x2i
X X
et < u(x), x >=
i =1 i =1
En particulier X 7−→ t X A X est bornée sur la sphère unité et atteint ses bornes et
¡t ¡t
X A X = λmin X A X = λmax
¢ ¢
min et max
k X k=1 k X k=1
Notation :
Soit a ∈ E on considère la forme linéaire f a définie par f a : x 7−→< x, a >
Propriété 49
Preuve:
f est linéaire ;
f est injective car < x, a >= 0, pour tout x ∈ E, donne a = 0 ;
la conclusion résulte donc de dim E = dim E ∗
Corollaire 11
En particulier, ∀ϕ ∈ E ∗ , ∃!a ∈ E, ∀ x ∈ E, ϕ( x) =< a, x >.
Attention
Le résultat est faux si E est un espace préhilbertien de dimension infinie.
V.2 Adjoint d’un endomorphisme 31
Propriété 50
Preuve:
Existence: Soit y ∈ E, l’application x 7−→< u(x), y > est une forme linéaire sur E. Donc, il existe un unique z ∈ E tel que
< v(λ x + y) − λv(x) − v(y), z >=< v(λ x + y), z > −λ < v(x), z > − < v(y), z >
< v(λ x + y) − λv(x) − v(y), z > = < λ x + y), u(z) > −λ < x, u(z) > − < y, u(z) >
= < 0, u(z) >= 0
Pour (x, y) ∈ E 2 , on a < x, v(y) >=< x, w(y) >, soit < x, v(y) − w(y) >= 0, d’où v(y) = w(y) pour tout y ∈ E et v = w
Exemple
Id∗E = IdE
Exemple
Soit a, b ∈ E et u : x 7−→< a, x > b. Déterminons u∗ .
Soit x, y ∈ E , on a
Exemple
Soit X , Y ∈ Mn (R), on a
Donc
Propriété 51
Soient u, v ∈ L (E ) et α ∈ R. Alors :
1. (α u + v)∗ = α u∗ + v∗ ;
2. ( u∗ )∗ = u ;
3. u 7→ u∗ est un automorphisme d’espaces vectoriels sur L (E ).
4. ( u ◦ v)∗ = v∗ ◦ u∗ ;
¡ ¢∗
5. Pour tout k ∈ N, u k = ( u∗ )k ;
6. Pour tout P ∈ R[ X ], on a P ( u∗ ) = (P ( u))∗ ;
7. si u ∈ GL(E ), alors u∗ ∈ GL(E ) et ( u∗ )−1 = ( u−1 )∗ .
Preuve:
< (α u + v)∗ (x), y > = < x| (α u + v) (y) >=< x, α u(y) + v(y) >
= α < x, u(y) > + < x|v(y) >
= α < u∗ (x), y > + < v∗ (x)| y >
< α u∗ (x) + v∗ (x), y >=< α u∗ + v∗ (x), y >
¡ ¢
=
Donc
(α u + v)∗ (x) = α u∗ + v∗ (x)
¡ ¢
∀ x ∈ E,
Puis (α u + v)∗ = α u∗ + v∗
¡ ¢∗ ¡ ¢∗
2. La proposition ∀(x, y) ∈ E 2 , < u∗ (x), y >=< x| u∗ (y) >=< x, u(y) > donne u∗ = u.
3. T : u 7→ u∗ est un endomorphisme d’espaces vectoriels sur L (E) tel que T 2 = IdL (E ) , donc c’est un automorphisme de
L (E)
4. Soit x, y ∈ E. Par définition de l’adjoint, on a :
Propriété 52
Preuve:
Soit B = e i 1É iÉn une BON de E
¡ ¢
3. Tr (A) = Tr t A
¡ ¢
5. χ A = χt A et π A = πt A