Cours Espace Prehilbertien

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 33

Les espaces préhilbertiens

EL AMDAOUI Mustapha,
Lycée IBN TIMIYA,
site web: www.elamdaoui.com,
email: [email protected]

Niveau: MP

Table des matières


I Espace préhilbertien. Espace euclidien 2
I.1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
I.2 Orthogonalité et base orthonormale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
I.3 Orthogonal d’une partie et supplémentaire orthogonal . . . . . . . . . . . . . . . . . . . . . . . 10

II Projection orthogonale sur un sous-espace de dimension finie 12


II.1 Projections orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
II.2 Suites totales, suites hilbertiennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
II.3 Symétrie orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

III Endomorphismes orthogonaux d’un euclidien 18


III.1 Matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
III.2 Groupe orthogonal d’un espace euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
III.3 Automorphismes orthogonaux du plan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
III.4 Réduction des endomorphismes orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

IV Endomorphismes symétriques 27
IV.1 Endomorphisme symétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
IV.2 Cas euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
IV.3 Théorème spectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
IV.4 Extrémum sur la sphère . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

V Formes linéaires d’un espace euclidien 30


V.1 Formes linéaires d’un espace euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
V.2 Adjoint d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
Espace préhilbertien. Espace euclidien 2

E désigne un R-espace vectoriel. n et p désignent des entiers naturels.

I Espace préhilbertien. Espace euclidien

I.1 Produit scalaire

Définition 1

On appelle produit scalaire sur E toute application ϕ : E × E → R vérifiant


1. ϕ est bilinéaire
2. ϕ est symétrique i.e. ∀ x, y ∈ E, ϕ( x, y) = ϕ( y, x)
3. ϕ est positive i.e. ∀ x ∈ E, ϕ( x, x) Ê 0
4. ϕ est définie i.e. ∀ x ∈ E, ϕ( x, x) = 0 ⇒ x = 0.
On dit qu’un produit scalaire est une forme bilinéaire symétrique définie positive.

Notation :
Le produit scalaire de deux vecteurs x et y est souvent noté < x, y >.

Remarque :

ϕ vérifie (3) et (4) si et seulement si ∀ x ∈ E \ {0}, ϕ ( x, x) > 0.

Propriété 1: Produit scalaire canonique sur Rn

n
ϕ : ( x, y) ∈ Rn × Rn 7−→ xk yk où x = ( x1 , · · · , xn ) et y = ( y1 , · · · , yn ), est un produit scalaire sur Rn
X
k=1

Propriété 2: Produit scalaire canonique sur Mn,p (R)

L’application ϕ : ( A, B) 7−→ Tr(t AB).est un produit scalaire sur Mn,p (R)

Preuve:
ϕ : Mn,p (R) × Mn,p (→) R est bien définie.
Soient λ, µ ∈ R et A, B, C ∈ Mn,p (R).
 ϕ(A, λB + µC) = Tr t A λB + µC = λTr(t AB) + µTr(t AC).
¡ ¡ ¢¢

 ϕ(A, B) = Tr AB = Tr AB = Tr t BA = ϕ(B, A)
¡t ¢ ¡t ¢ ¡ ¢

 Si les a i, j désignent les coefficients de A,


p
n X
a2i, j Ê 0
X
ϕ(A, A) =
i =1 j =1
p
n X
a2i, j = 0. Or la somme de quantités positives n’est nulle que si chacune des quantités est
X
 Si ϕ(A, A) = 0 alors
i =1 j =1
nulle et donc a i, j = 0 pour tous i, j. Ainsi A = 0.
Finalement ϕ est un produit scalaire sur le R-espace vectoriel E.
Ce produit scalaire est appelé produit scalaire canonique sur Mn,p (R)

Propriété 3: Produit scalaire sur C 2π (R)

Soit C 2π (R) l’espace des fonctions continues et 2π-périodiques sur R.


1 π
Z
L’application ϕ : ( f , g) 7−→ f ( t) g( t)d t est un produit scalaire sur C 2π (R)
π −π

Preuve:
ϕ : C 2π (R) × C 2π (R) → R est bien définie.
Soient λ, µ ∈ R et f , g, hZ∈ C 2π (R).
1 π 1 π 1 π
Z Z
 ϕ( f , λ g + µ h) = f (t) λ g(t) + µ h(t) dt = λ f (t)g(t)dt + µ
¡ ¢
f (t)h(t)dt.
π −π π −π π −π
1 π 1 π
Z Z
 ϕ( f , g) = f (t)g(t)dt = g(t) f (t)dt = ϕ(g, f )
π Z−π π −π
1 π 2
 ϕ( f , f ) = f (t)dt Ê 0
π −π
I.1 Produit scalaire 3

1 π 2
Z
 Si ϕ( f , f ) = 0 alors f (t)dt = 0. Or la fonction f 2 est continue positive sur [−π, π] donc f est nulle sur [−π, π],
π −π
puis elle est nulle sur R puisqu’elle est 2π-périodique..
ϕ est un produit scalaire sur le R-espace vectoriel C 2π (R).

Propriété 4: Produit scalaire sur R[ X ]

Soit I un intervalle de R d’intérieur non vide et soit ω ∈ C ( I, R∗+ ) telle que pour tout n ∈ N, t 7−→ t n ω( t) est
intégrable. Alors l’application Z
ϕ : (P,Q ) 7−→ P ( t)Q ( t)ω( t) d t
I
est un produit scalaire sur R[ X ]

Preuve:
ϕ : R[X ]2 → R est bien définie.
Soit λ ∈ R et P,Q, R Z∈ R[X ]. Z Z
 ϕ(P, λQ + R) = P(t) (λQ(t) + R(t)) ω(t) dt = λ P(t)Q(t)ω(t) dt + P(t)R(t)ω(t) dt.
Z I Z I I
 ϕ(P,Q) = P(t)Q(t)ω(t) dt = Q(t)p(t)ω(t) dt = ϕ(Q, P)
IZ I
1 π 2
 ϕ( f , f ) = f (t)dt Ê 0
π −π Z
 Si ϕ(P, P) = 0 alors P 2 (t)ω(t) dt = 0. Or la fonction P 2 .ω est continue positive et intégrable sur I d’intégrale nulle,
I
donc P 2 .ω est nulle sur I, puisque ω ne s’annule pas, alors P est nul sur I, puis il est nul sur R car il admet une infinité
de racines.
ϕ est un produit scalaire sur le R-espace vectoriel R[X ].

Exemple
Z +∞
L’application (P,Q ) 7−→ P ( t)Q ( t) e− t d t définit un produit scalaire sur R[ X ].
0

Définition 2

Un R-espace E muni d’un produit scalaire est dit préhilbertien et noté (E, < ., . >).

Si de plus E est de dimension finie, on parle d’espace euclidien

Définition 3: Norme euclidienne


p
On appelle norme euclidienne d’un vecteur x le réel k xk = < x, x >

Propriété 5

Soit (E, < ., . >) un espace préhilbertien, x ∈ E et α ∈ R


1. k xk Ê 0
2. k xk = 0 ⇔ x = 0
3. kα xk = |α|.k xk

Preuve:
2. Pour x ∈ E,
p
k xk = 0 ⇔ < x, x > = 0
⇔ < x, x >= 0
⇔ x=0

3. Pour x ∈ E et α ∈ R,
p
kα x k = < α x, α x >
p p
= α2 < x, x >
= |α| k xk
I.1 Produit scalaire 4

Propriété 6: Identités remarquables

Soit (E, < ., . >) un espace préhilbertien et x, y ∈ E


1. k x + yk2 = k xk2 + 2 < x, y > +k yk2
2. k x − yk2 = k xk2 − 2 < x, y > +k yk2
3. < x + y| x − y >= k xk2 − k yk2 .

Propriété 7: Identité du parallélogramme

Soit (E, < ., . >) un espace préhilbertien et x, y ∈ E ,

k x + yk2 + k x − yk2 = 2 k xk2 + k yk2


¡ ¢

Preuve:
Il suffit de sommer les deux premières identités remarquables précédentes
Remarque :

L’identité du parallélogramme signifie que, dans un parallélogramme donné, la somme des carrés des lon-
gueurs des diagonales est égale à la somme des carrés des longueurs des côtés.

Propriété 8: Identités de polarisation

Soit (E, < ., . >) un espace préhilbertien et x, y ∈ E ,


1. Première identité de polarisation :


k x + yk2 − k xk2 − k yk2
¢
< x, y >=
2

2. Deuxième identité de polarisation :


k x + yk2 − k x − yk2
¢
< x, y >=
4

Preuve:
Il suffit de faire la différence des deux premières identités remarquables précédentes
Remarque :

Par l’identité de polarisation, on peut calculer un produit scalaire à partir de la norme euclidienne associée.

Propriété 9: Inégalité de Cauchy-Schwarz

Soit (E, < ., . >) un espace préhilbertien et x, y ∈ E

|< x, y >| É k xk.k yk

De plus, il y a égalité si, et seulement si, x et y sont colinéaires.

Preuve:
 Si x = 0, la propriété est immédiate avec égalité et colinéarité des vecteurs x et y.

 Si x 6= 0, considérons pour λ ∈ R, le produit scalaire < λ x + y, λ x + y >.


D’une part, par positivité, < λ x + y, λ x + y >Ê 0.
D’autre part, par bilinéarité et symétrie,

< λ x + y, λ x + y >= λ2 < x, x > +2λ < x, y > + < y, y >

En posant a =< x, x > (a 6= 0 car x 6= 0), b = 2 < x, y > et c =< y, y >, le trinôme aλ2 + bλ + c est de signe constant donc
de discriminant négatif. Ainsi b2 − 4ac É 0 ce qui donne

< x, y >2 É< x, x > . < y, y >

De plus, s’il y a égalité dans cette inégalité, le discriminant est nul et donc il existe λ ∈ R tel que < λ x + y, λ x + y >= 0 ce
qui entraîne λ x + y = 0. La famille (x, y) est alors liée.
Inversement, supposons la famille (x, y) liée. Sachant x 6= 0, on peut écrire y = λ x et vérifier par bilinéarité du produit
scalaire l’égalité < x, y >2 =< x, x > . < y, y >.
I.2 Orthogonalité et base orthonormale 5

Exemple

Pour E = Rn , < ., . > le produit scalaire canonique, alors pour (α1 , · · · , αn ) , β1 , · · · , βn ∈ Rn , d’après l’inégalité
¡ ¢

de Cauchy-Schwartz,
à !2 à !à !
n n n
2 2
X X X
αi βi É αi βi
i =1 i =1 i =1

Exemple
Z b
Pour E = C ([a, b] , R) muni de < f , g >= f g,
a

µZ b ¶2 Z b Z b
fg É f2 g2
a a a

Exemple
¡t
Pour E = Mn,p (R) muni de < A, B >= Tr AB , alors ∀ A, B ∈ Mn,p (R),
¢

¡ ¡t ¢¢2
Tr AB É Tr t A A Tr t BB
¡ ¢ ¡ ¢

Propriété 10: Inégalité de Minkowski

Soit (E, < ., . >) un espace préhilbertien, alors pour tous x, y ∈ E ,

k x + yk É k xk + k yk

De plus, il y a égalité si, et seulement si, x et y sont colinéaires et < x, y >Ê 0 (ce qui signifie que x et y ont
même direction et même sens)

Preuve:
Soient x, y ∈ E. k x + yk2 =< x + y, x + y >
Par bilinéarité et symétrie du produit scalaire

k x + yk2 =< x, x > +2 < x, y > + < y, y >= k xk2 + 2 < x, y > +k yk2

Par l’inégalité de Cauchy-Schwarz

k x + yk2 É k xk2 + 2k xk.k yk + k yk2 = (k xk + k yk)2

et on en déduit l’inégalité triangulaire.


De plus, il y a égalité si, et seulement si, < x, y >= k xk.k yk ce qui signifie < x, y >Ê 0 et | < x, y > | = k xk.k yk
c’est-à-dire que les vecteurs x et y sont colinéaires et de même sens.

Corollaire 1 (Inégalité triangulaire renversée)


Soit (E, < ., . >) un espace préhilbertien, alors pour tous x, y ∈ E ,

|k xk − k yk| É k x − yk É k xk + k yk

Preuve:
Soient x, y ∈ E.
k xk = k(x − y) + yk É k x − yk + k yk
donc
k xk − k yk É k x − yk
De façon symétrique, on a aussi
k yk − k xk É k y − xk = k x − yk

I.2 Orthogonalité et base orthonormale

Soit E un R-espace préhilbertien réel.


I.2 Orthogonalité et base orthonormale 6

Définition 4: Vecteurs orthogonaux

Deux vecteurs x, y ∈ E sont dits orthogonaux si < x, y >= 0. On note x ⊥ y.

Définition 5

Soit I un ensemble non vide. La famille ( x i ) i∈ I de vecteurs de E est dite


 orthogonale si
∀ i, j ∈ I, i 6= j ⇒< x i , x j >= 0

 orthonormale si
(
1 si i = j
∀ i, j ∈ I, < x i , x j >= δ i j où δ i j =
0 si i = j

 base orthogonale si elle est à la fois base de E et famille orthogonale.


 base orthonormale ou BON si elle est à la fois base de E et famille orthonormale.

Exemple
Soit n ∈ N, on définit

c n : x 7−→ cos( nx) et s n : x 7−→ sin( nx).

Alors (
1 π δnm si n 6= 0 ou m 6= 0
Z
 cos( nt) cos( mt)d t = ;
π −π 2 si n = m = 0
(
1 π δnm si n 6= 0 ou m 6= 0
Z
 sin( nt) sin( mt)d t = ;
π −π 0 si n = 0 ou m = 0
Z π
1
 cos( nt) sin( mt)d t = 0.
π −π n o
Donc la famille { c 0 , c n , s n , n ∈ N∗ } est orthogonale et pc0 , c n , s n , n ∈ N∗ est orthonormale.
2

Propriété 11: Théorème de Pythagore

1. Deux vecteurs x et y de E sont orthogonaux si, et seulement si,

k x + y k2 = k x k2 + k y k2

2. Si la famille ( x1 , . . . , x p ) de vecteurs de E est orthogonale alors


° °2
°Xp ° p
k xk k2 .
X
xk ° =
° °
°
°k=1 ° k=1

Preuve:
1. Soit x, y ∈ E , on a
k x + yk2 = k xk2 + 2 < x, y > +k yk2
Donc k x + yk2 = k xk2 + k yk2 si, et seulement si, < x, y >= 0
2. Soit (x1 , . . . , x p ) une famille de vecteurs orthogonaux, on a
°2
p p ° p °
°
°X °
° x °2 + 2 ° x °2
X ° X X °
xk ° = < xi , x j > =
° °
° k k
k=1 k=1 1É i < j É p | {z } k=1
° °
=0

Propriété 12

1. Toute famille orthogonale de vecteurs non nuls est libre ;


2. Toute famille orthonormale est libre
I.2 Orthogonalité et base orthonormale 7

Preuve:
X
1. Soient J ⊂ I fini et (λ i ) i∈ J une famille de scalaires tels que λ i x i = 0. Par le théorème de Pythagore
i∈ J
° °2
X 2 ° °2 ° °X
°
λi xi =° λi xi ° = 0
° ° °
i∈ J
° i∈ J °
° °2
Donc pour tout i ∈ J, λ2i ° x i ° = 0, avec x i 6= 0, on tire λ i = 0. Ceci montre que la famille (x i ) i∈ I est alors libre.
2. Une famille orthonormale est une famille orthogonale de vecteurs non nuls

Propriété 13: Procédé de Gram-Schmidt

Soit ( e 1 , · · · , e n ) une famille libre de E . Il existe une et une seule famille orthonormée (ε1 , · · · , εn ) de E telle
que :
1. Pour tout k ∈ [[1, n]] , Vect(ε1 , . . . , εk ) = Vect( e 1 , . . . , e k ).
2. Pour tout k ∈ [[1, n]] , < εk , e k >> 0.
Cette famille est donnée par :
e1
• ε1 = .
ke1k
kX
−1
ek − < e k , εi > εi
i =1
• ∀ k ∈ [[2, n]] , εk = ° °.
° kX −1 °
° ek − < e k , εi > εi °
° °
i =1
° °

Preuve:
La famille (e i ) i∈ I est libre donc ∀ i ∈ I, e i 6= 0.
e1
Existence: Par récurrence, pour ε1 = on a ε1 ∈ Vect(e 1 ) et < ε1 , e 1 >= 1 > 0.
ke1k
Soit k Ê 2 et k ∈ I. Supposons qu’on a construit les vecteurs ε1 , . . . , εk−1 qui vérifient les deux conditions de la propriété.
kX−1
On pose u k = e k − < ε i , e k > ε i = e k − p k−1 (e k ).
i =1
Le vecteur u k est non nul car sinon e k = p k−1 (e k ) ∈ Vect ε1 , . . . , εk−1 = Vect e 1 , . . . , e k−1 donc la famille (e 1 , . . . , e k )
¡ ¢ ¡ ¢

sera liée.
¢⊥
Par construction u k ∈ Vect ε1 , . . . , εk−1 et on déduit que
¡

< e k , uk > = < e k − p k−1 (e k ), u k >


= < u k , u k >= k u k k2 > 0
uk
On pose εk = donc εk vérifie les conditions de la propriété.
ku k k
On déduit l’existence d’une famille (ε1 , . . . , εn )
Unicité: Soit (ε01 , . . . , ε0n ) une famille orthonormale qui répond aux conditions de la propriété. On a ε01 ∈ Vect(e 1 ) =
Vect(ε1 ) donc ∃α ∈ K, ε01 = αε1 .
On a < e 1 , ε01 >= α < e 1 , ε1 >, < e 1 , ε01 >> 0 et < e 1 , ε1 >> 0 ? donc α ∈ R∗ 0
+ . Or, 1 = kε1 k = |α|kε1 k = |α|, donc α = 1 d’où
ε01 = ε.
Soit 2 É k É n. On a ε0k ∈ Vect e 1 , . . . , e k = Vect ε1 , . . . , εk donc ∃α1 , . . . , αk ∈ K tels que ε0k = α1 ε1 + · · · + αk εk .
¡ ¢ ¡ ¢
³ ´⊥
D’autre part ε0k ∈ Vect ε01 , . . . , ε0k−1 et

Vect ε01 , . . . , ε0k−1 = Vect e 1 , . . . , e k−1 = Vect(ε1 , . . . , εn−1 )


¡ ¢ ¡ ¢

donc ε0k = αk εk .
On a < ε0k , e k >= αk < εk , e k >, < ε0k , e k >> 0 et < εk , e k >> 0, alors αk > 0. Comme kε0k k = kεk k = 1, on obtient αk = 1.
D’où ε0k = εk . D’où l’unicité.

Méthode: Obtention d’une famille orthonormale


Soit L = ( e 1 , . . . , e n ) . Pour obtenir une famille orthonormale à partir de L par le procédé de Gram-Schmidt
on suit les étapes suivantes :
Etape 1 : On calcul ε1 = k ee 11 k .
kX −1 uk
Etape k Ê 2 : On calcule u k = e k − < ε i , e k > ε i et on calcule ensuite εk = .
i =1 k u kk
I.2 Orthogonalité et base orthonormale 8

Exemple

R3 muni du produit scalaire usuel de


Orthonormalisation la famille ((1, 1, 0), (0, 1, 1), (1, 0, 1)) :

On pose e 1 = (1, 1, 0), e 2 = (0, 1, 1) et e 3 = (1, 0, 1). On a la famille ( e 1 , e 2 , e 3 ) est libre et soit (ε1 , ε2 , ε3 ) la
famille orthonormale obtenue à partir de ( e 1 , e 2 , e 3 ) par le procédé de Gram-Schmidt.
 On a ε1 = k ee 11 k = p1 (1, 1, 0).
2
 On pose u2 = e 2 − < ε1 , e 2 > ε1 . On a
1
u2 = (−1, 1, 2)
2
u2 1
On déduit que ε2 = = p (−1, 1, 2) .
ku2 k 6
 On pose u3 = e 3 − < ε1 , e 3 > ε1 − < ε2 , e 3 > ε2 . On a
2
u3 = (1, −1, 1)
3
u3 1
On déduit que ε3 = = p (1, −1, 1).
ku3 k 3

Exemple
Z 1
Orthonormalisation dans R3 [ X ] muni du produit scalaire < P,Q >= P ( t)Q ( t) d t de la base canonique
0
2 3
(1, X , X , X )

On pose ∀ k ∈ {0, 1, 2, 3}, P k = X k et soit (Q 0 ,Q 1 ,Q 2 ,Q 3 ) la famille orthonormale obtenue à partir de


(P0 , P1 , P2 , P3 ) par le procédé de Gram-Schmidt.
Z 1 Z 1
P0
 On a kP0 k2 =< P0 , P0 >= P02 = d x = 1 donc Q 0 = = 1.
0 0 kP0 k
 On pose R1 = P1 − < Q 0 , P1 > Q 0 . On a
Z 1 Z 1 1
< Q 0 , P1 >= Q 0 ( x)P1 ( x)d x = xd x =
0 0 2
1
donc R 1 = X − . Avec
2 ¶2 p
Z 1 Z 1µ 1 3
2
kR 1 k =< R 1 , R 1 >= R 12 = x− dx =
0 0 2 6
R1 p 1
µ ¶
donc Q 1 = =2 3 X − .
kR 1 k 2
 On pose R2 = P2 − < Q 0 , P2 > Q 0 − < Q 1 , P2 > Q 1 . On a :
Z 1 Z 1 1
< Q 0 , P2 >= Q 0 ( x)P2 ( x)d x = x2 d x =
0 0 3
et p
Z 1 p Z 1 µ
1

3
< Q 1 , P2 >= Q 1 ( x)P2 ( x)d x = 2 3 x2 x − d x =
0 0 2 6
1 1 Z 1 1 1
Z
Donc R 2 = X 2 − X + . On a kR 2 k2 = R 22 = ( x2 − x + )2 = .
6 0 ¶ 0 6 180
R2 p 1
µ
On déduit que Q 2 = = 6 5 X2 − X + .
kR 2 k 6
 On pose R3 = P3 − < Q 0 , P3 > Q 0 − < Q 1 , P3 > Q 1 − < Q 2 , P3 > Q 2 . On a
Z 1 1
Z 1
< Q 0 , P3 > = Q 0 ( x)P3 ( x)d x = x3 d x =
0 0 4
Z 1 p
p Z 1 3 1 3 3
µ ¶
< Q 1 , P3 > = Q 1 ( x)P3 ( x)d x = 2 3 x x − dx =
0 0 2 20
Z 1 p
p Z 1 3 2 1 5
µ ¶
< Q 2 , P3 > = Q 2 ( x)P3 ( x)d x = 6 5 x x − x + dx =
0 0 6 20
I.2 Orthogonalité et base orthonormale 9

3 2 3 1
Donc R 3 = X 3 − X + X− . Or
2 5 20
Z 1 Z 1
3 3 1 2 1
k R 3 k2 = R 32 = (X 3 − X 2 + X − ) =
0 0 2 5 20 2800

R3 p 3 3 1
µ ¶
On déduit que Q 3 = = 20 7 X 3 − X 2 + X − .
kR 3 k 2 5 20

Théorème 1

Tout espace euclidien, non nul, admet une base orthonormale.

Preuve:
Voir le procédé de Gram-Schmidt

Propriété 14

Toute famille orthonormale d’un espace euclidien E se complète en une base orthonormale de E .

Propriété 15: Calcul avec une base orthonormale

Soient E un R-espace préhilbertien de dimension finie n ∈ N∗ et ( e 1 , . . . , e n ) une base orthonormale sur E .


Alors :
s
n
X n
X
1. x = < e k , x > e k et k xk = < e k , x >2 .
k=1 k=0
n
X n
X n
X
2. Soit x = xk e k , y = yk e k , on a < x, y >= xk yk et
k=0 k=0 k=0
s
n
( xk − yk )2
X
k x − yk =
k=0

3. Pour tout u ∈ L (E ), on a MatB ( u) = < e i , u( e j ) > 1É i, jÉn .


¡ ¢
n
X
En particulier Tr ( u) = < e k , u( e k ) >.
k=1

Preuve:
n
X
1. Soit x = xk e k . Soit k ∈ {1, . . . , n}. On a
k=1
n
X n
X
< e k , x >=< e k , x i e i >= x i < e k , e i >= xk
i =1 i =1
n
X
donc x = < e k , x > e k et par suite
k=1
n n
k x k2
X X
= < x, x >=< xk e k , xk e k >
k=1 k=1
n n n
x2k
X X X
= xk x` < e k , e ` >= xk x` δk,` =
k,`=1 k,`=1 k=1
v
u n
| x k |2
uX
donc k xk = t
k=0
n
X n
X
2. Soit x = xk e k et y = yk e k donc
k=0 k=0
n
X n
X n
X
< x, y > = < xk e k , yk e k >= xk y` < e k , e ` >
k=0 k=0 k,`=0
n
X n
X
= xk yk δk,` = xk yk
k,`=0 k=0
° ° v
°Xn ° u n ¢2
° uX ¡
On a d(x, y) = k x − yk = ° |(xk − yk )e k ° = t xk − yk .
°
k=0 k=0
° °
I.3 Orthogonal d’une partie et supplémentaire orthogonal 10

3. Soit B = (e 1 , . . . , e n ) une base de E , u ∈ L (E) et A la matrice de u dans la base B . Soit j ∈ {1, . . . , n} donc u(e j ) =
Xn n
X
a i j e i d’où < e i , u(e i ) >= a ii . On a Tr (u) = a kk donc
i =1 k=1

n
X
Tr (u) = < e k , u(e k ) >
k=1

I.3 Orthogonal d’une partie et supplémentaire orthogonal

Soit (E, < ., . >) un espace préhilbertien.


Définition 6

 Soit A ⊂ E non vide. On appelle orthogonal de A l’ensemble

{ x ∈ E, ∀a ∈ A, < x, a >= 0}

On le note A ⊥ et par convention ;⊥ = E


 Deux parties A, B ⊂ E sont dites orthogonales si

∀a ∈ A, ∀ b ∈ B, < a, b >= 0

On note A ⊥ B.
 Une famille ( A i ) i∈ I de parties de E est dite orthogonale si les A i sont deux à deux orthogonales.

Notation :
¡ ¢⊥
Le double orthogonal A ⊥ est noté A ⊥⊥

Propriété 16

Soit A et B deux parties de E et F un sous-espace vectoriel


1. E ⊥ = {0} et {0}⊥ = E ;
2. A ⊥ est un sous-espace fermé de E ;
3. A ∩ A ⊥ ⊂ {0} et F ∩ F ⊥ = {0}. En particulier F + F ⊥ est directe
4. A ⊂ B ⇒ B⊥ ⊂ A ⊥ ;
5. A ⊂ A ⊥⊥ ;
6. A ⊥ = Vect( A )⊥ . En particulier si F = Vect( e 1 , · · · , e n ), alors

F ⊥ = { x ∈ E tel que ∀ i ∈ [[1, n]] , < e i , x >= 0}

Définition 7: Supplémentaires orthogonaux

Deux sous-espaces vectoriels F et G sont dits supplémentaires orthogonaux s’ils sont supplémentaires et
orthogonaux. C’est-à-dire
E = F ⊕ G et F ⊥ G

On écrit, alors

E = F ⊕G

Exemple
Dans M n (R) muni du produit scalaire canonique les sous-espaces vectoriels S n (R) et A n (R) sont supplé-
mentaires orthogonaux.

Soient A ∈ S n (R) et B ∈ A n (R).


< A, B >= Tr t AB = Tr ( AB)
¡ ¢

et
< A, B >=< B, A >= Tr t BA = −Tr (BA ) = Tr ( AB)
¡ ¢
I.3 Orthogonal d’une partie et supplémentaire orthogonal 11

donc < A, B >= 0. Ainsi S n (R) et A n (R) sont orthogonaux et donc en somme directe.
De plus, pour tout M ∈ M n (R), on peut écrire

1 1
M = (M + t M) + (M − t M)
2 2
1 1
avec ( M + t M ) ∈ S n (R) et ( M − t M ) ∈ A n (R). Ainsi
2 2

M n (R) = S n (R) ⊕ A n (R)

Propriété 17

Soit F et G deux sous-espaces supplémentaires de E , alors

F ⊥ G ⇐⇒ G = F ⊥ ⇐⇒ F = G ⊥

Si F admet un supplémentaire orthogonal, celui-ci est unique et c’est F ⊥ . En outre F ⊥⊥ = F .

Preuve:
 G = F ⊥ ⇒ F ⊥ G et F = G ⊥ ⇒ F ⊥ G sont évidentes
 Montrons F ⊥ G ⇒ G = F ⊥ . On a G ⊂ F ⊥
Inversement soit x ∈ F ⊥ , puisque E = F ⊕ G,il existe (xF , xG ) ∈ F × G tel que x = xF + xG . On a < x, xF >= 0, car x ∈ F ⊥
et puisque G ⊥ F, alors < xF | xG >= 0, donc

k xF k2 =< xF , xF >=< x, xF > − < xG , xF >= 0

puis xF = 0, en conséquence x ∈ G, ce qui montre F ⊥ ⊂ G


 F et G jouent un rôle symétrique, donc F ⊥ G ⇒ F = G ⊥

Attention
Soit E = `2 (R) = ( u n ) ∈ RN | u2n converge et F l’ensemble des suites à support fini.
© P ª
+∞
X
< u|v >= u n vn définit un produit scalaire sur E .
n=0
F est un sous-espace vectoriel de E engendré par la famille ( H n ) avec H n = δk,n k∈N . Soit u = ( u n ) ∈ E , on
¡ ¢

u ∈ F⊥ ⇐⇒ ∀ n ∈ N, < u| H n >= 0
⇐⇒ ∀ n ∈ N, un = 0
u=0 ⇐⇒
1
µ ¶

∈ `2 (R) \ F .
L ⊥
Ainsi F = {0} et F F = F . Mais F 6= E , car la suite
n+1

Ce contre-exemple montre qu’Il se peut que F et F ⊥ ne soient pas supplémentaires.

Propriété 18


Soit F un sous-espace de dimension finie d’un espace préhilbertien E , alors E = F ⊕ F ⊥

Preuve:
On a F ∩ F ⊥ = {0}, alors il suffit de montrer que E ⊂ F + F ⊥
 Si F = {0}, alors E = F ⊥ = F + F ⊥ .
¡ ¢ p
X
 Si F 6= {0}. On pose p = dim F et soit e i i∈[[1,p]] une base orthonormale de F. Pour x ∈ E, on pose y = < ei, x > ei.
i =1
On voit bien que y ∈ F et pour tout k ∈ [[1, p]], on a
p
X
< ek, x − y > = < ek, x > − < e i , x >< e k , e j >
i =1
X p
= < ek, x > − < e i , x > δk,i = 0
i =1

On conclut x − y ∈ { e 1 , · · · , e p }⊥ = F ⊥ , donc x = y + (x − y) se compose en somme de deux vecteurs y ∈ F et x − y ∈ F ⊥ . On


Projection orthogonale sur un sous-espace de dimension finie 12

en déduit donc E ⊂ F + F ⊥

Corollaire 2
Soit F un sous-espace vectoriel d’un euclidien E , alors
1. E = F F ⊥ ;
L

2. dimF ⊥ = dimE − dimF ;


3. F ⊥⊥ = F

Propriété 19

p
p X
Si (F i ) i=1 une famille finie de sous-espaces vectoriels deux à deux orthogonaux, la somme F i est directe
i =1

p
X M
Fi = Fi
i =1 1É i É p

On dit alors que les F1 , · · · , F p sont en somme directe orthogonale.

M p
Si la somme directe F i égale E , on dit que (F i ) i=1 est une famille de sous-espaces supplémentaires
1É i É p
orthogonaux

Preuve:
p
X
Soit (x1 , · · · , x p ) ∈ F1 × · · · × F p tel que x i = 0. Pour tout k ∈ [[1, p]], on a :
i =1

p
k xk k2 =< xk ,
X
x i >=< xk , 0 >= 0
i =1

Propriété 20
p
Soit (F i ) i=1 est une famille de sous-espaces supplémentaires orthogonaux, on a :

F j = F i⊥
X
∀ i ∈ [[1, p]] ,
j ∈[[1,p]]
j 6= i

Preuve:
F j , on a G ⊂ F i⊥ et E = G F i donc G = F i⊥
X L
Soit G =
j ∈[[1,p]]
j 6= i

II Projection orthogonale sur un sous-espace de dimension finie

Soit E un espace préhilbertien et F un sous-espace vectoriel de E de dimension finie.

II.1 Projections orthogonales

Définition 8

On appelle projection orthogonale sur F la projection vectorielle p F sur F parallèlement à F ⊥ .

Propriété 21

Soit p un projecteur de E . Les assertions suivantes sont équivalentes


1. Ker p et Im p sont orthogonaux ;
2. Ker p = Im ( p)⊥ ;
3. Im p = Ker ( p)⊥ .

Tout projecteur vérifiant l’une des trois assertions est projecteur orthogonal.
II.1 Projections orthogonales 13

Preuve:
p étant un projecteur, on sait alors que E = Imp ⊕ Kerp et les équivalences des trois assertions deviennent évidentes
Remarque :

Si p est un projecteur orthogonal, alors I d E − p l’est aussi

Propriété 22: Caractérisation des projections orthogonales

Soit p un projecteur de E . Les assertions suivantes sont équivalentes :


1. p est un projecteur orthogonal ;
2. Pour tous x, y ∈ E , on a < p( x), y >=< x, p( y) > ;
3. ∀ x ∈ E , k p( x)k É k xk.

Preuve:
1 ⇒ 2) Supposons que p est un projecteur orthogonal. Soit x, y ∈ E, on a

< p(x), y >=< p(x), y − p(y) > + < p(x), p(y) >=< p(x), p(y) >

De façon semblable < x, p(y) >=< p(x), p(y) > et donc < p(x), y >=< x, p(y) >.
2 ⇒ 3) On applique 2) avec y = p(x), ce qui donne alors p(y) = p2 (x) = p(x). Il vient k p(x)k2 =< x, p(x) >, donc, d’après
l’inégalité de Cauchy-Schwarz : k p(x)k2 É k p(x)k.k xk, et pour p(x) 6= 0, par simplification par k p(x)k, on obtient k p(x)k É
k xk. Enfin cette inégalité est vérifiée pour p(x) = 0
3) ⇒ 1) Si p n’est pas orthogonal, alors il existe x ∈ Imp et y ∈ Kerp tels que < x, y >6= 0, donc x 6= 0 et y 6= 0.
< x, y >
Avec λ = − , on obtient < y, x + λ y >= 0 et λ 6= 0, puis, d’après le théorème de Pythagore,
k yk2

k xk2 = k x + λ yk2 + |λ|2 k yk2 > k x + λ yk2

donc k xk > k x + λ yk. Avec z = x + λ y, on trouve p(z) = x et k zk < k p(z)k, ce qui est absurde

Propriété 23

Soit F un sous-espace vectoriel de dimension finie de E . Alors


1. La projection p F orthogonale sur F (projection sur F parallèlement à F ⊥ ) est 1-lipschitzienne.
2. Expression dans une base orthonormale
Si B = ( e 1 , · · · , e p ) est une base orthonormée de F alors
p
X
∀ x ∈ E, p F ( x) = < e j, x > e j
j =1

3. Minimisation de distance : Soit x ∈ E , alors pour tout y ∈ F ,

k x − yk Ê k x − p F ( x ) k

avec égalité si, et seulement si, y = p F ( x). En particulier

d ( x, F ) = inf {k x − y k , y ∈ F } = k x − p F ( x)k

Preuve:
1. D’après la propriété 22.
2. D’après la propriété 18.
3. On écrit x − y = (x − P F (x)) + (P F (x) − y) avec x − P F (x) ∈ F ⊥ et P F (x) − y ∈ F.
Par Pythagore
k x − yk2 = k x − P F (x)k2 + kP F (x) − yk2 Ê k x − P F (x)k2 ,
avec égalité si, et seulement, si y = P F (x)

Corollaire 3
Soit D = Vect (a) avec a 6= 0 et H = Vect(a)⊥ . Alors
< a, x > < x, a >
∀ x ∈ E, p D ( x) = a et p H ( x) = x − a
k a k2 k a k2
II.2 Suites totales, suites hilbertiennes 14

et ° °
° < x, a > °° et d ( x, H ) = | < x, a > |
d ( x, D ) = ° x − 2
a
° k ak ° k ak

Preuve:
Par la formule précédente, on obtient alors
< a| x >
∀ x ∈ E, p D (x) = a
k a k2
< x, a >
Puisque id − p H est la projection orthogonale sur la droite D = Vect(a), on obtient alors x − p H (x) = a puis
k a k2
< x, a >
p H (x) = x − a
kak2

Exemple
Soit E un espace vectoriel euclidien de dimension 3 muni d’une base orthonormée B = ( i, j, k).
Soit P : x + y − z = 0, D = Vect(a) avec a = i − k et u = i + 2 j − k. Calculons d ( u, D ) et d ( u, P ).

Soit v = (1, 1, −1), on a P = Vect (v)⊥ . Par les formules précédentes

|< u, v >| |1 + 2 + 1| 4
d ( u, P ) = = p =
kvk 3 3

et ° ° ¯ ° p
° < u, a > °° = ¯ 3 i + 2 j − 1 ° = 26
¯ °
d ( u, D ) = ° u − 2
a
° k ak ° ¯ 2 2° 2

Propriété 24: Inégalité de Bessel

Soit ( e n )n∈N une famille orthonormale de E et x ∈ E , alors la famille < e n , x >2 n∈N est sommable et
¡ ¢

| < e n , x >2 É k xk2 .


X
n∈N

Preuve:
Pour tout partie finie J de N on a :
X ¡ ¢
〈 e i | x〉 e i est le projeté orthogonal de x sur Vect e i , i ∈ J
i∈ J

II.2 Suites totales, suites hilbertiennes

E un espace préhilbertien réel et ( e n )n∈N une suite de E


Définition 9: Famille totale, base hilbertienne

Soit ( e n )∈N une suite d’éléments de E .


1. ( e n )n∈N est dite totale si l’espace vectoriel qu’elle engendre est dense dans E . Autrement-dit
Vect( e n , n ∈ N) = E
2. ( e n )n∈N est dite base hilbertienne si elle est à la fois orthonormale et totale

Remarque :

Soit x ∈ H = Vect( e n )n∈N , alors il existe J finie de N et (α i ) i∈ J tels que


X
x= αi e i
i∈ J

Propriété 25

Soit ( e i ) i∈N une base hilbertienne E et x ∈ E .


1. En notant P n le projecteur orthogonal de E sur Vect ( e 0 , · · · , e n ), alors

∀ x ∈ E, P n ( x) −−−−−→ x
n→+∞
X
La série < e n , x > e n converge de somme x
nÊ0
II.2 Suites totales, suites hilbertiennes 15

< e n , x >2 converge de somme k x k2 , c’est-à-dire


X
2. La série
nÊ0

+∞
< e n , x >2 = k xk2
X
(Égalité de Parseval)
n=0

Preuve:
On fixe x ∈ E
1. Soit ε > 0. Par hypothèse la suite e i i∈N est totale, donc il existe y ∈ Vect (e n , n ∈ N) tel que
¡ ¢

k x − yk < ε

Soit N ∈ N tel que y ∈ Vect e 0 , · · · , e N . La suite (F n ) définie par F n = Vect (e 0 , · · · , e n ) est croissante au sens de
¡ ¢

l’inclusion, alors pour tout n Ê N, on a y ∈ F n et

k P n (x) − x k É k y − x k < ε

2. Pour n ∈ N, on pose F n = Vect (e 0 , · · · , e n ). On a


n
k x − P n (x)|2 = k xk2 − < e k | x >2
X

k=0

n
< e n , x >2 −−−−−→ k x k2
X
Comme P n (x) −−−−−→ 0, alors
n→+∞ n→+∞
k=0

Application 1: Séries de Fourier


Soit f ∈ C 2π (R), on définit les coefficients de Fourier de f par

1 π
Z
∀ n ∈ N, a n = f ( t) cos( nt) d t;
π −π
Z π
1
∀ n ∈ N∗ , b n = f ( t) sin( nt) d t
π −π

Alors
a 0 +∞
∀ x ∈ R,
X
f ( x) = + (a n cos( nx) + b n sin( nx))
2 n=1
Et
1 π a20 +∞
Z
f 2 ( x) d x = a2n + b2n
X¡ ¢
+
π −π 2 n=1

Exemple

Soit f la fonction 2π-périodique définie sur [−π, π] par f ( x) = x2 .


π2 X (−1)n
+∞
1. Montrer que ∀ x ∈ [−π, π] , x2 = +4 2
cos( nx)
3 n=1 n
+∞
X 1
2. Déduire la somme 2
n=1 n
+∞
X 1
3. En utilisant l’égalité de Parseval, déduire 4
n=1 n

1. La fonction f est paire donc ∀ n ∈ N∗ , b n = 0.


1 π 2 4(−1)n 2 π 2 2π 2
Z Z
Soit n ∈ N . On a a n =

x cos ( nx) d x = . On a a 0 = x d x = . D’où
2π −π n2 π 0 3
π2 +∞ (−1)n
x2 =
X
∀ x ∈ [−π, π] , +4 2
cos( nx)
3 n=1 n

1 π2
+∞
X
2. Pour x = π, on obtient 2
= .
n=1 n 6
3. D’après la formule de Parseval on a
1 π 4 2π 4 +∞
X 1 +∞ 1 π4
Z X
x dx = + 16 Puis =
π −π 9 n=1 n
4
n=1 n
4 90
II.3 Symétrie orthogonale 16

II.3 Symétrie orthogonale

Soit F un sous-espace vectoriel de E de dimension finie.


Définition 10

On appelle symétrie orthogonale par rapport à F la symétrie vectorielle s F par rapport à F parallèlement
à F ⊥.
Si F est un hyperplan de E , on dit que s F est la réflexion par rapport à F .

Propriété 26

Soient a, b ∈ E tels que kak = k bk et a 6= b.


Il existe une réflexion et une seule qui échange a et b.

Preuve:
 Analyse : Soit s une réflexion d’hyperplan H solution.
On a s(a) = b et s(b) = a donc s(b − a) = a − b = −(b − a). Par suite b − a ∈ H ⊥ . Or b − a 6= 0 donc H = Vectb − a⊥ . Ceci
déterminer H, et donc s, de façon unique.
 Synthèse : Soit s la réflexion d’hyperplan H = Vectb − a⊥ . Puisque kak = kbk, on a (a + b|a − b) = kak2 −k bk2 = 0 donc
1 1 1 1
a + b ∈ H. Or a = (a + b) + (a − b) donc s(a) = (a + b) − (a − b) = b et s(b) = s2 (a) = a. Ainsi s est solution.
2 2 2 2

Propriété 27

s F est un endomorphisme de E vérifiant s2 = id , Ker( s − id ) = F et Ker( s + id ) = F ⊥ . De plus − s F = s F ⊥ et


s F = 2 p F − id

Preuve:
Puisque s F est la symétrie par rapport à F et parallèlement à F ⊥ , s F est un endomorphisme de E vérifiant s2 = I d. Aussi
Ker(s F − I d) = F (espace par rapport auquel a lieu la symétrie) et Ker(s F + I d) = F ⊥ (espace parallèlement auquel a lieu la
symétrie).
De plus − s F est la symétrie complémentaire de s F c’est-à-dire la symétrie par rapport à F ⊥ parallèlement à F = F ⊥⊥ ,
autrement dit la symétrie par rapport à F ⊥ .
Enfin s F = 2p F − I d car p F est la projection sur F parallèlement à F ⊥ .

Propriété 28

Si B = ( e 1 , · · · , e p ) est une base orthonormée de F alors


p
X
∀ x ∈ E, s F ( x) = 2 < x, e j > e j − x
j =1

Preuve:
p
X
Pour tout x ∈ E, p F (x) = < x, e j > e j
j =1

Exemple
[Symétrie par rapport à une droite vectorielle] Soit D = Vect (a) avec a 6= 0. Alors
< x, a >
∀ x ∈ E, s D ( x) = 2 a−x
k a k2

Exemple

[Réflexion] Soit H = Vect(a)⊥ avec a 6= 0. Alors


< x, a >
∀ x ∈ E, s H ( x) = x − 2 a
k a k2

Exemple
Soit E un espace vectoriel euclidien de dimension 3 muni d’une base orthonormée B = ( e 1 , e 2 , e 3 ).
Soit s la réflexion par rapport au plan P : x + y − z = 0.
II.3 Symétrie orthogonale 17

Formons la matrice A de s dans la base B.

Soit a = i + j − k un vecteur normal à P , alors pour tout x ∈ E , on a :


< x, a >
s( x) = x − −2 a
kak2

On en déduit
2 1
s( i ) = i − ( i + j − k) = ( i − 2 j + 2 k)
3 3
2 1
s( j ) = j − ( i + j − k) = (−2 i + j + 2 k)
3 3
2 1
s( k ) = k + ( i + j − k) = (2 i + 2 j + k)
3 3
 
1 −2 2
1
Ainsi A = −2 1 2

3
2 2 1

Propriété 29: Caractérisation des symétries orthogonales

Soit s ∈ L (E ) une symétrie. On a équivalence entre :


1. s est une symétrie orthogonale
2. ∀ x, y ∈ E, ( s( x)| y) = ( x| s( y)).
3. ∀ x ∈ E, k s( x) k = k xk

Preuve:
1 ⇒ 2) Supposons que s est une symétrie orthogonale.
1
On sait déjà s2 = id. Soit p = (s + id) la projection associée à la symétrie s.
2
Pour tout x, y ∈ E. On a
(s(x)| y) = (2p(x) − x| y) = 2(p(x)| y)− < x, y >
Or (p(x)| y) = (x| p(y)) car la projection p est orthogonale donc

(s(x)| y) = 2(x| p(y))− < x, y >= (x|2p(y) − y) = (x| s(y))

2 ⇒ 1) Puisque s2 = id, les espaces F = Ker(s − id) et G = Ker(s + I d) sont supplémentaires dans E et q est la symétrie par
rapport à F et parallèlement à G. Pour conclure, il suffit de montrer que G = F ⊥ .
Soient x ∈ F et y ∈ G.

< x, y >= (s(x)| y) = (x| s(y)) = (x| − y) = − < x, y > donc < x, y >= 0

On en déduit que les espaces F et G sont orthogonaux. Ainsi G ⊂ F ⊥ , or dimG = dimE − dimF = dimF ⊥ donc G = F ⊥ .

Corollaire 4
La matrice d’une symétrie orthogonale dans une base orthonormée est symétrique.

Preuve:
Notons A = (a i, j ) la matrice d’une symétrie orthogonale s dans une base orthonormée B = (e 1 , ..., e n ).
Le coefficient d’indice (i, j) de A est la ième composante dans B de l’image du jème vecteur de base par p. Ainsi a i, j =
(e i | s(e j )).
Or p est une symétrie orthogonale donc a i, j = (s(e i )| e j ) = (e i | s(e j )) = a j,i . Par suite la matrice A est symétrique.

Corollaire 5
Les symétries orthogonales conservent le produit scalaire

∀ x, y ∈ E, ( s( x)| s( y)) =< x, y >

En particulier, les symétries orthogonales conservent la norme

∀ x ∈ E, k s( x)k = k xk
Endomorphismes orthogonaux d’un euclidien 18

Preuve:
Soit x, y ∈ E, on a
(s(x)| s(y)) = (x| s2 (y)) =< x, y >

III Endomorphismes orthogonaux d’un euclidien

E désigne un espace euclidien de dimension finie n Ê 1

III.1 Matrices orthogonales

Définition 11

Une matrice A ∈ Mn (R) est dite orthogonale si t A A = I n .

On note O n (R) l’ensemble de matrices orthogonales.

Exemple
I n ∈ O n (R) et − I n ∈ O n (R)

Propriété 30

Soit A ∈ Mn (R) de colonnes C 1 , · · · , C n et de lignes L 1 , · · · , L n . Les assertions suivantes sont équivalentes :


1. A ∈ O n (R) ;
2. A ∈ GLn (R) et A −1 = t A ;
3. A t A = I n ;
4. la famille (C 1 , · · · , C n ) est orthonormale pour le produit scalaire canonique de Mn,1 (R) ;
5. la famille (L 1 , · · · , L n ) est orthonormale pour le produit scalaire canonique de M1,n (R) ;
6. A est la matrice de passage d’une BON à une BON

Preuve:
¡ ¢
Posons A = a i, j 1É i, jÉn .
Les trois assertions sont équivalentes.
1 ⇐⇒ 4. On a t A = a j,i 1É i, jÉn et t A A = b i, j 1É i, jÉn avec
¡ ¢ ¡ ¢

n
X
b i, j = a k,i a k, j =< C i , C j >
k=1

donc
t
A A = I n ⇐⇒ ∀ i, j ∈ [[1, n]] , < C i , C j >= b i, j = δ i, j

3 ⇐⇒ 5. Posons A t A = c i, j 1É i, jÉn , alors


¡ ¢

n
X
c i, j = a i,k a j,k =< L i , L j >
k=1
donc
A t A = I n ⇐⇒ ∀ i, j ∈ [[1, n]] , < L i , L j >= c i, j = δ i, j

4 ⇐⇒ 6. Soit B = (e 1 , · · · , e n ) une base orthonormée de E et B0 = (e01 , · · · , e0n ) une famille de vecteurs de E. Notons p i, j le
coefficient général de la matrice P = MatB (e01 , · · · , e0n ). p i, j est la ième composante dans la base B du vecteur e0j . Notons
p0i, j le coefficient général de la matrice t P. On a p0i, j = p j,i
Enfin, notons a i, j le coefficient général de la matrice t PP. On a

n n
p0i,k p k, j =
X X
a i, j = p k,i p k, j
k=1 k=1

Or par calcul du produit scalaire de deux vecteurs par ses composantes dans une base orthonormée, on a aussi
n
(e0i | e0j ) =
X
p k,i p k, j
k=1

Ainsi a i, j = (e0i | e0j ) et donc t PP = I n si, et seulement si, la famille B0 est orthonormée et cette dernière est alors une
base orthonormée de E.
III.1 Matrices orthogonales 19

Exemple

p1 p1 p1
 
 13 2 6 
Soit la matrice A =  p
 3 − p1 p1  ∈ M3 (R). Montrons que A ∈ O3 (R)
2 6 
p1 0 − p2
3 6

En notant C 1 , C 2 et C 3 les colonnes de A on a

< C 1 , C 2 >=< C 2 , C 3 >=< C 1 , C 3 >= 0 et kC 1 k = kC 2 k = kC 3 k = 1

On en déduit A ∈ O3 (R ).

Propriété 31

1. O n (R) est un sous-groupe compact de (GLn (R), ×) appelé groupe orthogonal d’ordre n.
2. det (O n (R)) = {−1, 1}.

n (R) = { A ∈ M n (R) , det( A ) = 1} un sous-groupe compact du groupe orthogonal d’ordre n, appelé


3. O +
groupe spécial orthogonal d’ordre n et noté aussi SO n (R)

n (R) = { A ∈ M n (R) , det( A ) = −1} est un compact de O n (R)


4. O −

Preuve:

1.  O n (R) ⊂ GLn (R), I n ∈ O n (R) .


 Soient A, B ∈ O n (R).
AB est inversible et (AB)−1 = B−1 A −1 = t Bt A = t (AB) donc AB ∈ O n (R).
 Soit A ∈ O n (R).
¢−1 t −1 t −1
A −1 est inversible et A −1 = ( A) = (A ) donc A −1 ∈ O n (R).
¡

Donc O n (R) est un sous-groupe de (GLn (R), ×).


L’application f : A ∈ M n (R) 7−→ t A A est continue et { I n } fermé, donc O n (R) = f −1 ({ I n }) est un fermé relatif à M n (R) et
c’est donc une partie fermée. Enfin,
q considérons k . k la norme euclidienne associée au produit scalaire canonique sur
p
M n (R). Pour A ∈ O n (R), k A k = Tr A A = Tr (I n ) = n. Par suite O n (R) est une partie bornée. Puisque M n (R) est
t
¡ ¢ p

de dimension finie, O n (R) est une partie compacte car fermée et bornée.
2. Soit A ∈ O n (R), on a ³ ´
det(A)2 = det t A A = 1
donc det(A) ∈ {−1, 1}. Or det(I n ) = 1 et det (diag (−1, 1, · · · , 1)) = −1 et I n , diag (−1, 1, · · · , 1) ∈ O n (R), donc det (O n (R)) =
{−1, 1}.
3. O +
n (R) = O n (R) ∩ Ker(det) est un sous-groupe fermé d’un groupe compact.
4. Soit O ∈ O − −
¡ +
n (R), l’application ϕ : A ∈ M n (R) 7−→ AO est continue et O n (R) = ϕ O n (R)
¢

Attention

n (R) n’est pas un sous-groupe de O n (R) puisque le produit de deux matrices de O n (R) appartient à O n (R).
O− − +

Propriété 32: Classification de O2 (R)

Soit M ∈ M2 (R)
1. M ∈ O2+ (R) si, et seulement si, il existe un réel θ unique à 2π près vérifiant
à !
cos θ − sin θ
M = R (θ ) =
sin θ cos θ

O2 (R), × est un groupe commutatif.


¡ + ¢

2. M ∈ O2− (R) si, et seulement si, il existe un réel θ unique à 2π près vérifiant
à !
cos θ sin θ
M = S (θ ) =
sin θ − cos θ
à !
2 1 ⊥ 0
En outre S (θ ) = I 2 et S (θ ) ≈
0 −1
III.2 Groupe orthogonal d’un espace euclidien 20

Preuve:
à !
a c
Soit M = ∈ M2 (R).
b d
1.  Puisque a2 + c2 = 1, il existe θ ∈ R tel que a = cos θ et b = sin θ .
On a det(M) = ad − bc = 1 et a2 + c2 = b2 + d 2 = 1 donc

(a − d)2 + (b + c)2 = a2 + c2 + a2 + c2 − 2(ad − bc) = 0

On en déduit a = d et c = − b puis M = R(θ ).


 Par le calcul et en exploitant les formules de développement de cos θ + θ 0 ) et sin θ + θ 0 , on obtient
¡ ¢ ¡ ¢

R (θ ) × R θ 0 = R θ + θ 0 .
¡ ¢ ¡ ¢

En particulier, les matrices de rotation commutent entre elles. En outre

R (θ )−1 = t R (θ ) = R (−θ ) .

2. Comme a2 + b2 = 1, il existe θ ∈ R tel que a = cos θ et b = sin θ .


On a det M = ad − bc = −1 et a2 + c2 = b2 + d 2 = 1 donc

(a + d)2 + (b − c)2 = a2 + c2 + a2 + c2 − 2(ad − bc) = 0


à !
cos θ sin θ
On en déduit a = − d et c = b puis M =
sin θ − cos θ

III.2 Groupe orthogonal d’un espace euclidien

Définition 12

Soit u ∈ L (E ). On dit que u est orthogonal ou une isométrie si ∀ x ∈ E, k u( x)k = k xk.

O (E ) désigne l’ensemble des automorphismes orthogonaux.

Remarque :

I d E ∈ O (E )

Propriété 33

Les seules valeurs propres réelles possibles d’un endomorphisme orthogonal sont −1 et 1. En particulier
tout endomorphisme orthogonal est un isomorphisme

Preuve:
Si λ est une valeur propre réelle de u ∈ O (E) et x ∈ E un vecteur propre associé unitaire, des égalités k u(x) k = k x k et
u(x) = λ x , on déduit alors que |λ| = 1.

Propriété 34: Propriétés caractéristiques

Soit u ∈ L (E ). Les assertions suivantes sont équivalentes :


1. u ∈ O (E ) ;
2. ∀ x, y ∈ E, < u( x), u( y) >=< x, y > ;
3. u transforme toute BON de E en une BON de E ;
4. u transforme au moins une BON de E en une BON de E .
5. Il existe une BON de E telle que Mat ( u) ∈ O n (R)
B

Preuve:
1 ⇒ 2) si l’endomorphisme u conserve la norme, alors d’après l’identité de polarisation, on a :

4 < u(x), u(y) > = k u(x) + u(y)k2 − k u(x) − u(y)k2


= k u(x + y)k2 − k u(x − y)k2
= k x + yk2 − k x − yk2 = 4 < x, y >

2 ⇒ 3) Soit B = e i 1É iÉn une base orthonormale de E, alors pour tout i, j ∈ [[1, n]] :
¡ ¢

< u(e i )| u(e j ) >=< e i | e j >= δ i j


III.3 Automorphismes orthogonaux du plan 21

¡ ¢
Donc u(e i ) 1É iÉn est une famille orthonormale de n éléments, c’est une BON
3 ⇒ 4) Évidente
4) ⇒ 5) Supposons l’endomorphisme u orthogonal. La famille (u(e 1 ), · · · , u(e n )) est orthonormale et c’est donc une base
orthonormée. Puisque
MatB (u) = MatB (u(e 1 ), · · · , u(e n ))
MatB (u) ∈ O n (R) car matrice de passage entre deux bases orthonormales.
5) ⇒ 1) Supposons A = MatB (u) ∈ O n (R).
Soit x un vecteur de E de matrice X dans la base B . Puisque la base B est orthonormale k x k2 = t X X . Puisque la
matrice de u(x) dans B est A X , alors

k u(x) k2 = t (A X )A X = t X t A A X = t X X = k x k2

Ainsi u conserve la norme et donc est une isométrie vectorielle.

Exemple
Une symétrie orthogonale est un automorphisme orthogonal.

Attention
Il est essentiel de vérifier que la base B est orthonormale pour exploiter ce résultat.

Théorème 2

1. Soit u ∈ O (E ), alors Sp ( u) ⊂ {−1, 1}.


En particulier tout endomorphisme orthogonal est un isomorphisme
2. L’ensemble O (E ) des isométries vectorielles de E est un sous-groupe compact de (GL(E ), ◦) appelé
groupe orthogonal de E ;
3. Pour tout u ∈ O (E ), |det( u)| = 1 ;
4. SO (E ) = { u ∈ O (E ) , det( u) = 1} est un sous-groupe compact de (O (E ), ◦) appelé groupe spécial orthogo-
nal de E .
5. Si F un sous-espace vectoriel de E stable par u, alors F ⊥ est stable par u et l’application induite par u
sur F ( resp sur F ⊥ ) est un élément de O (F ) ( resp sur O F ⊥ )
¡ ¢

Preuve:
1. Si λ est une valeur propre réelle de u ∈ O (E) et x ∈ E un vecteur propre associé unitaire. Des égalités k u(x) k = k x k et
u(x) = λ x , on déduit alors que |λ| = 1.
2. Considérons B une base orthonormée de E et
(
M n ( R) −→ L (E)
Φ:
M 7−→ MatB (u)

On a Φ (O n (R)) = O(E) et Φ est continue (linéaire au départ d’un espace de dimension finie) donc O(E) est compact.
Φ est un morphisme de groupe multiplicatif donc O(E) est un sous-groupe de (GL(E), ◦).
3. Soit B une base orthonormale de E, alors u ∈ O(E) si, et seulement si, Mat (u) ∈ O n (R)
B
5. Si F est stable par u, u(F) ⊂ F. Notons u F l’application induite par u sur F ; alors u F ∈ L (F). Comme F ⊂ E, on a :
° °
∀ x ∈ F, ° u F (x) ° = k u(x) k = k x k

Donc u F ∈ O(F).
Soit y ∈ F ⊥ et soit x ∈ F. Comme u F ∈ O(F), il existe x0 ∈ F tel que x = u x0 et
¡ ¢

< x, u(y) >=< u(x0 ), u(y) >=< x0 , y >= 0

Donc F ⊥ est stable par u. Par un raisonnement analogue au précédent appliqué à u et F ⊥ on prouve que u F ⊥ ∈ O F ⊥
¡ ¢

III.3 Automorphismes orthogonaux du plan

E désigne un plan euclidien orienté.


III.3 Automorphismes orthogonaux du plan 22

Propriété 35: Classification de O 2+ (R)

Pour toute matrice M ∈ O 2+ (R) il existe un réel θ unique à 2π près vérifiant


à !
cos θ − sin θ
M = R (θ ) = matrice de rotation d’angle θ
sin θ cos θ

De plus, pour tout θ , θ 0 ∈ R.


1. R (θ ) = R θ 0 ⇐⇒ θ ≡ θ 0 [2π]
¡ ¢

2. R (θ ) × R θ 0 = R θ + θ 0 .
¡ ¢ ¡ ¢

En particulier, les matrices de rotation commutent entre elles.


3. R (θ )−1 = t R (θ ) = R (−θ )

Preuve:
à !
a c
Soit M = ∈ O 2+ (R).
b d
Puisque a2 + c2 = 1, il existe θ ∈ R tel que a = cos θ et b = sin θ .
On a det M = ad − bc = 1 et a2 + c2 = b2 + d 2 = 1 donc (a − d)2 + (b + c)2 = a2 + c2 + a2 + c2 − 2(ad − bc) = 0. On en déduit
a = d et c = − b puis M = R(θ )
1. Car (
cos θ = cos θ 0
⇐⇒ θ ≡ θ 0 [2π]
sin θ = sin θ 0

2. Par le calcul et en exploitant les formules de développement de cos θ + θ 0 ) et sin θ + θ 0 .


¡ ¢ ¡ ¢

3. car R (θ ) ∈ O 2+ (R)

Corollaire 6
O 2 (R), × est un groupe commutatif.
¡ + ¢

Preuve:
Car les matrices de rotation commutent entre elles.

Propriété 36

[Rotation du plan euclidien orienté] La matrice d’un endomorphisme r ∈ O + (E ) est la même dans toute
base orthonormée directe du plan E .
Plus précisément, il existe θ ∈ R, unique à 2π près, tel que matrice de r dans toute base orthonormée directe
du plan E est R (θ )

Preuve:
Soient B et B0 deux bases orthonormées directes de E et P la matrice de passage de B à B0 . Puisque B et B0 sont orthonormée
directe P ∈ O 2+ (R).
Notons A et A 0 les matrices de l’endomorphisme r dans les bases B et B0 . Ces matrices appartiennent à O 2+ (R).
Par la formule de changement de base, A 0 = P −1 AP.
Or A, P ∈ O 2+ (R) et le groupe (O 2+ (R), ×) est commutatif donc A 0 = P −1 P A = A.
Ainsi, la representation de l’endomorphisme r est la même dans toute base orthonormée directe choisie et puisque celle-ci
est une matrice de O 2+ (R), c’est une matrice R(θ ) avec θ déterminé de façon unique à 2π près.

Définition 13

L’automorphisme orthogonal positif représenté par la matrice R (θ ) dans les bases orthonormées directes
du plan E est appelé rotation d’angle θ et noté Rotθ

Exemple
IdE = Rot0 , −IdE = Rotπ .

Propriété 37

Soit θ , θ 0 ∈ R.
1. Rotθ = Rotθ0 ⇐⇒ θ ≡ θ 0 [2π]
III.4 Réduction des endomorphismes orthogonaux 23

2. Rotθ ◦ Rotθ0 = Rotθ+θ0 = Rotθ0 ◦ Rotθ


3. Rotθ −1 = Rot−θ

Preuve:
Il suffit de transposer matriciellement les énoncés.

Corollaire 7
O + (E ) = {Rotθ | θ ∈ R} est un groupe abélien.

Propriété 38: Classification de O 2− (R)

Pour toute matrice M ∈ O 2− (R) il existe un réel θ unique à 2π près vérifiant


à !
cos θ sin θ
M = S (θ ) =
sin θ − cos θ

Elles vérifient S (θ )2 = I 2

Preuve:
à !
a b
Soit M = .
c d
Comme a2 + b2 = 1, il existe θ ∈ R tel que a = cos θ et b = sin θ .
On a det M = ad − bc = −Ã1 et a2 + c2 = b!2 + d 2 = 1 donc (a + d)2 + (b − c)2 = a2 + c2 + a2 + c2 − 2(ad − bc) = 0. On en déduit
cos θ sin θ
a = − d et c = b puis M =
sin θ − cos θ

Propriété 39: Automorphismes orthogonaux négatifs du plan

Soit B = ( i, j ) une base orthonormée de E .


Pour tout automorphisme orthogonal négatif s de E , il existe θ ∈ R tel que
à !
cos θ sin θ
MatB ( s) =
sin θ − cos θ

¶ s correspond
De µplus alors à la réflexion par rapport à la droite vectorielle dirigée par le vecteur u =
θ θ
µ ¶
cos i + sin j.
2 2
Il existe une base B 0 dans laquelle la symétrie est représentée par la matrice
à !
1 0
S (0) =
0 −1

Preuve:
θ θ
µ ¶ µ ¶
Considérons σ la réflexion par rapport à la droite vectorielle engendrée par le vecteur unitaire u = cos i + sin j. Pour
2 2
tout vecteur ¶ a σ(x) µ= 2¶< x,µu >¶ u − x donc
xµ de¶ E, on
θ θ θ
µ
σ(i) = 2 cos 2 − 1 i + 2 cos sin j = cos θ i + sin θ j et
µ ¶2 ³ ´ 2µ ¶ 2¶
θ ϕ θ
µ
σ( j) = 2 cos sin i − 2 sin2 − 1 j = sin θ i − cos θ j.
2 2 2
On en déduit que les applications linéaires σ et s prennent les mêmes valeurs sur i et j et sont donc égales.

III.4 Réduction des endomorphismes orthogonaux

Lemme 1
Soit u ∈ O (E ) et F un sous-espace vectoriel de E stable par u, alors F ⊥ est stable par u

Lemme 2
Soit u ∈ O (E ). Il existe des sous espaces vectoriels de E , P1 , · · · , P r , de dimension égale à 1 ou 2, deux à deux
III.4 Réduction des endomorphismes orthogonaux 24


orthogonaux, stables par u et tels que E = ⊕ P i
1É j É r

Preuve:
On procède par récurrence sur la dimension n = dim E Ê 1.
 Pour n = 1 ou 2, le résultat est évident.
 Supposons le acquis pour tout endomorphisme orthogonal sur un espace vectoriel euclidien de dimension p comprise
entre 1 et n − 1, avec n Ê 3.
Si P1 est un sous espace vectoriel de E non réduit à {0} de dimension au plus égale à 2 stable par u ∈ O (E) alors P1⊥
est stable par u.
Comme 1 É n − 1 É dim P1⊥ É n − 1, on peut trouver des sous espaces vectoriels de E, P2 , · · · , P r , de dimension au plus
2, deux à deux orthogonaux et stables par la restriction de u à P1⊥ , donc par u, tels que P1⊥ = ⊕rj=2 P i . On a alors
E = P1 ⊕ P1⊥ .
à !
a b
Dans le cas ou n = 2, la forme des matrices orthogonales est particulièrement simple : si A = ∈ O 2 (R) , il existe
c d
alors un unique réel θ ∈ [0, 2π[ tel que :
à ! à !
cos θ − sin θ cos θ sin θ
A= ou A=
sin θ cos θ sin θ − cos θ
à !
1 0
et dans le deuxième cas, A est orthogonalement semblable à , ce que l’on peut verifier avec :
0 −1

cos θ2 − sin θ2 θ
sin θ2
 ³ ´ ³ ´ Ã ! ³ ´ ³ ´ Ã !
³ ´  1 0  cos ³2 ´ ³ ´ = cos θ sin θ
sin θ2 cos θ2 −1 − sin θ cos θ2
 ³ ´
0 sin θ − cos θ
2

On peut aussi dire que A est symétrique et orthogonale, donc A 2 = A t A = I n et elle est diagonalisable puisque
à annulée
!
1 0
par X 2 − 1 qui est scinde à racines simples dans R. Comme A 6= ± I 2 , elle est orthogonalement semblable à
0 −1

Théorème 3

Soit u ∈ O (E ) avec n Ê 2. Il existe une base orthonormée B de E dans laquelle la matrice de u s’ecrit :
 
Ip 0 ··· ··· 0
 .. .. 
 0 −I q . . 
 
 .. .. 
 
D= . . .. R ..
 1 . . 

 . . .. 
 . .. . 0
 . 
0 ··· ··· 0 Rr

où pour tout k ∈ [[1, r ]], on a note : Ã !


cos θk − sin θk
Rk =
sin θk cos θk
avec θk ∈ ]0, 2π[ \ {π} et p, q, r sont des entiers naturels tels p + q + 2 r = n (si l’un de ces entiers est nul, les
blocs de matrices correspondants n’existent pas).

Preuve:
On procède par recurrence sur la dimension n Ê 2 de E.
 Pour n = 2, c’est fait avec le lemme précèdent.
 Supposons le résultat acquis pour les endomorphismes orthogonaux sur les espaces euclidiens de dimension p comprise
entre 2 et n − 1 et soit u ∈ O (E) avec n = dim(E) Ê 3.
4 Si u admet 1 ou −1 comme valeur propre, pour tout vecteur propre unitaire e 1 associé à cette valeur propre, le sous
espace vectoriel H = Vect(x)⊥ est stable par u et il existe alors une base orthonormée B1 de H dans laquelle la
matrice de la restriction de u à H est de la forme :
 
Ip 0 ··· ··· 0

 .. .. 
0
 − I q . . 
 . .. .. .. 
 ..
A1 =  . R1 . . 

 
 . .. ..
 .

 . . . 0

0 ··· ··· 0 Rr
III.4 Réduction des endomorphismes orthogonaux 25

à !
±1 0
Dans la base orthonormée { e 1 } ∪ B1 la matrice de u est A = , qui se ramène bien à la forme souhaitée en
0 A1
permutant au besoin e 1 avec l’un des vecteurs de B1 .
4 Si toutes les valeurs propres de u sont complexes non réelles, on a alors une décomposition E = ⊕ri=1 P k où les P k
sont de dimension 2 deux à deux orthogonaux et stables par u. L’etude du cas n = 2 nous dit alors qu’il existe, pour
tout k compris entre 1 et r, une base orthonormée Bk de P k dans laquelle la matrice de u est de la forme :
à !
cos θk − sin θk
Rk =
sin θk cos θk

avec θk ∈ ]0, 2π[ \{π}. En réunissant toutes ces bases, on obtient une base orthonormée de E dans laquelle la matrice
de u est :  
R1 0 ··· 0

.. .. 
.
 
0 R2 . 
A=  
 .. .. .. 
 . . . 0

0 ··· 0 Rr

Remarque :

On a p = dim(Ker( u − I d )) et q = dim(Ker( u + I d )) avec p + q + 2 r = n. De plus u ∈ O + (E ) [resp. u ∈ O − (E )] si,


et seulement, si q est pair [resp. impair].

Corollaire 8
Soit A ∈ O n (R) avec n Ê 2. Il existe une matrice P ∈ O n (R) telle que :
 
Ip 0 ··· ··· 0
 .. .. 
 0 −I q . . 
 
 . .. 
 
t
P AP =  .. .. ..
 . R 1 . . 

 . .. .. 
 . . .
 . 0

0 ··· ··· 0 Rr

Preuve:
A est la matrice dans la base canonique Rn d’un endomorphisme orthogonal u et la matrice de passage P de la base
canonique à une base orthonormée dans laquelle la matrice de u à la forme indiquée est orthogonale, donc telle que
P −1 = t P.

Propriété 40: Isométries positives en dimension 3

Soit E un espace euclidien de dimension 3 et f ∈ O + (E ), alors


1. 1 ∈ Sp ( f ) ;
2. Il existe une base orthonormale directe B = ( u, v, w) dans laquelle la matrice de f est de la forme
 
1 0 0
0 cos θ − sin θ  où θ ∈ [0, 2π]
 

0 sin θ cos θ

f est dite la rotation d’axe dirigé et orienté par u et d’angle θ . On la note Rotu,θ

Preuve:
Soit A la matrice de u dans une BON de E.
1. On a ³ ´
det (A − I 3 ) = det A − t A A = det(I 3 − t A) = − det(A − I 3 )
Donc det(A − I 3 ) = 0, puis 1 ∈ Sp ( f ).
2. On applique le théorème ?? à f ∈ O + (E), avec p + q + 2r = 3 et puisque q est pair, alors on a trois cas possibles p = 3,
(p, q, r) = (1, 2, 0) et (p, q, r) = (1, 0, 1) qui correspondent respectivement aux cas suivants
     
1 0 0 1 0 0 1 0 0
0 1 0 , 0 −1 0  et 0 cos θ − sin θ  où θ ∈ ]0, 2π[ \ {π}
     

0 0 1 0 0 −1 0 sin θ cos θ
III.4 Réduction des endomorphismes orthogonaux 26

Propriété 41

Soit f la rotation d’axe D dirigé et orienté par un vecteur unitaire u et d’angle θ .


1. Pour tout x vecteur de E

f ( x) = cos(θ ).x + (1 − cos(θ )) < x, u > u + sin(θ ).u ∧ x

En particulier si x est orthogonal à u

f ( x) = cos(θ ).x + sin(θ ).u ∧ x

2. Si x est un vecteur unitaire orthogonal à u, on a :

Tr ( f ) − 1
cos(θ ) =< x, f ( x) >= et sin(θ ) = Det( u, x, f ( x))
2

Si x un vecteur non colinéaire avec u, alors sgn (sin θ ) = sgn (Det ( u, x, f ( x)))

Preuve:
1. On commence par le cas où x est orthogonal à u.
 Cas x = 0 : Ok
x u∧i
 Cas x 6= 0 : Posons i = et j = u ∧ i = .
k xk k uk
La famille B = (i, j) est une base orthonormée directe du plan P = D ⊥ .
Pour x ∈ P, f (x) = Rotθ (x) = k xkRotθ (i) = k xk (cos θ .i + sin θ . j) = cos (θ ) .x + sin (θ ) .u ∧ x
Revenons au cas général. Soit x ∈ E et notons p la projection orthogonale sur D et q celle sur D ⊥ . Alors

p(x) =< x, u > u et q(x) = x− < x, u > u

Puisque f (x) = f (p(x) + q(x)) = p(x) + f (q(x)) avec q(x) ∈ D ⊥ , la formule précédente donne

f (x) = p(x) + cos(θ ).q(x) + sin(θ ).u ∧ q(x)

puis
f (x) = cos(θ ).x + (1 − cos(θ )) < x, u > u + sin(θ ).u ∧ x

2. Si x est un vecteur unitaire orthogonal à u, on a :

< x, f (x) >= cos(θ ) k x k2 + sin(θ ) < x, u ∧ x >= cos(θ )

Det (u, x, f (x)) =< u ∧ x, f (x) >= cos(θ ) < u ∧ x, x > + sin(θ ) k u ∧ x k2 = sin(θ )

Exemple
Soient B = ( i, j, k) une base orthonormée directe de E et f la rotation d’axe D dirigé et orienté par u =
1 π
p ( i + j − k) et d’angle θ = .
3 3
Formons la matrice de f dans la base B.

¡π¢ ¡π¢ p
1 3
On a cos 3 = 2 et sin cos 3 = 2 , donc par la formule

∀ x ∈ E, f ( x) = cos θ .x + (1 − cos θ ) < x, u > u + sin θ .u ∧ x

on obtient
1 1 1
f ( x) = x + < x, i + j − k > .( i + j − k) + .( i + j − k) ∧ x
2 6 2
On en déduit 
 f ( i)

 = 32 i − 13 j − 32 k
f ( j) = 23 i + 23 j + 31 k

f ( k) = 13 i − 23 j + 32 k

puis, la matrice  
2 2 1
1
Mat ( f ) = −1 2 −2

B 3
−2 1 2
Endomorphismes symétriques 27

Exemple
Soit f l’endomorphisme de E dont la matrice dans une base orthonormée directe B = ( i, j, k) est la matrice
A suivante :  
0 0 1
A = 1 0 0
 

0 1 0
Montrer que f est une rotation et déterminer ses éléments caractéristiques

Les colonnes de A sont unitaires et deux à deux orthogonales donc A ∈ O3 (R) puis f ∈ O (E ).
Soit u = xi + y j + zk ∈ E . Après résolution

f ( u) = u ⇐⇒ x = y = z
p
3
L’ensemble des vecteurs invariants par f est une droite dirigée par le vecteur u = ( i + j + k), on en
3
déduit que f est une rotation autour de la droite D .
Orientons la droite D par le vecteur u et déterminons l’angle θ de cette rotation. Puisque Tr ( A ) = 1 + 2 cos θ
1
et Tr ( A ) = 0, on obtient cos θ = − .
2
Déterminons le signe de det u, i, f ( i )
¯ ¯
p ¯¯1 1 0¯¯ p
3¯ 3
Det ( u, i, f ( i )) = ¯1 0 1¯ =
¯
3 ¯¯ ¯ 3
1 0 0¯


On en déduit sin θ > 0 puis θ ≡ [2π].
3 p
3 2π
Finalement f est la rotation d’axe dirigé et orienté par u = ( i + j + k) et d’angle
3 3

IV Endomorphismes symétriques

E un préhilbertien réel.

IV.1 Endomorphisme symétrique

Définition 14

Soit u ∈ L (E ).
On dit que u est symétrique si ∀ x, y ∈ E, < u( x), y >=< x, u( y) >

Exemple
Les projecteurs orthogonaux sont des endomorphismes symétriques.

Notation :
S (E ) désigne l’ensemble des endomorphismes symétriques de E

Propriété 42

Soit u ∈ S (E ) et F un sous-espace vectoriel de E stable par f . Alors F ⊥ est aussi stable par u

Preuve:
Soit y ∈ F ⊥ , alors pour x ∈ F, on a u(x) ∈ F et outre

< x, u(y) >=< u(x), y >= 0

Ceci vrai pour tout x ∈ F, donc u(y) ∈ F ⊥


IV.2 Cas euclidien 28

IV.2 Cas euclidien

Propriété 43

Soit E un espace euclidien et u ∈ L (E ) un endomorphisme symétrique, alors

Im ( u) = (Ker u)⊥

Preuve:
Soit x ∈ Keru et y ∈ Imu. On peut écrire y = u(a) avec a ∈ E et alors

< x, y >=< x, u(a) >=< u(x), a >=< 0, a >= 0

Ainsi, les espaces Imu et Keru sont orthogonaux et donc Imu ⊂ (Keru)⊥ puis l’égalité par les dimensions.

Propriété 44

[Caractérisation des symétriques] Soit E un espace euclidien, B une BON de E et u ∈ L (E ). Alors

u ∈ S (E ) ⇐⇒ Mat ( u) ∈ S n (R)
B

Preuve:
¡ ¢
⇒ Supposons u symétrique et étudions A = a i, j 1É i, j Én = Mat (u).
B
On a a i, j =< e i , u(e j ) > et donc par symétrie

a i, j =< e i , u(e j ) >=< u(e i ), e j >= a j,i

La matrice A est donc symétrique


¡ ¢
⇐ Si la matrice A = a i, j 1É i, j Én = Mat (u) est symétrique.
B
Soit x, y ∈ E de colonnes coordonnées X et Y dans la base orthonormée B , on a

< u(x), y >= t (A X )Y = t X t AY

et
< x, u(y) >= t X AY
Or t A = A, donc < u(x), y >=< x, u(y) >

Attention
Il est essentiel de vérifier que la base B est orthonormale pour exploiter ce résultat.

Propriété 45

[Caractérisation des endomorphismes involutifs, idempotents] Soit E un espace euclidien et u ∈ L (E ).


1. u est un projecteur orthogonal si, et seulement, si u est symétrique et u2 = u ;
2. u est un symétrie orthogonale si, et seulement, si u est symétrique et u2 = idE .

Preuve:
1. ⇒) u est un projecteur, donc u2 = u.
Le projecteur u est orthogonal donc ∀ x, y ∈ E,

< x − u(x), u(y) >=< x, y − u(y) >= 0

donc
< x, u(y) >=< u(x), u(y) >=< u(x), y >
d’où u est symétrique.
⇐) On a u2 = u donc u est un projecteur et puisque u est symétrique donc Keru = (Imp)⊥ d’où le projecteur u est
orthogonal.
2. ⇒) On a u est une symétrie donc u2 = idE .
La symétrie u est orthogonale donc u ∈ O(E).
⇐) On a u2 = idE donc u est une symétrie.
Soient x ∈ Ker(u − id) et y ∈ Ker(u + id), on a

< x, y >=< u(x), y >=< x, u(y) >= − < x, y >

donc < x, y >= 0 d’où Ker(u − id) ⊥ Ker(u + id) d’où la symétrie u est orthogonale.
IV.3 Théorème spectral 29

IV.3 Théorème spectral

Propriété 46

Soit u ∈ S (E ). Alors u admet une valeurs propre réelle

Preuve:
Soit B une base orthonormée de E et A = Mat (u). On a u ∈ S(E) donc A est symétrique.
B
Soit λ ∈ S p C (u) donc λ ∈ S p C (A) et par suite ∃ X ∈ Mn1 (C) \ {0}, A X = λ X . On a A X = λ X donc λ X = A X = A X = A X car
A = A puisque A ∈ Mn (R). On a t X A X = λt X X = λk X k2 ett X A X = t (t A X )X = t (A X )X = λt X X = λk X k2 donc λk X k2 =
λk X k2 . Or X 6= 0 donc λ = λ d’où λ ∈ R.

Propriété 47

Soit u ∈ S (E ) et λ, µ ∈ Sp ( u) avec λ 6= µ, alors E λ ( u) et E µ ( u) sont orthogonaux.


En particulier, les espaces propres de u sont en somme directe orthogonale.

Preuve:
Soient λ, µ ∈ S p(u) tels que λ 6= µ, x ∈ E λ (u) et y ∈ E µ (u).
On a
< u(x), y >=< λ x, y >= λ < x, y >
et
< x, u(y) >=< x, µ y >= µ < x, y >
donc (λ − µ) < x, y >= 0. Or λ 6= µ donc < x, y >= 0 et par suite E λ (u) ⊥ E µ (u).

Théorème 4

Spectral Tout endomorphisme symétrique d’un espace euclidien E est diagonalisable dans une base ortho-
normale.

Preuve:

Soit u ∈ S(E), on pose F = ⊕ E λ (u).
λ∈Sp( u)
Le sous-espace vectoriel F est stable par u donc F ⊥ aussi.
Par l’absurde, supposons F ⊥ 6= {0E }. L’endomorphisme induit par u sur F ⊥ est symétrique, il possède donc au moins un
vecteur propre. Or celui-ci est aussi vecteur propre de u et donc élément de F. C’est absurde car F ∩ F ⊥ = {0E }. Ainsi, E est
la somme directe des sous-espaces propres de u et puisque ceux-ci sont deux à deux orthogonaux, on peut former une base
orthonormale adaptée à cette décomposition, base qui diagonalise u.

Théorème 5

[spectral :Version matricielle] Soit A ∈ S n (R), il existe P ∈ O n (R) telle que P −1 AP = t P AP soit diagonale.

Preuve:
Soit A ∈ S n (R).
Munissons E = Rn du produit scalaire canonique et considérons u l’endomorphisme de Rn représenté par A dans la base
canonique.
Puisque A est symétrique et B orthonormée, l’endomorphisme u est symétrique. Il existe donc une base orthonormée B 0
diagonalisant u. Par changement de base, on a alors A = PDP −1 avec D diagonale et P orthogonale car c’est une matrice
de passage entre deux bases orthonormées.

Corollaire 9
Pour A ∈ M n (R), t A A est diagonalisable

Preuve:
t A A est symétrique réelle.

Remarque :
à !
1 i
Le résultat est faux pour les matrices symétriques non réelles. En effet, la matrice A = n’est pas
i −1
diagonalisable car elle est non nulle et nilpotente ( A 2 = 0) et la seule matrice nilpotente diagonalisable est
la matrice nulle.
IV.4 Extrémum sur la sphère 30

IV.4 Extrémum sur la sphère

Propriété 48: Extrémum sur la sphère

Soit u un endomorphisme symétrique. Posons λmin = min Sp ( u) et λmax = max Sp ( u) . Alors


¡ ¢ ¡ ¢

∀ x ∈ E, λmin k x k2 É< u( x), x >É λmax k x k2

En particulier x 7−→< u( x), x > est bornée sur la sphère unité et atteint ses bornes et

min (< u( x), x >) = λmin et max (< u( x), x >) = λmax
k x k=1 k x k=1

Preuve:
Soit B = (e 1 , · · · , e n ) une base orthonormale diagonalisant u et λ1 , · · · , λn ∈ R les valeurs propres de u avec u(e i ) = λ i e i .
n
X n
X
Pour x ∈ E, on peut écrire x = x i e i et on a alors u(x) = λi xi e i .
i =1 i =1
Puisque la base B est orthonormale,
n n
k x k2 = x2i λ i x2i
X X
et < u(x), x >=
i =1 i =1

Or, pour tout 1 É i É n, on a λmin É λ i É λmax , donc

λmin k x k2 É< u(x), x >É λmax k x k2

Corollaire 10 (Extrémum sur la sphère)


Soit A ∈ S n (R) une matrice symétrique. Posons λmin = min Sp ( A ) et λmax = max Sp ( A ) . Alors
¡ ¢ ¡ ¢

∀ X ∈ Mn,1 (R) , λmin k X k2 É t XAX É λmax k X k2

En particulier X 7−→ t X A X est bornée sur la sphère unité et atteint ses bornes et
¡t ¡t
X A X = λmin X A X = λmax
¢ ¢
min et max
k X k=1 k X k=1

V Formes linéaires d’un espace euclidien

E un espace euclidien de dimension n ∈ N∗ .

V.1 Formes linéaires d’un espace euclidien

Notation :
Soit a ∈ E on considère la forme linéaire f a définie par f a : x 7−→< x, a >

Propriété 49

L’application f : E −→ E ∗ , a 7−→ f a est un isomorphisme d’espaces vectoriels appelé l’isomorphisme cano-


nique de E sur E ∗ .

Preuve:
 f est linéaire ;
 f est injective car < x, a >= 0, pour tout x ∈ E, donne a = 0 ;
 la conclusion résulte donc de dim E = dim E ∗

Corollaire 11
En particulier, ∀ϕ ∈ E ∗ , ∃!a ∈ E, ∀ x ∈ E, ϕ( x) =< a, x >.

Attention
Le résultat est faux si E est un espace préhilbertien de dimension infinie.
V.2 Adjoint d’un endomorphisme 31

V.2 Adjoint d’un endomorphisme

Propriété 50

Soit u ∈ L (E ) alors il existe un unique v ∈ L (E ) tel que

∀ x, y ∈ E, < u( x), y >=< x, v( y) >

v s’appelle l’adjoint de u et on le note u∗ .

Preuve:

Existence: Soit y ∈ E, l’application x 7−→< u(x), y > est une forme linéaire sur E. Donc, il existe un unique z ∈ E tel que

∀ x ∈ E, < u(x), y >=< x, z > .

On définit l’application de E dans E par v(y) = z


Linéarité de v : Soit x, y ∈ E et λ ∈ R. Pour tout z ∈ E et par linéarité du produit scalaire, on obtient :

< v(λ x + y) − λv(x) − v(y), z >=< v(λ x + y), z > −λ < v(x), z > − < v(y), z >

Il s’ensuit par définition de v et par linéarité du produit scalaire :

< v(λ x + y) − λv(x) − v(y), z > = < λ x + y), u(z) > −λ < x, u(z) > − < y, u(z) >
= < 0, u(z) >= 0

Le vecteur v(λ x + y) − λv(x) − v(y) appartient à E ⊥ = {0}, donc

v(λ x + y) − λv(x) − v(y) = 0

Ce qui montre que v est linéaire


Unicité: Si w une application de E dans E telle que

∀(x, y) ∈ E 2 , < u(x), y >=< x, w(y) > .

Pour (x, y) ∈ E 2 , on a < x, v(y) >=< x, w(y) >, soit < x, v(y) − w(y) >= 0, d’où v(y) = w(y) pour tout y ∈ E et v = w

Exemple
Id∗E = IdE

Exemple
Soit a, b ∈ E et u : x 7−→< a, x > b. Déterminons u∗ .

Soit x, y ∈ E , on a

< u( x), y > = << x, a > b, y >


= < x, a > . < b, y >
= < x, << b, y >, a >>

Donc u∗ : x 7−→< b, x > a

Exemple

Soit E = M n (R), muni du produit scalaire < A |B >= Tr t AB .


¡ ¢

Soit A ∈ E , posons u : X ∈ E 7−→ A X . Trouvons u∗ .

Soit X , Y ∈ Mn (R), on a

< u ( X ), Y > = < AX,Y >


Tr t ( A X )Y
¡ ¢
=
Tr t X t AY
¡ ¢
=
= < X , t AY >
V.2 Adjoint d’un endomorphisme 32

Donc

Propriété 51

Soient u, v ∈ L (E ) et α ∈ R. Alors :
1. (α u + v)∗ = α u∗ + v∗ ;
2. ( u∗ )∗ = u ;
3. u 7→ u∗ est un automorphisme d’espaces vectoriels sur L (E ).
4. ( u ◦ v)∗ = v∗ ◦ u∗ ;
¡ ¢∗
5. Pour tout k ∈ N, u k = ( u∗ )k ;
6. Pour tout P ∈ R[ X ], on a P ( u∗ ) = (P ( u))∗ ;
7. si u ∈ GL(E ), alors u∗ ∈ GL(E ) et ( u∗ )−1 = ( u−1 )∗ .

Preuve:

1. Soit x, y ∈ E. Par définition de l’adjoint, on a :

< (α u + v)∗ (x), y > = < x| (α u + v) (y) >=< x, α u(y) + v(y) >
= α < x, u(y) > + < x|v(y) >
= α < u∗ (x), y > + < v∗ (x)| y >
< α u∗ (x) + v∗ (x), y >=< α u∗ + v∗ (x), y >
¡ ¢
=

Donc
(α u + v)∗ (x) = α u∗ + v∗ (x)
¡ ¢
∀ x ∈ E,
Puis (α u + v)∗ = α u∗ + v∗
¡ ¢∗ ¡ ¢∗
2. La proposition ∀(x, y) ∈ E 2 , < u∗ (x), y >=< x| u∗ (y) >=< x, u(y) > donne u∗ = u.
3. T : u 7→ u∗ est un endomorphisme d’espaces vectoriels sur L (E) tel que T 2 = IdL (E ) , donc c’est un automorphisme de
L (E)
4. Soit x, y ∈ E. Par définition de l’adjoint, on a :

< (u ◦ v) (x), y > = < u (v(x)) , y >=< v(x), u∗ (y) >


< x, v∗ u∗ (y) >=< x, v∗ ◦ u∗ (y) >
¡ ¢ ¡ ¢
=

Donc l’égalité (u ◦ v)∗ = v∗ ◦ u∗


5. Par récurrence sur k
6. D’après l’assertion précédente.
7. On a
−1 ∗
³ ´ ³ ´∗
IdE = Id∗
E = u◦u = u−1 ◦ u∗ ,
¡ ¢−1 ¡ −1 ¢∗
donc u∗ est un automorphisme et u∗ = u

Propriété 52

Soit B une base orthonormale de E , u ∈ L (E ) et A = Mat ( u). Alors


B
1. Mat ( u∗ ) = t A ;
B
2. rg ( u∗ ) = rg ( u) ;
3. tr ( u∗ ) = tr ( u) ;
4. det u∗ = det u ;
5. χu∗ = χu et πu∗ = πu .

Preuve:
Soit B = e i 1É iÉn une BON de E
¡ ¢

1. Soit i, j ∈ [[1, n]]2 , on a


< e i , u(e j ) >=< u∗ (e i ), e j >=< e j , u∗ (e i ) >
D’où la conclusion car Mat (u) = < e i , u(e j ) > 1É i, jÉn pour u ∈ L (E)
¡ ¢
B
2. rg (A) = rg t A .
¡ ¢
V.2 Adjoint d’un endomorphisme 33

3. Tr (A) = Tr t A
¡ ¢

4. det (A) = det t A


¡ ¢

5. χ A = χt A et π A = πt A

Vous aimerez peut-être aussi