Xch4 Long

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 32

CHAPITRE 4

Espaces euclidiens et hermitiens

4.1 Espaces préhilbertiens réels


Dans toute cette section le corps de base est R.

4.1.1 Formes bilinéaires symétriques

On a défini au 8.5.2. dans les révisions du cours de première année la notion


d’application p-linéaire. On note S(E) l’ensemble des formes bilinéaires symétriques
de E.

Proposition 4.1.1. S(E) est un espace vectoriel.

Dém : L’application nulle : O : (x, y) ∈ E 2 7→ 0 est symétrique donc S(E) est non
vide.
Si B et B ′ sont deux éléments de S(E) alors λB + µB ′ est bien une application
bilinéaire symétrique (la linéarité par rapport à une variable se démontre comme
pour les applications linéaires et la symétrie est évidente). S(E) est donc stable par
combinaison linéaire, c’est par conséquent un sous-espace vectoriel de l’ensemble des
applications bilinéaires de E 2 dans R 

Définition 4.1.1. Forme quadratique


Si B ∈ S(E), on lui associe l’application Q : x ∈ E 7→ Q(x) = B(x, x). Q est
appelée forme quadratique associée à B.

Proposition 4.1.2. Identité de polarisation, forme polaire


Si B ∈ S(E) et si Q est sa forme quadratique associée alors

4B(x, y) = Q(x + y) − Q(x − y).

B est appelée forme polaire associée.

Dém : Q(x + εy) = B(x + εy, x + εy) = B(x, x) + εB(y, x) + εB(x, y) + B(y, y) (où
ε = ±1) donc Q(x + εy) = B(x, x) + B(y, y) + 2εB(x, y) par symétrie de B. On
obtient alors la relation donnée en retranchant Q(x − y) à Q(x + y) 

Remarque 4.1.1. On a aussi 2B(x, y) = Q(x + y) − Q(x) − Q(y).

223
224 CHAPITRE 4. ESPACES EUCLIDIENS ET HERMITIENS

Définition 4.1.2. Forme quadratique positive, forme bilinéaire positive


On dit que Q associée à B est positive ssidéf Q(x) > 0 pour tout x de E (et aussi
que B est positive).
On retrouve ici l’inégalité de Cauchy-Schwarz qui est en fait valable pour toutes les
formes positives :
Proposition 4.1.3. Si B ∈ S(E) est positive alors (B(x, y))2 6 Q(x)Q(y).
Dém : On étudie le trinôme ϕ(λ) = Q(x + λy) comme dans le cas des espaces
euclidiens :
• Par hypothèse, ϕ(λ) > 0.
• En développant on a aussi ϕ(λ) = Q(x) + 2λB(x, y) + λ2 Q(y).
• Si Q(y) = 0 alors B(x, y) = 0 sinon, en choisissant par exemple B(x, y) > 0,
ϕ(λ) → −∞ quand λ → −∞ ce qui est contraire à l’hypothèse.
• Si Q(y) 6= 0 alors le trinôme du second degré en λ : Q(x) + 2λB(x, y) + λ2Q(y)
est toujours positif donc soit il n’admet pas de racine réelle soit il admet une
racine double et dans ce cas sont discriminant ∆ = 4B(x, y)2 − 4Q(x)Q(y) est
6 0.
Dans tous les cas, on a bien B(x, y)2 6 Q(x)Q(y) 
Remarque 4.1.2. Si B est définie positive alors l’égalité dans l’inégalité de Cauchy-
Schwarz n’a lieu que si x et y sont colinéaires.
Dém : On a en fait une équivalence, si x et y sont colinéaires alors on a égalité car,
si par exemple y = λx, B(x, y)2 = λ2 Q(x)2 = Q(x).λ2 Q(x) = Q(x)Q(y) mais cette
implication n’est pas très utile.
Réciproquement : si B(x, y)2 = Q(x)Q(y) alors
• dans le cas où Q(y) 6= 0, le trinôme sur second degré mis en évidence à la
question précédente admet une racine double λ0 . On a donc ϕ(λ0 ) = Q(x +
λ0 y) = 0 d’où x + λ0 y = 0 ce qui prouve que x et y sont colinéaires.
• Si Q(y) = 0 alors y = 0 et la même conclusion persiste 

Définition 4.1.3. Matrice associée à une forme bilinéaire symétrique


Soit (e1 , . . . , en ) une base de E. On appelle matrice de B forme bilinéaire symétrique
définie sur E la matrice M(B) = (B(ei , ej )). Cette matrice est aussi la matrice de
la forme quadratique associée.
• Expression analytique. Si M = M(B) alors
n
! n
X X
B(x, y) = B xi ei , y = xi B(ei , y)
i=1 i=1
n n
!
X X
= xi B ei , yj ej
i=1 j=1
X
= xi yj B(ei , ej ) = X T MY = Y T MX
i,j
4.1. ESPACES PRÉHILBERTIENS RÉELS 225

où X et Y sont les matrices de x et y dans la base des (ei ).


Pour la forme quadratique, on pourra écrire :
X X X
Q(x) = xi xj B(ei , ej ) + xi xj B(ei , ej ) + xi xj B(ei , ej )
i=j i<j j<i

on utilise alors B(ei , ej ) = B(ej , ei ) et on échange i et j dans la dernière somme

n
X X
Q(x) = x2i B(ei , ei ) + 2 B(ei , ej )xi xj = X T MX.
i=1 16i<j6n

Remarque 4.1.3. On passe de la forme quadratique à la forme polaire associée par


1
dédoublement des termes : x2i → xi yi et xi xj → (xi yj + xj yi ).
2
Dém : C’est immédiat et surtout cela se généralise au cas des formes linéaires : si
Q(x) = f (x)g(x) où f et g sont des formes linéaires, Q est une forme quadratique
1
et sa forme polaire est B(x, y) = [f (x)g(y) + f (y)g(x)] 
2
Questions :
(i) Soit M ∈ Mn (R), on définit Q(M) = Tr(M T M) + Tr(M)2 . Montrer que Q
est une forme quadratique.
(ii) Soit Q une forme quadratique positive et x un vecteur isotrope (i.e. Q(x) = 0).
Montrer que ∀y ∈ E, B(x, y) = 0.
(iii) Par quoi est remplacé la proposition 4.1.3 si Q 6 0 ?
1P n ∂Q 1P n ∂Q
(iv) Montrer que B(x, y) = (x).yi = (y).xi .
2 i=1 ∂xi 2 i=1 ∂yi

4.1.2 Produit scalaire

On renvoie au début du chapitre 9 des révisions de première année sur les espaces
euclidiens pour la définition du produit scalaire, pour les inégalités de Cauchy-
Schwarz, triangulaire (pour la norme euclidienne) et pour les relations entre produit
scalaire et norme notamment l’identité du parallélogramme ainsi que l’identité de
polarisation qui n’est en fait que la réédition de la proposition 4.1.2 ci-dessus.
Définition 4.1.4. Espaces préhilbertiens réels
Soit E un espace vectoriel sur R, on dit que E est préhilbertien ssidéf il est muni
d’un produit scalaire.
Exemples :
+∞
P
(i) Si E = {(un ) ∈ RN | u2n < +∞} alors on définit sur E une structure
n=0
d’espace préhilbertien avec le produit scalaire suivant
+∞
X
(u|v) = un vn .
n=1
226 CHAPITRE 4. ESPACES EUCLIDIENS ET HERMITIENS

Cet exemple fait référence à la notion de série que l’on verra en analyse au
chapitre 5.
(ii) Si E = C([a, b]), on peut en particulier définir le produit scalaire suivant :
Z
f (t)g(t) dt
(f |g) = p .
]a,b[ (t − a)(b − t)
Cet exemple fait référence à la notion d’intégrale sur un intervalle quelconque
que l’on verra en analyse au chapitre 6.

4.1.3 Orthogonalité

On peut là aussi reprendre le cours de première année et étendre les définitions des
vecteurs orthogonaux, de sous-espaces vectoriels orthogonaux et de l’orthogonal F ⊥
d’un sous-espace vectoriel dans le cas d’un espace vectoriel préhilbertien.
Définition 4.1.5. Famille orthogonale, famille orthonormale
Soit I une famille quelconque d’indice.
• On dit que la famille (ei )i∈I est orthogonale ssidéf (ei |ej ) = 0 pour i 6= j.
• On dit que la famille (ei )i∈I est orthonormale ssidéf (ei |ej ) = δij .

Théorème 4.1. Relation de Pythagore


Si (ei )i∈[[1,p]] est une famille orthogonale alors

ke1 + · · · + ep k2 = ke1 k2 + · · · + kep k2 .

Dém : On fait une récurrence sur p :


• p = 2 : ke1 + e2 k2 = ke1 k2 + 2(e1 |e2 ) + ke2 k2 (en utilisant le développement de
la norme associée au produit scalaire).
• On suppose la propriété vraie à l’ordre p, à l’ordre p + 1 on écrit
ke1 + · · · + ep−1 + ep + ep+1 k2 = ke1 k2 + · · · + kep−1 k2 + kep + ep+1 k2
| {z }
=e′p

en utilisant la propriété de récurrence

= ke1 k2 + · · · + kep−1 k2 + kep k2 + kep+1k2


avec la propriété à l’ordre 2, ce qui achève la récurrence 

Exemple : Si E = C2π ensemble des fonctions continues 2π-périodiques à valeurs


réelles, la famille (cn )n∈N où les cn sont définis par
Z 2πcn (x) = cos(nx) est une famille
1
orthogonale pour le produit scalaire (f |g) = f (t)g(t) dt.
2π 0
La relation de Pythagore nous donne
Z 2π
1 1 2 
(a0 + a1 cos x + · · · + an cos nx)2 dx = a20 + a1 + · · · + a2n .
2π 0 2
4.1. ESPACES PRÉHILBERTIENS RÉELS 227

Définition 4.1.6. Somme directe orthogonale


Si (Ei )i∈[[1,p]] est une famille finie de sous-espaces vectoriels en somme directe, on dit
que cette famille est en somme directe orthogonale ssidéf les (Ei ) sont deux à deux
orthogonaux.

Remarque 4.1.4.

(i) Si les (Ei ) sont en somme directe orthogonale alors chaque espace Ei est ortho-
gonal à la somme des autres.
M P
Dém : Soit xi ∈ Ei et y ∈ Ej alors y = yj où yj ∈ Ej . On a alors
j6=i j6=i

X
(xi |y) = (xi |yj ) = 0
j6=i

M
donc, comme ceci est réalisé pour tout élément xi ∈ Ei et tout y ∈ Ej , on
j6=i
M
a bien Ei ⊥ Ej 
j6=i

(ii) Pour qu’une somme de sous-espaces vectoriels soit en somme directe orthogo-
nale, il suffit qu’ils soient orthogonaux deux à deux.
p
P
Dém : Soit F = Ei , montrons que les Ei sont en somme directe :
i=1
p
P
si 0 = xi alors on prend le produit scalaire par xj , ceci donne
i=1

(0|xj ) = 0
p
X
= (xi |xj ) = (xj |xj )
i=1

car (xi |xj ) = 0 si i 6= j. On en déduit que xj = 0 pour tout j ce qui prouve que
la somme est directe. Comme elle est orthogonale par définition, cette somme
est bien directe orthogonale 

(iii) Si E est somme directe orthogonale des espaces (Ei )i∈[[1,p]] , on associera les
projecteurs orthogonaux sur chaque Ei orthogonalement à la somme des autres.

Questions :

(i) Montrer qu’une famille orthonormale est une famille libre.

(ii) Prouver le (i) et le (ii) de la remarque ci-dessus


(déjà fait dans cette version).
228 CHAPITRE 4. ESPACES EUCLIDIENS ET HERMITIENS

4.2 Espaces euclidiens


4.2.1 Bases orthonormales

On rappelle ici qu’on a déjà vu la définition d’un espace vectoriel euclidien E,


l’existence de bases orthonormales de E, l’isomorphisme canonique entre E et son
dual E ∗ ainsi que les expressions dans une base orthonormale des coordonnées d’un
vecteur, de la norme d’un vecteur, du produit scalaire de deux vecteurs, de la dis-
tance de deux points. Enfin, on sait que la donnée d’une base orthonormale de E
de dimension n détermine un isomorphisme de Rn sur E.

Proposition 4.2.1. Si (ei )i∈[[1,n]] est une base orthonormale de E et si u ∈ L(E)


n
P
alors Tr(u) = (ei |u(ei)).
i=1

Dém : Si A = (aij ) est la matrice de u dans la base de (ei ) alors on sait que
n
P n
P n
P
Tr(u) = Tr(a) = aii . Or u(ej ) = aij ei donc (ej |u(ej )) = aij (ej |ei ) = ajj .
i=1 i=1 i=1
Cette dernière égalité fournit alors directement le résultat 

Remarque 4.2.1. La donnée d’une base (ei ) de E espace de dimension n permet


de définir une structure d’espace euclidien sur E en déclarant (ei ) orthonormale.
n
P
Dém : En effet, on définit la forme bilinéaire B par B(x, y) = xi yi où les (xi ) et
i=1
(yi ) sont les coordonnées de x et y dans la base (ei ). On vérifie alors de manière
élémentaire que B est définie positive et que, par conséquent B est un produit
scalaire 
Question :
Montrer que toute matrice R-trigonalisable est trigonalisable dans une base ortho-
normée.

4.2.2 Projections orthogonales

Retour à la dimension quelconque. Ici, E sera un espace préhilbertien réel.

Proposition 4.2.2. Projection orthogonale


Si F est un sous-espace de dimension finie n de E, alors, pour tout vecteur x de E,
il existe un seul vecteur de F (noté pF (x)) tel que x − pF (x) ⊥ F .
pF est une application linéaire de E dans F appelée projection orthogonale de
E sur F .
Si (ei )i∈[[1,n]] est une base orthonormale de F alors (comme dans les révisions)
n
X
pF (x) = (ei |x)ei .
i=1

Dém : Il y a plusieurs propriétés à démontrer mais tout vient de la dernière formule.


Pn
Soit y = (ei |x)ei alors y ∈ F .
i=1
4.2. ESPACES EUCLIDIENS 229

n
P
• On a (ej |x − y) = (ej |x) − (ej |y) = 0 car (ej |y) = (ei |x).(ej |ei ) = (ej |x) (la
i=1
base des (ei ) est orthonormale). Par linéarité, on en déduit que x − y ⊥ F .

• Si z ∈ F vérifie x − z ⊥ F alors on a (ej |x − z) = 0 soit (ej |x) = (ej |z) d’où


(ej |y − z) = 0 pour tout j ∈ [[1, n]]. y − z ∈ F et y − z ⊥ F donc y − z = 0
(y − z est orthogonal à lui-même et le seul vecteur orthogonal à lui-même est
le vecteur nul). On en déduit l’unicité donc on peut définir x 7→ y = pF (x).

• Grâce à la linéarité du produit scalaire, on peut affirmer que pF est linéaire.


On a ainsi prouvé toutes les affirmations 
On peut visualiser la projection orthogonale sur un sous-espace vectoriel F par le
dessin suivant
x

O pF (x)

Théorème 4.2. Si F est un sous-espace vectoriel de dimension finie d’un espace


vectoriel E préhilbertien alors F ⊥ est un supplémentaire orthogonal de F .
On a en outre codim F ⊥ = dim F et F ⊥⊥ = F .
Dém : Trois propriétés à prouver ici.
• On vient de voir, avec le théorème précédent, que x − pF (x) ⊥ F donc avec
l’égalité x = (x − pF (x)) + pF (x) ∈ F ⊥ + F on en déduit que E ⊂ F ⊥ + F .
L’inclusion dans l’autre sens étant immédiate, on a E = F ⊥ + F . On a vu
aussi que F ∩ F ⊥ = {0} donc la somme est directe E = F ⊥ ⊕ F . Ceci signifie
que F ⊥ est un supplémentaire orthogonal de F (ce qui n’est pas vrai dans tous
les cas, cf. remarque suivante).

• La deuxième propriété est une conséquence immédiate de la somme directe.

• Montrons la dernière égalité par double inclusion :

– F ⊂ F ⊥⊥ : en effet, si x ∈ F alors ∀y ∈ F ⊥ , (x|y) = 0 donc x ⊥ F ⊥ ce


qui veut dire que x ∈ F ⊥⊥ .
– Si x ∈ F ⊥⊥ alors, comme on vient de voir que F ⊂ F ⊥⊥ , on en déduit que
pF (x) ∈ F ⊂ F ⊥⊥ d’où x − pF (x) ∈ F ⊥⊥ 1 . On sait aussi que x − pF (x) ∈
F ⊥ (propriété vraie pour tout vecteur) donc x−pF (x) ∈ F ⊥⊥ ∩F ⊥ = {0}
par conséquent F ⊥⊥ ⊂ F .

Conclusion : on a prouvé que F = F ⊥⊥ 


1
Ne pas oublier que F est un sous-espace vectoriel
230 CHAPITRE 4. ESPACES EUCLIDIENS ET HERMITIENS

Remarque 4.2.2. Attention, ces résultats ne marchent que si F est de dimension


finie. Si on prend par exemple R[X] tel que la base canonique soit une base ortho-
Pn n
P
normale et F = {P = ak X k | ak = 0} alors F ⊥ = {0}.
k=0 k=0
n
P
Dém : si P ∈ F ⊥ , P = a0 +· · ·+an X n , on définit Q = P −an+1 X n+1 où an+1 = ai .
i=0
Q ∈ F car la somme de ses coefficients est nulle donc
n
X
(P |Q) = a2i
i=0
= 0.
On en déduit que ∀i ∈ [[0, n]], ai = 0 i.e. P = 0 donc F ⊥ = {0} 
On retrouve les résultats de la dimension finie :
Définition 4.2.1. Distance à un sous-ensemble
Si F est un sous-ensemble de E, on pose d(x, F ) = inf kx − yk.
y∈F

Proposition 4.2.3. Si F est un sous-espace vectoriel de dimension finie de E alors


d(x, F ) = kx − pF (x)k et ce minimum est atteint en un seul point.
On a de plus kxk2 = kpF (x)k2 + d(x, F )2 .
Dém : Soit y ∈ F alors comme x − pF (x) ⊥ F , en utilisant Pythagore, on a
kx − yk2 = k(x − pF (x)) + (pF (x) − y)k2
= kx − pF (x)k2 + kpF (x) − yk2
donc kx − yk > kx − pF (x)k pour tout y ∈ F avec inégalité stricte si y 6= pF (x). On
en déduit trois choses
• d(x, F ) = inf kx − yk > kx − pF (x)k,
y∈F

• d(x, F ) > kx − pF (x)k car pF (x) ∈ F ,


• kx − yk = kx − pF (x)k ssi y = pF (x)
donc d(x, F ) = kx − pF (x)k et le minimum est atteint seulement en pF (x) 

Théorème 4.3. Inégalité de Bessel Si (ei )i∈[[1,n]] est une famille orthonormale
alors, pour tout élément x de E on a
n
X
|(ej |x)|2 6 kxk2
j=1

Dém : Si on prend y = 0 ∈ F dans la démonstration précédente alors on obtient


l’inégalité
kxk2 = kx − pF (x)k2 + kpF (x)k2 > kpF (x)k2
n
P
or pF (x) = (ej |x)ej est l’expression du vecteur pF (x) dans une base orthonormale
j=1
n
P
donc kpF (x)k2 = |(ej |x)|2 ce qui donne l’inégalité demandée (les | ne sont pas
j=1
4.2. ESPACES EUCLIDIENS 231

nécessaires ici car le corps de base est R mais on retrouvera la même propriété dans
le cas complexe et les | seront essentielles) 
Exemple : Polynômes de Tchebichef du premier genre
Z 1
f (t)g(t) dt
Sur C([−1, 1]) on considère le produit scalaire (f |g) = √ . Une famille
−1 1 − t2
orthogonale pour ce produit scalaire est la famille des polynômes de Tchebichef :
1
Tn (x) = cos(n Arccos x).
2n−1
Dém : Il faut faire attention ici car on a une intégrale sur ]−1, 1[ donc il faut utiliser
le chapitre 6 d’Analyse pour bien comprendre cette notion (à voir donc en deuxième
lecture si ce chapitre n’a pas déjà été traité).
En fait, il suffit de faire un changement de variable t = cos u, u ∈]0, π[ pour se
ramener à une intégrale sur un segment :
Z 1
f (t)g(t) dt
(f |g) = √
−1 1 − t2
Z π
= f (cos u)g(cos u) du en changeant le signe.
0
Z π
cos nu 1
Comme Tn (cos u) = n−1 alors (Tn |Tm ) = n+m−2 cos nu cos mu du = 0 si
2 2 0
m 6= m (calculs déjà faits après le théorème 4.1 page 226) 
Question : soit f ∈ C([−1, 1], R) et Tn = Vect(Tk )k6n où les Tk sont les polynômes
de Tchebichef. Chercher la projection orthogonale de f sur Tn .

4.2.3 Adjoint d’un endomorphisme

Dans cette sous-section, E est un espace vectoriel euclidien (il est donc de dimension
finie).
Définition 4.2.2. Adjoint d’un endomorphisme
Si u et v sont 2 endomorphismes de E, on dit que v est adjoint de u ssidéf
∀(x, y) ∈ E 2 (u(x)|y) = (x|v(y)).

Théorème 4.4. Tout endomorphisme u de E admet un adjoint et il est unique.


On le note u∗ et on a : u∗∗ = u.
Dém :
• Existence : x 7→ (u(x)|y) est une forme linéaire donc, comme E espace eu-
clidien est canoniquement isomorphe à son dual, on sait que ∃z ∈ E tel que
(u(x)|y) = (x|z), z est unique (et ceci va servir ci-dessous).
On peut donc définir u∗ : y 7→ z, montrons que u∗ est linéaire :
(u(x)|λy + µy ′) = (x|u∗ (λy + µy ′))
= λ(u(x)|y) + µ(u(x)|y ′) = λ(x|u∗ (y)) + µ(x|u∗ (y ′))
= (x|λu∗ (y) + µu∗ (y ′)).
Par unicité on en déduit que u∗ (λy + µy ′) = λu∗ (y) + µu∗ (y ′ ).
232 CHAPITRE 4. ESPACES EUCLIDIENS ET HERMITIENS

• Unicité : (x|v(y)) = (x|v ′ (y)) et on prend x = v(y) − v ′ (y) (ou on utilise


l’unicité invoquée ci-dessus) 

Remarque 4.2.3. En dimension quelconque, un endomorphisme n’admet pas tou-


jours un adjoint : exemple avec u(f ) = f (0) où E est l’ensemble des fonctions
Z 1
continues sur [−1, 1] muni du produit scalaire : (f |g) = f (t)g(t) dt.
−1

Dém : Proposée en question à la fin de cette section 


Proposition 4.2.4. L’application u ∈ L(E) 7→ u∗ ∈ L(E) est un automorphisme
involutif de L(E) qui vérifie (u ◦ v)∗ = v ∗ ◦ u∗ .
Dém :
• La linéarité est une conséquence immédiate de la linéarité du produit scalaire.
• L’involutivité est évidente : ∀(x, y) ∈ E 2 , (u(x)|y) = (x|u∗ (y)) = (u∗∗ (x)|y)
donc u∗∗ = u.
• La dernière propriété se démontre en revenant à la définition :
(u ◦ v(x)|y) = (u(v(x))|y) = (v(x)|u∗ (y)) = (x|v ∗ ◦ u∗ (y))
= (x|(u ◦ v)∗ (y))
d’où l’égalité (u ◦ v)∗ = v ∗ ◦ u∗ 

Théorème 4.5. Soit u ∈ L(E)

(i) On a u(F ) ⊂ F ⇔ u∗ (F ⊥ ) ⊂ F ⊥ .

(ii) (1) Ker u∗ = (Im u)⊥ , (2) Im u∗ = (Ker u)⊥ , (3) Rg(u∗ ) = Rg(u).

(iii) Si u ∈ GL(E) alors u∗ ∈ GL(E) et (u∗ )−1 = (u−1 )∗ .

Dém :
• (i) On écrit les équivalences suivantes :
(∀y ∈ F, u(y) ∈ F ) ⇔ (∀y ∈ F, ∀z ∈ F ⊥ , (u(y)|z) = 0) car F ⊥⊥ = F
⇔ (∀y ∈ F, ∀z ∈ F ⊥ , (y|u∗(z)) = 0) passage à l’adjoint
⇔ (∀z ∈ F ⊥ , u∗ (z) ∈ F ⊥ )
donc u(F ) ⊂ F ⇔ u∗ (F ⊥ ) ⊂ F ⊥ (propriété très importante qui servira pour
démontrer le théorème fondamental de ce chapitre).
• (ii)
– (1) Là encore on a les équivalences
y ∈ Ker u∗ ⇔ ∀x ∈ E, (u∗ (y)|x) = 0
⇔ ∀x ∈ E, (y|u(x)) = 0
⇔ y ∈ (Im u)⊥
donc on a égalité des ensembles Ker u∗ = (Im u)⊥ .
4.2. ESPACES EUCLIDIENS 233

– (2) se démontre alors en échangeant les rôles de u et u∗ dans (1) :

Ker u∗∗ = Ker u = (Im u∗ )⊥

et en utilisant la relation (F ⊥ )⊥ = F valable pour tout sous-espace vec-


toriel en dimension finie :

(Ker u)⊥ = [(Im u∗ )⊥ ]⊥ = Im u∗ .

– (3) devient immédiat grâce à la formule du rang :

dim E = Rg(u) + dim Ker u = Rg(u) + dim(Im u∗ )⊥


= Rg(u) + dim E − Rg(u∗ )

donc Rg(u) = Rg(u∗ ).


• (iii) On utilise la proposition 4.2.4

(u ◦ u−1 )∗ = (u−1 )∗ ◦ u∗
= Id∗E = IdE

et comme on est en dimension finie, on en déduit que u∗ est inversible, d’inverse


(u−1 )∗ 

Proposition 4.2.5. Si (ei )i∈[[1,n]] est une base orthonormée et si M est la matrice
de u dans cette base alors la matrice de u∗ est M T .
On a alors Tr(u∗ ) = Tr(u), det(u∗ ) = det(u).
n
P
Dém : Si M = (aij ) alors u(ej ) = akj ek donc aij = (u(ej )|ei ) (déjà vu à la
k=1
proposition 4.2.1 page 228). De même (u∗ (ei )|ej ) = a∗ji si M ∗ = (a∗ij ) est la matrice
de u∗ . On a donc
aij = (u(ej )|ei ) = (ej |u∗ (ei )) = a∗ji
ce qui signifie que M ∗ = M T 
Définition 4.2.3. Endomorphisme autoadjoint
u ∈ L(E) est autoadjoint (ou symétrique) ssidéf (u(x)|y) = (x|u(y)) ssi u∗ = u.
L’ensemble des endomorphismes autoadjoints est noté S(E)

Proposition 4.2.6. L’ensemble des endomorphismes autoadjoints est un sous-


espace vectoriel de L(E).
Dém : 0 ∈ S(E) donc cet ensemble est non vide.
Si u et v sont autoadjoints alors

((λu + µv)(x)|y) = λ(u(x)|y) + µ(u(x)|y) = λ(x|u(y)) + µ(x|v(y)) = (x|(λu + µv)(y))

donc λu + µv ∈ S(E) 
Proposition 4.2.7. Si M est la matrice de u dans une base orthonormale alors :

u ∈ S(E) ⇔ M = M T .

Dém : Évident avec la prop 4.2.5 


234 CHAPITRE 4. ESPACES EUCLIDIENS ET HERMITIENS

Remarque 4.2.4.
n(n + 1)
(i) On a dim S(E) = en utilisant les matrices.
2
Dém : Il suffit de prouver que la dimension de l’ensemble des matrices carrées
n(n + 1)
symétriques vaut . Or une base de cet espace vectoriel est donné
2
par les matrices Eij + Eji, i < j et Eii où Eij est la matrice ne contenant
que des 0 sauf un 1 à l’intersection de la i-ième ligne et de la j-ième co-
lonne. Si on dénombre l’ensemble des indices (i, j) avec i < j alors, il suffit
de connaı̂tre le nombre de sous-ensembles à deux éléments de l’ensemble [[1, n]]
(et
  d’ordonner les éléments de ces sous-ensembles). On sait alors qu’il y en a
n n(n − 1)
= , il faut y rajouter les matrices Eii qui sont au nombre de n
2 2
pour trouver finalement la réponse 

(ii) Si N est la matrice de la forme quadratique qui définit le produit scalaire dans
une base quelconque, alors u est symétrique ssi M T N = NM où M est la
matrice de u dans cette base.
Dém : Si X et Y sont les matrices (unicolonnes) des vecteurs x et y alors

(u(x)|y) = (MX)T NY = X T M T NY
(x|u(y)) = X T NMY

et ceci pour tous les vecteurs x et y donc M T N = NM (et dans une base
orthonormée N = In , on retrouve bien le résultat classique) 

Proposition 4.2.8. p est un projecteur orthogonal ssi p2 = p et p∗ = p.

Dém :

• (⇒) p2 = p est une propriété caractéristique des projecteurs. Ensuite, comme


y − p(y) ⊥ Im p 2

(p(x)|y) = (p(x)|p(y)) + (p(x)|y − p(y)) = (p(x)|p(y))


= (x|p(y)) par symétrie

donc p∗ = p.

• (⇐) Si p2 = p, p est un projecteur, et si p∗ = p alors

Ker p = Ker p∗ = (Im p)⊥

ce qui caractérise un projecteur orthogonal 

Définition 4.2.4. Endomorphisme autoadjoint positif


Si u ∈ S(E), on dit que u est positif ssidéf ∀x ∈ E, (u(x)|x) > 0.
On dit que u est défini positif ssidéf ∀x ∈ E \ {0}, (u(x)|x) > 0.
Ce vocabulaire se transmet à la matrice associé dans une base orthonormale et on
aura les notions de matrice symétrique positive et symétrique définie positive.

2
En effet p(y − p(y)) = p(y) − p2 (y) = 0 ⇒ y − p(y) ∈ Ker p.
4.2. ESPACES EUCLIDIENS 235

Proposition 4.2.9. Pour tout u de L(E), les endomorphismes u ◦ u∗ et u∗ ◦ u sont


autoadjoints positifs.
Si u est dans GL(E) alors u ◦ u∗ et u∗ ◦ u sont autoadjoints définis positifs.

Dém :

• ∀(x, y) ∈ E 2 , (u ◦ u∗ (x)|y) = (u∗ (x)|u∗ (y)) = (x|u ◦ u∗ (y)) donc u ◦ u∗ est


autoadjoint.

• Pour tout x ∈ E on a

(u ◦ u∗ (x)|x) = (u∗(x)|u∗ (x)) = ku∗ (x)k2 > 0

donc u ◦ u∗ est positif.

• Si u ∈ GL(E) alors, si x 6= 0, u(x) 6= 0 donc (u ◦ u∗ (x)|x) = ku∗ (x)k2 > 0 et


en conséquence, u ◦ u∗ est autoadjoint défini positif.

Par symétrie, il en est de même de u∗ ◦ u 

Proposition 4.2.10. Grâce à l’adjoint, on a une caractérisation des automor-


phismes orthogonaux :

u ∈ O(E) ⇔ u∗ ◦ u = u ◦ u∗ = IdE .

Dém : On sait qu’une application linéaire est un automorphisme orthogonal ssi


∀x ∈ E, ku(x)k = kxk ce qui est encore équivalent (par polarisation) à ∀(x, y) ∈ E 2 ,
(u(x)|u(y)) = (x|y).
Ensuite, comme on est en dimension finie, u∗ ◦ u = IdE signifie que u∗ et u
sont inverses l’un de l’autre donc que u ◦ u∗ = IdE . On procède maintenant par
équivalences :

u ∈ O(E) ⇔ ∀(x, y) ∈ E 2 , (u(x)|u(y)) = (x|y)


⇔ ∀(x, y) ∈ E 2 , (x|u∗ ◦ u(y)) = (x|y)
⇔ ∀(x, y) ∈ E 2 , (x|u∗ ◦ u(y) − y) = 0
⇔ ∀y ∈ E, u∗ ◦ u(y) = y
⇔ u∗ ◦ u = IdE 

Proposition 4.2.11. Si a et b sont deux vecteurs unitaires distincts alors la


b−a
réflexion sa,b qui échange a et b s’écrit sa,b (x) = x − 2(e|x)e où e = .
kb − ak
Les seules réflexions qui échangent Ra et Rb sont sa,b et sa,−b .

Dém :

• On sait qu’une réflexion s est une symétrie par rapport à un hyperplan. Si


H est l’hyperplan en question et D = H ⊥ la droite orthogonale à H alors
s(x) = x pour tout x ∈ H et s(x) = −x pour tout x ∈ D. Si e est un vecteur
unitaire de D et si x = y + λe est la décomposition d’un vecteur de E dans la
somme directe orthogonale H ⊕ D alors s(x) = y − λe.
Si sa,b échange les vecteurs a et b alors, avec a = y + λe et b = z + µe
236 CHAPITRE 4. ESPACES EUCLIDIENS ET HERMITIENS

(décomposition signalée ci-dessus), sa,b (a) = b donne y − λe = z + µe donc


b−a
y = z et λ = −µ. On retrouve e = .
kb − ak
Si maintenant x = y + λe alors s(x) = y − λe = x − 2λe or (e|x) = λ ce qui
donne le résultat.
On remarque aussi que sa,b est unique.

• Si s échange Ra et Rb alors soit s échange a et b donc s = sa,b soit s échange


a et −b donc s = sa,−b 

Questions :

(i) On dit que u ∈ L(E) est antisymétrique ssi u∗ = −u.


Montrer que u est antisymétrique ssi ∀x ∈ E, (x|u(x)) = 0.
En dimension 3, montrer que, si u est antisymétrique, ∃t ∈ E | u(x) = t ∧ x.

(ii) Sur R[X], muni du produit scalaire qui rend la base canonique orthonormale,
chercher l’adjoint de l’opérateur dérivation.

(iii) Soit u ∈ L(E, F ) où E et F sont des espaces euclidiens. Montrer qu’il existe
v ∈ L(F, E), unique, tel que ∀(x, y) ∈ E×F, (u(x)|y) = (x|v(y)).

(iv) Prouver l’affirmation de la remarque 4.2.3 page 232 (par l’absurde).

(v) Montrer que Ker(u∗ ◦ u) = Ker u.

4.2.4 Réduction des endomorphismes autoadjoints

a) Théorème
Lemme 4.6. Si u est autoadjoint alors le polynôme caractéristique de u est scindé
sur R.
Dém : Dans une base orthonormée, on prend la matrice M de u. M est une matrice
à coefficients réels mais son polynôme caractéristique P admet au moins une racine
complexe.
Soit λ une valeur propre (éventuellement complexe) de M et X un vecteur propre
associé 3 alors
T T
X MX = λX X car MX = λX
T T
=X M X car M est symétrique réelle
T
= (MX)T X = λX X

T n
P
et X X = |xi |2 6= 0 car X est non nul.
i=1
T T
On a ainsi λX X = λX X donc λ ∈ R 
3
Les composantes de X peuvent être complexes aussi.
4.2. ESPACES EUCLIDIENS 237

Théorème 4.7. Théorème fondamental


Si u est un endomorphisme autoadjoint de E espace vectoriel euclidien alors
M
E= Eλ
λ∈Sp(u)

et les Eλ sont orthogonaux


Dém :

• On écarte le cas où u est une homothétie qui ne pose pas de problème.

• On procède alors par récurrence (forte) sur n = dim E : on suppose que


la propriété est réalisé pour tout espace vectoriel de dimension 6 n et tout
endomorphisme autoadjoint de cet espace vectoriel.

– Si n = 1 alors tous les endomorphismes sont diagonalisables.


– On suppose la propriété vraie à l’ordre n. Soit E de dimension n + 1 et
u ∈ S(E). On sait d’après le lemme qu’il existe λ ∈ Sp(u), λ ∈ R.
∗ On utilise la prop 4.5 page 232 : si F = Eλ (u)⊥ alors u(F ) ⊂ F .
∗ On applique ensuite la propriété de récurrence à F et v = u||F :
M
F = Eµ (v) (somme directe orthogonale).
µ∈Sp(v)
M
∗ On a alors E = Eλ (u) ⊕ Eµ (v) mais on sait que Eµ (v) = Eµ (u)
µ∈Sp(v)
M
et Sp(u) = {λ} ∪ Sp(v) donc E = Eµ (u).
µ∈Sp(u)

On a ainsi prouvé la propriété dans tous les cas 


Corollaire 4.8. Si M est symétrique alors on peut écrire M = UDU T où D est
une matrice diagonale et U une matrice orthogonale.
Dém : Soit u ∈ L(Rn ) de matrice M alors u est autoadjoint. Rn est donc somme
directe orthogonale des sous-espaces propres de u. On prend alors une base or-
thonormale (pour le produit scalaire canonique dans Rn ) dans chaque sous-espace
propre de u et on construit une base de E en collectant toutes ces bases. Dans la
base obtenue, la matrice de u est diagonale et la matrice de passage est orthogonale
car elle correspond à un changement de base orthogonale.
On a donc M = UDU −1 = UDU T 

Remarque 4.2.5.

(i) On peut donc diagonaliser u dans une b.o.n. mais ce n’est pas une obligation
(en particulier si u a des vap multiples).

(ii) Si u est autoadjoint positif alors ses valeurs propres sont toutes positives et
même strictement positives si u est défini positif.
Dém : Si x est un vecteur propre de u associé à la valeur propre λ alors
(u(x)|x) = λkxk2 > 0 donc λ > 0. Si u est défini positif alors l’inégalité est
stricte donc λ > 0 
238 CHAPITRE 4. ESPACES EUCLIDIENS ET HERMITIENS

(iii) Si M T N = NM où N est une matrice symétrique définie positive alors M est
diagonalisable (voir remarque 4.2.4 (ii) page 234).
Dém : N est la matrice d’un produit scalaire sur Rn (mais pas le produit sca-
laire canonique) alors M est la matrice d’un endomorphisme de Rn autoadjoint
pour ce produit scalaire donc M est diagonalisable 

(iv) Le dernier corollaire n’est vrai que pour les matrices à coefficients réels.

Applications :

(i) En Mécanique, on utilise cette propriété avec le tenseur d’inertie pour trouver
les axes principaux d’un solide en mouvement.

(ii) En analyse numérique où beaucoup de problèmes d’optimisation font intervenir


des matrices symétriques.

b) Application à la réduction des formes quadratiques réelles


Soit Q une forme quadratique définie sur E espace vectoriel euclidien et B sa forme
polaire ; on sait que B(x, .) ∈ E ∗ et donc que ∀x ∈ E, ∃z ∈ E : ∀y ∈ E
B(x, y) = (z|y). La correspondance x → z est fonctionnelle et linéaire, on note
u l’endomorphisme ainsi défini.
Dém : On utilise ici le fait que toute forme linéaire f sur un espace euclidien s’écrit
de manière unique sous la forme f (y) = (z|y). Grâce à l’unicité du vecteur z, on
peut ainsi définir une fonction qui à x ∈ E fait correspondre l’unique z ∈ E tel que
∀y ∈ E, B(x, y) = (z|y). On pose z = u(x) et grâce à la linéarité de B par rapport
à x sa première variable, u est linéaire 

Définition 4.2.5. Endomorphisme autoadjoint associé à une forme


bilinéaire
u définie par B(x, y) = (u(x)|y) est appelé endomorphisme autoadjoint associé à B.

n
P
Théorème 4.9. Il existe une base orthonormale dans laquelle Q(x) = λi x2i où
i=1
les λi sont les valeurs propres de u.
De plus, si λ1 6 . . . 6 λn alors λ1 kxk2 6 Q(x) 6 λn kxk2 .

Dém : Soit (e1 , . . . , en ) une base orthonormale de vecteurs propres de u endomor-


n
P
phisme autoadjoint associé à Q (c’est le théorème fondamental) alors, si x = xi ei ,
i=1
n
P
u(x) = λi ei et
i=1

Q(x) = (u(x)|x)
n n
!
X X
= λi xi ei | xj ej
i=1 j=1
n
X
= λi x2i
i=1
4.2. ESPACES EUCLIDIENS 239

compte tenu de l’écriture du produit scalaire dans une base orthonormée.


Si on ordonne les valeurs propres de u alors, pour tout i, λ1 x2i 6 λi x2i 6 λn x2i donc,
en additionnant toutes ces inégalités on obtient
n
X n
X n
X
λ1 x2i 6 λi x2i 6 λn x2i
i=1 i=1 i=1

soit λ1 kxk2 6 Q(x) 6 λn kxk2 


Remarque 4.2.6. On suppose que λ1 6 . . . 6 λn .
(i) On a min Q(x) = λ1 et max Q(x) = λn .
kxk=1 kxk=1

Dém : On sait déjà que inf Q(x) > λ1 vu le théorème précédent or on a


kxk=1
Q(e1 ) = (u(e1 )|e1 ) = λ1 donc λ1 > inf Q(x) d’où inf Q(x) = λ1 et cette
kxk=1 kxk=1
borne inférieure est atteinte donc c’est bien un minimum 

(ii) Si Q est définie positive alors λ1 > 0.


Dém : Immédiat avec le (i) mais en plus on a équivalence 

c) Application à la recherche de l’équation réduite d’une conique


Soit une courbe d’équation g(x, y) = αx2 + 2βxy + γy 2 + 2δx + 2εy + ϕ = 0 dans un
repère orthonormal associé à la forme quadratique Q(x, y) = αx2 + 2βxy + γy 2, on
suppose que l’ensemble des points M qui vérifient cette équation n’est pas l’ensemble
vide ni un ensemble réduit à un point.
Grâce au théorème précédent, on sait que l’on peut faire un changement de base
orthonormale tel que, dans le nouveau repère, la courbe admette pour équation
g ′ (x′ , y ′) = α′ x′ 2 + γ ′ y ′ 2 + 2δ ′ x′ + 2ε′ y ′ + ϕ′ = 0.
On peut faire alors la discussion suivante (en supposant (α′ , γ ′ ) 6= (0, 0)) :
(i) α′ > 0, γ ′ > 0, par translation on se ramène au cas suivant

x2 y 2
+ 2 = 1 (équation d’une ellipse)
a2 b
où l’on a éliminé l’ensemble vide et l’ensemble réduit à un point.
Dém : On réécrit l’équation sous la forme
 δ ′ 2  ε′  2 δ ′ 2 ε′ 2
α′ x′ + ′ + γ′ y′ + ′ = ′ + ′ − ϕ′
| {z α} γ
| {z }
α
|
γ
{z }
=X =Y =ψ′

soit α′ X 2 + γ ′ Y 2 = ψ ′ .

• Si ψ ′ 6 0 alors on a soit l’ensemble vide (si ψ ′ < 0) soit un point–l’origine


ici–(si ψ ′ = 0). On écarte ce cas.
ψ′ ψ′
• Si ψ ′ > 0 alors on divise par ψ ′ et on pose a2 = ′ et b2 = ′ ce qui
α γ
X2 Y 2
donne bien l’équation 2 + 2 = 1 
a b
240 CHAPITRE 4. ESPACES EUCLIDIENS ET HERMITIENS

(ii) α′ > 0, γ ′ < 0, par translation on se ramène donc aux cas

x2 y 2
− 2 = 1 (équation d’une hyperbole)
a2 b
x2 y 2
− 2 = 0 (réunion de deux droites)
a2 b

où l’on a réduit le nombre de cas par symétries.


Dém : On réécrit là aussi l’équation sous la forme
 δ ′ 2  ε′  2 δ ′ 2 ε′ 2
α′ x′ + ′ + γ′ y′ + ′ = ′ + ′ − ϕ′
α
| {z } γ α γ
| {z } | {z }
=X =Y =ψ′

soit α′ X 2 + γ ′ Y 2 = ψ ′ . On se ramène au cas où ψ ′ > 0 en échangeant


éventuellement X et Y .

′ ′ ψ′ 22 ψ′
• Si ψ > 0 alors on divise par ψ et on pose a = ′ et b = − ′ ce qui
α γ
X2 Y 2
donne bien l’équation 2 − 2 = 1.
a b
• Si ψ = 0 alors on a α X + γ ′ Y 2 = 0 ce qui peut se ramener (à une
′ ′ 2

X2 Y 2
constante multiplicative près) à 2 − 2 = 0 
a b

(iii) α′ > 0, γ ′ = 0, par translation on a

x2 = 2py parabole (p 6= 0)
x2 = a2 deux droites parallèles ou confondues.

Dém : On a cette fois-ci



′ δ ′ 2 δ′2
α x + ′ + 2ε y = ′ − ϕ′
′ ′
α
| {z } |α {z }
=X =ψ′

et on distingue les deux cas


ψ′ ε′
• ε′ 6= 0, on pose Y = y ′ − ′
, p = ′
d’où X 2 = 2pY en divisant par α′ .
2ε α
ψ′
• Si ε′ = 0 alors, en divisant par α′ on obtient X 2 = ′ = ±a2 .
ε
2 2
– Si X = −a avec a 6= 0, on obtient l’ensemble vide (cas écarté).
– Si X 2 = a2 avec a 6= 0, on obtient deux droites parallèles X = a et
X = −a.
– Enfin, si X 2 = 0 on obtient une seule droite correspondant au cas
limite du précédent (a → 0) et c’est la raison pour laquelle on dit
qu’on a deux droites confondues 
4.2. ESPACES EUCLIDIENS 241

Définition 4.2.6. Conique propre, conique non dégénérée


Les coniques propres correspondent aux cas de l’ellipse, de l’hyperbole et de la para-
bole (on élimine les droites).
Si, de plus, la forme quadratique Q est non dégénérée, on dit que la conique est non
dégénérée (on obtient soit une ellipse, soit une hyperbole).
Questions :
(i) Soit A une matrice symétrique telle qu’il existe k ∈ N \ {0, 1} avec Ak = In .
Montrer que A2 = In .
(ii) Si A est symétrique, montrer que eA est symétrique définie positive.
 
7 2 −2
1
(iii) Diagonaliser A =  2 4 −1.
3
−2 −1 4
(iv) Que dire de la réduction d’une matrice antisymétrique ?
(v) Réduire la forme quadratique Q(x) = x21 + 3x22 − 3x23 − 8x2 x3 + 2x3 x1 − 4x1 x2
dans le groupe orthogonal (i.e. trouver un changement de base orthonormale
dans lequel Q s’écrit sous forme de carrés indépendants).
P
(vi) Même question avec Q(x) = 2 xi xj .
16i<j 6n

(vii) Soit A et B deux matrices symétriques réelles, montrer l’équivalence des trois
propriétés :
a) AB = BA
b) AB symétrique.
c) Il existe P ∈ O(n) telle que P −1 AP et P −1BP soient diagonales.

4.2.5 Quadriques usuelles

Ce paragraphe est censé être vu sous forme de travaux pratiques.


a) Généralités, formes réduites
Définition 4.2.7. Quadrique
Si Φ est une forme quadratique et ϕ une forme affine (i.e. un polynôme du 1er degré)
alors l’ensemble Q(M) = Φ(M) + ϕ(M) = 0 est une quadrique Q. Son équation
s’écrit :
Q(M) = ax2 + by 2 + cz 2 + 2dxy + 2exz + 2f yz + 2αx + 2βy + 2γz + δ = 0.
On sait qu’il existe une b.o.n. dans laquelle on aura Φ(M) = λX 2 + µY 2 + νZ 2 .
• Si λµν 6= 0 alors, après une translation on obtient l’équation
2 2 2
λX ′ + µY ′ + νZ ′ = τ Rg Φ = 3
• Si λµ 6= 0, ν = 0 alors, toujours après une translation :
2 2
λX ′ + µY ′ + ωZ ′ = τ Rg Φ = 2
• Si λ 6= 0, µ = ν = 0 alors, après une translation, on a λX ′ 2 + πY ′ + ωZ ′ = τ et
après une rotation :
2
λX ′ + ρY ′′ = τ Rg Φ = 1
242 CHAPITRE 4. ESPACES EUCLIDIENS ET HERMITIENS

Définition 4.2.8. Direction principale


Toute direction de droite dirigée par un vecteur propre est dite direction principale.

b) Étude du cas où Φ est de rang 3


• Recherche du centre de symétrie : on cherche (x0 , y0, z0 ) tel que l’on ait
Q(x + x0 , y + y0 , z + z0 ) = Φ(x, y, z) + Q(x0 , y0 , z0 ), alors, en utilisant la formule de
Taylor, on voit que cette recherche est équivalente à la résolution du système :

∂Q

 (x0 , y0 , z0 ) = ax0 + dy0 + ez0 + α = 0

 ∂x
 ∂Q
(x0 , y0 , z0 ) = dx0 + by0 + f z0 + β = 0

 ∂y
 ∂Q (x , y , z ) = ex + f y + cz + γ = 0


0 0 0 0 0 0
∂z

qui admet une solution unique car Φ est de rang 3. En effet, si M0 = (x0 , y0 , z0 ) et
H = (x, y, z) alors

∂Q ∂Q ∂Q
Q(M0 + H) = Q(M0 ) + x (M0 ) + y +z (M0 ) +Φ(H)
∂x ∂y ∂z
| {z }
=0

et si M0 + H ∈ Q alors M0 − H ∈ Q (car Φ(−H) = Φ(H)) donc M0 est centre de


symétrie (si Q =
6 ∅).
• Équation réduite :
(
x2 y2 z2 1
ε1 2 + ε2 2 + ε3 2 =
a b c 0

Les εi étant égaux à ±1 et n’étant pas tous négatifs.


x2 y 2 z 2
• Ellipsoı̈de : 2 + 2 + 2 = 1.
a
 b c
x = a sin θ cos ϕ

Paramétrisation y = b sin θ sin ϕ , θ ∈ [0, π], ϕ ∈ [0, 2π[.


z = c cos θ
Par une première affinité, on se ramène au cas où a = b, on obtient alors un ellipsoı̈de
de révolution, par une deuxième affinité, on trouve une sphère.
Compte tenu des propriétés évoquées ci-dessus, on peut dire que lorsqu’on coupe un
ellipsoı̈de par un plan, on trouve dans tous les cas une ellipse.
x2 y 2 z 2
• Hyperboloı̈de à deux nappes : 2 + 2 − 2 = −1.
 a b c

 x = a sh u cos v = a tan θ cos v
Paramétrisation y = b sh u sin v = b tan θ sin v , u ∈ R+ , v ∈ [0, 2π[, ε = ±1 (on


z = cε ch u = c/ cos θ
peut aussi prendre le paramètre θ dans ] − π/2, +π/2[∪] + π/2, +3π/2[).
On obtient 2 nappes S + et S − .
Par une affinité, on se ramène au cas où a = b. On a alors une H2 de révolution.
Si on coupe par le plan z = λ, on trouve une ellipse (à condition de choisir une
valeur de λ convenable!). Si on coupe par le plan x = α, on trouve une hyperbole.
4.2. ESPACES EUCLIDIENS 243

x2 y 2 z 2
• Hyperboloı̈de à une nappe : 2 + 2 − 2 = 1.
 a b c

 x = a ch u cos v
Paramétrisation y = b ch u sin v , u ∈ R, v ∈ [0, 2π[ (on peut aussi remplacer le


z = c sh u
paramètre u par le paramètre θ).
Par une affinité, on se ramène au cas où a = b, on a alors un H1 de révolution.
Si on coupe par le plan z = λ, on trouve toujours une ellipse. Si on coupe par le
plan d’équation x = α, on trouve une hyperbole ou 2 droites.

Théorème 4.10. Un H1 est une surface réglée.


x2 z2 y2
Dém : En effet, on peut écrire 2 − 2 = 1 − 2 i.e. P Q = RS en posant P =
a c b
x z x z y y
+ , Q = − , R = 1 + et S = 1 − . On obtient les génératrices par
a c a (c b ( b
cos θP = sin θR cos ϕP = sin ϕS
les équations Dθ et Dϕ′ , θ et ϕ décrivant
cos θS = sin θQ cos ϕR = sin ϕQ
l’ensemble [0, +π[ 
Remarque 4.2.7.
(i) Pour tout couple (θ, ϕ) de [0, +π[, les droites Dθ et Dϕ′ sont coplanaires et
contenues dans le plan
cos θ cos ϕP − sin θ cos ϕR − cos θ sin ϕS + sin θ sin ϕQ = 0.
(ii) Si θ 6= θ′ alors Dθ et Dθ′ ne sont pas coplanaires (et on a la même propriété
avec les Dϕ′ ).
(iii) Par chaque point d’un H1 passe une seule droite Dθ et une seule droite Dϕ′ où
θ et ϕ sont éléments de [0, +π[.
(iv) Un H1 ne contient pas d’autre droite.
(v) Si on cherche l’intersection de Dθ avec
 le plan xOy on obtient une ellipse et
x
 = a sin 2θ + ta cos 2θ
une autre paramétrisation du H1 : y = b cos 2θ + tb sin 2θ


z = tc

(vi) Si un H1 est de révolution (par rapport à Oz) alors il est engendré par la
rotation d’une droite Dθ autour de Oz.
x2 y2 z2
• Étude de ε1 + ε 2 + ε 3 =0:
a2 b2 c2
x2 y 2
On se ramène au cas 2 + 2 = z 2 : cône de sommet O .
 a b

 x = au cos v
Paramétrisation y = bu sin v , u ∈ R, v ∈ [0, 2π[.


z=u
Par une affinité, on se ramène au cas où a = b et on obtient un cône de révolution.
Section par des plans : z = λ donne des ellipses, x = α ou y = β donnent des
hyperboles et si l’on coupe par un plan parallèle à une génératrice (mais ne la
244 CHAPITRE 4. ESPACES EUCLIDIENS ET HERMITIENS

contenant pas), on trouve une parabole. On trouve en fait toutes les coniques, ce
qui explique l’origine de cette appellation.
c) Étude du cas où Rg(Φ) = 2
x2 y2
On a l’équation réduite : ε1 2 + ε2 2 + αz + β = 0
a b
1er cas : α 6= 0 (par translation, on se ramène au cas où β = 0), on trouve alors les
surfaces suivantes :
x2 y 2
• z = 2 + 2 paraboloı̈de elliptique (P.E.).
a b 
x = au cos v

Paramétrisation y = bu sin v , u ∈ R, v ∈ [0, 2π[.


z = u2
Par une affinité, on se ramène au cas d’un paraboloı̈de de révolution (obtenu en
faisant tourner une parabole autour de son axe).
Section par des plans z = λ (λ > 0) : ellipse, x = λ : parabole.
x2 y 2
• z = 2 − 2 paraboloı̈de hyperbolique (P.H.).
a b  a

 x = (u + v)

 2
b
Paramétrisation y = (v − u) , u ∈ R, v ∈ R. Cette paramétrisation prouve


 2
z = uv
que cettesurfaceest réglée et que l’on a
deuxfamilles de droites : Du passant par
au/2 a/2
le point −bu/2, parallèle au vecteur  b/2  (et on définit de même Dv ).
0 u
Section par des plans z = λ (λ > 0) : hyperbole, x = λ : parabole.

Remarque 4.2.8.

(i) Par affinité, on se ramène au cas où a = b et en faisant une rotation, l’équation
s’écrit
( : αz = xy.( Les génératrices rectilignes sont dans ce cas données par
x=λ y=µ
ou .
αz = λy αz = µy

(ii) Par un point passent deux génératrices rectilignes.

(iii) Deux génératrices distinctes d’un même système ne sont pas coplanaires.

(iv) S ne contient pas d’autre droite que ces génératrices.

2ième cas : α = 0, β 6= 0
x2 y 2
• 2 + 2 = 1 cylindre elliptique , on sait à quoi s’en tenir.
a b
x2 y 2
• 2 − 2 = 1 cylindre hyperbolique idem.
a b
Remarque 4.2.9. Le cas β = 0 nous donne la réunion de deux plans sécants
(pouvant être éventuellement confondus).

Voici maintenant les tracés des différentes quadriques (on a écarté le cas des cy-
lindres) :
4.2. ESPACES EUCLIDIENS 245

Ellipsoı̈de

Hyperboloı̈de à une nappe


246 CHAPITRE 4. ESPACES EUCLIDIENS ET HERMITIENS

Hyperboloı̈de à 2 nappes

Cône
4.2. ESPACES EUCLIDIENS 247

Paraboloı̈de hyperbolique

Paraboloı̈de elliptique
d) Étude du cas où Rg(Φ) = 1
On aura les deux cas suivants :
x2 = 2pz cylindre parabolique ,
x2 = a2 deux plans parallèles.
On peut en conclusion poser la définition suivante :
Définition 4.2.9. Quadrique non dégénérée, quadrique propre
On dit qu’une quadrique est non dégénérée si la forme quadratique Φ est non
dégénérée, on a alors les quadriques suivantes : E, H1 , H2 , C.
248 CHAPITRE 4. ESPACES EUCLIDIENS ET HERMITIENS

On dit qu’une quadrique est propre si elle est non dégénérée ou si c’est l’une des
quadriques suivantes : PE, PH, CE, CH, CP.

Remarque 4.2.10. On a en tout 9 quadriques propres, 4 sont non dégénérées, 6


sont des surfaces réglées (i.e. engendrées par une famille de droites).

4.3 Espaces préhilbertiens complexes,


espaces hermitiens
Comme le nom l’indique, à partir de maintenant, tous les espaces considérés sont
des espaces vectoriels sur C.

4.3.1 Espaces préhilbertiens complexes

Définition 4.3.1. Application semi-linéaire



(i) ∀(x, y) ∈ E 2 u(x + y) = u(x) + u(y),
Si u : E → F vérifie alors on dit que u
(ii) ∀λ ∈ C, ∀x ∈ E u(λx) = λu(x),
est semi-linéaire.
Exemple : z → z dans C.
Remarque 4.3.1. Si u est semi-linéaire sur E C-e.v. alors u est linéaire sur E
R-e.v.
Définition 4.3.2. Produit scalaire
(x, y) ∈ E 2 7→ (x|y) est un produit scalaire (hermitien) ssidéf
(i) y 7→ (x|y) est linéaire, x 7→ (x|y) est semi-linéaire (inutile vu le (ii)).
(ii) (x|y) = (y|x) (symétrie hermitienne),
(iii) Si x 6= 0, (x|x) > 0.
Expression analytique en dimension finie :
T X T
B(x, y) = X MY = bij xi yj où M = M (bij = bji).
i,j

n
P n
P
Dém : C’est la même chose que dans le cas réel : si x = xi ei et y = yiei alors
i=1 i=1

n
! n
X X
B(x, y) = B x, yj ej = yj B(x, ej )
j=1 j=1
n n
!
X X
= yj B xi ei , ej
j=1 i=1
X
= xi yj B(ei , ej )
i,j

en utilisant la semi-linéarité à gauche 


4.3. ESPACES PRÉHILBERTIENS COMPLEXES, HERMITIENS 249

Définition 4.3.3. Espace préhilbertien complexe


E C-e.v. est un espace préhilbertien complexe ssidéf E est muni d’un produit scalaire.

Exemples :
n
P
(i) Produit scalaire canonique dans Cn : (x|y) = xi yi .
i=1

(ii) Produit scalaire canonique sur ℓ2 (ensemble


P des séries de module carré conver-
gentes, voir chapitre 5) : (x|y) = +∞ x y
n=0 n n
Z
(iii) Dans C([a, b], C) : (f |g) = f g.
[a,b]

Dém : La linéarité à droite est une conséquence de la linéarité


Z de l’intégrale,
la symétrie hermitienne est immédiate et, si f 6= 0 alors |f |2 > 0 car f
[a,b]
est continue 

(iv) Dans C2π ensemble des Zfonctions continues 2π-périodiques sur R à valeurs
1
complexes : (f |g) = fg.
2π [0,2π]

Proposition 4.3.1. Inégalités de Cauchy-Schwarz et de Minkowski

• Cauchy-Schwarz |(x|y)|2 6 |(x|x)|.|(y|y)| avec égalité ssi x et y sont liés,


p p p
• Minkowski (x + y|x + y) 6 (x|x) + (y|y). avec égalité ssi x et y sont
positivement liés (i.e. ∃(λ, µ) 6= (0, 0), λ > 0, µ > 0 tels que λx = µy).

Dém :

• On ne peut pas refaire ici la démonstration classique de l’inégalité de Cauchy-


Schwarz que l’on a vue pour les espaces euclidiens, il faut adapter.
On pose (x|y) = ρeiθ (où ρ = |(x|y)|) et T (λ) = kx + λe−iθ yk2 > 0. En
développant on obtient 4

T (λ) = (x + λe−iθ y|x + λe−iθ y)


= (x|x) + λeiθ (y|x) + λe−iθ (x|y) + λ2 (y|y)
= (x|x) + 2λρ + λ2 (y|y).

On exprime alors que ∆ = 4ρ2 − 4(x|x)2 .(y|y)2 6 0 (car le trinôme en λ ne


change pas de signe). En simplifiant par 4 et en tenant compte de l’égalité
ρ = |(x|y)| on arrive à |(x|y)|2 6 |(x|x)|.|(y|y)|.
Le cas d’égalité correspond à x + λe−iθ y = 0 avec λ racine double de T (X) = 0
(si y 6= 0, sinon c’est immédiat).

• Pour Minkowski, on utilise l’inégalité

Re [(x|y)] 6 |(x|y)| car Re(z) 6 |z|


p
6 (x|x).(y|y) inégalité de Cauchy-Schwarz.
ne pas oublier que e− (x|y) = |(x|y)|
250 CHAPITRE 4. ESPACES EUCLIDIENS ET HERMITIENS

Alors

(x + y|x + y) = (x|x) + (y|x) + (x|y) + (y|y)


= (x|x) + 2 Re(x|y) + (y|y)
p p p
6 (x|x) + 2 (x|x).(y|y) + (y|y) = [ (x|x) + (y|y)]2

d’où l’inégalité de Minkowski.


Le cas d’égalité s’obtient lorsqu’on a égalité dans les inégalités précédentes :
soit Re[(x|y)] = |(x|y)| et (x, y) liée (cas d’égalité dans Cauchy-Schwarz).
Si on suppose que y 6= 0 alors x = λy d’où (x|y) = λ(y|y) ce qui donne
Re(λ)(y|y) = |λ|(y|y) soit λ ∈ R+ 

Théorème 4.11. Si E est un espace préhilbertien alors


p on peut munir E d’une
structure d’espace vectoriel normé en posant kxk = (x|x).
p
Dém : Il suffit de prouver que kxk = (x|x) est bien une norme :

• kxk = 0 ⇒ (x|x) = 0 ⇒ x = 0 (d’après le (iii) de la définition du produit


scalaire).

• kλxk2 = (λx|λx) = |λ|2 (x|x) soit kλxk = |λ|.kxk.

• L’inégalité triangulaire est directement obtenue avec Minkowski 

Remarque 4.3.2. On sait alors que l’on peut associer une distance à la norme que
l’on vient de définir en posant d(x, y) = kx − yk.

Théorème 4.12. Relations entre produit scalaire et norme


On a les relations suivantes :
kx + εyk2 = kxk2 + kyk2 + 2ε Re(x|y) (ε = ±1)
kx + yk2 + kx − yk2 = 2(kxk2 + kyk2 ) identité du parallélogramme
kx + yk2 − kx − yk2 = 4 Re(x|y)
4(x|y) = kx + yk2 − kx − yk2 − ikx + iyk2 + ikx − iyk2 identité de polarisation
Dém : Les premières égalités ont déjà été prouvées lors du développement du carré
scalaire. Les deuxième et troisième égalités s’obtiennent en faisant la somme et la
différence des premières égalités. Pour la quatrième, on réécrit la troisième égalité
en remplaçant y par iy 

Remarque 4.3.3. Mnémo : Dans l’identité de polarisation, le coefficient devant la


norme multiplié par le coefficient de y vaut toujours 1.

On retrouve les mêmes notions et le même genre de résultats qu’avec les espaces
préhilbertiens réels, notamment

• Vecteurs unitaires kxk = 1.

• Vecteurs orthogonaux (x|y) = 0 (= (y|x)).

• Sous-espaces vectoriels orthogonaux.


4.3. ESPACES PRÉHILBERTIENS COMPLEXES, HERMITIENS 251

• Orthogonal d’un sous-espace vectoriel F ⊥ .

• Familles orthogonales, orthonormales.

• Relation de Pythagore : Si (ei )i∈[[1,p]] est une famille orthogonale alors

ke1 + · · · + ep k2 = ke1 k2 + · · · + kep k2 .

• Somme directe orthogonale.

• Sous-espaces vectoriels supplémentaires orthogonaux et projecteurs orthogo-


naux associés.

Question :
Si F1 et F2 sont deux sous-espaces vectoriels de E préhilbertien, prouver que F1⊥ ∩
F2⊥ = (F1 + F2 )⊥ .
Montrer que F1⊥ + F2⊥ ⊂ (F1 ∩ F2 )⊥ .

4.3.2 Espaces vectoriels hermitiens

a) Orthogonalité

Définition 4.3.4. Espace hermitien


Un espace hermitien est un espace préhilbertien complexe de dimension finie.

En dépit de la difficulté liée à la notion d’espace vectoriel sur C, on retrouve, à


quelques aménagements près, les mêmes propriétés que pour les espaces euclidiens.

Théorème 4.13. Existence de bases orthonormales


Tout espace hermitien possède une base orthonormale.
Dans une telle base, le produit scalaire s’écrit
n
X
(x|y) = xi yi
i=1

où (xi ) et (yi ) désignent les coordonnées de x et y.


Dém : On raisonne par récurrence sur n = dim E, on pose comme hypothèse de
récurrence :

Tout espace hermitien de dimension n possède une base orthonormale.

• n = 1 : il suffit de prendre un vecteur normé.

• On suppose que la propriété est vraie à l’ordre n−1. Soit en un vecteur normé,
la forme linéaire ϕ définie par ϕ(x) = (en |x) et E ′ = Ker ϕ (orthogonal de en
de dimension n − 1) alors l’hypothèse de récurrence appliquée à E ′ donne une
base orthonormée de E ′ : (e1 , . . . , en−1 ). La famille (e1 , . . . , en−1 , en ) est une
famille orthonormale. On sait que (dans le cas euclidien mais ici c’est pareil)
une famille orthonormale est une famille libre (cf. question (ii) page 227).
Comme dim E = n alors cette famille est bien une base 
252 CHAPITRE 4. ESPACES EUCLIDIENS ET HERMITIENS

On retrouve aussi l’algorithme de Schmidt qui permet de construire une base or-
thonormale à partir d’une base quelconque et qui permet de prouver la proposition
suivante.

Proposition 4.3.2. Toute famille orthonormale se complète en une base orthonor-


male.

Dém : Soit (e1 , . . . , ep ) une famille orthonormale de E espace hermitien de dimension


n, on suppose que p < n. On sait que l’on peut compléter cette famille en une base
de E : (e1 , . . . , ep , εp+1, . . . , εn ). On utilise alors l’algorithme de Schmidt : les p
premiers vecteurs sont exactement les vecteurs e1 , . . . , ep , on note alors ep+1 , . . . , en
les derniers vecteurs obtenus par cet algorithme. La base ainsi obtenue (e1 , . . . , en )
est bien une base orthonormale qui complète la famille (e1 , . . . , ep ) 
Théorème 4.14. Toute forme linéaire f sur E espace hermitien s’écrit sous la
forme f (x) = (a|x) où a ∈ E.
On peut dire alors que E et E ∗ sont semi-isomorphes.
Dém :

• Existence de a : soit (e1 , . . . , en ) une base orthonormale de E, f ∈ E ∗ s’écrit


n
P n
P n
P
f (x) = ai xi où x = xi ei . Il suffit alors de prendre a = ai ei .
i=1 i=1 i=1

• Unicité : si f (x) = (a|x) = (b|x) pour tout x alors (a − b|x) = 0 et, avec
x = a − b, on obtient ka − bk2 = 0 soit a = b. On peut donc définir une
application ϕ qui à f ∈ E ∗ associe a ∈ E défini par

f (x) = (ϕ(f )|x).

• Semi-linéarité : si f (x) = (a|x) et g(x) = (b|x) alors

(λf + µg)(x) = λ(a|x) + µ(b|x) = (λa|x) + (µb|x)


= (λa + µb|x).

On a donc ϕ(λf + µg) = λϕ(f ) + µϕ(g).

• L’injectivité est évidente car si ϕ(f ) = ϕ(g) alors

f (x) = (ϕ(f )|x) = (ϕ(g)|x) = g(x).

• La surjectivité l’est tout autant : pour tout a ∈ E, on peut définir f ∈ E ∗ par


f (x) = (a|x).

Conclusion : ϕ est une application semi-linéaire bijective de E ∗ sur E donc E et E ∗


sont bien semi-isomorphes (en fait on a les mêmes propriétés pour les applications
semi-linéaires que pour les applications linéaires, on aurait pu donc se contenter de
prouver uniquement l’injectivité) 
Retour à E de dimension quelconque.
4.3. ESPACES PRÉHILBERTIENS COMPLEXES, HERMITIENS 253

Théorème 4.15. Si F est un sous-espace vectoriel de dimension finie d’un espace


préhilbertien E alors F admet un supplémentaire orthogonal F ⊥ .
En outre codim F ⊥ = dim F et F ⊥⊥ = F .
La projection orthogonale sur F va s’écrire (dans une base orthonormale de F ) :
n
X
pF (x) = (ej |x)ej
j=1

Attention à l’ordre des vecteurs dans le produit scalaire !


Dém : C’est exactement la même démonstration que la proposition 4.2.2 page 228
et du théorème qui suit (théorème 4.2) 
Avec la définition générale de la distance à un sous-ensemble on a
Proposition 4.3.3. d(x, F ) = kx − pF (x)k et, grâce à Pythagore,
kxk2 = kpF (x)k2 + d(x, F )2 .
Et on retrouve l’inégalité de Bessel
X n
|(ej |x)|2 6 kxk2 .
j=1

Dém : Là aussi, on retrouve les même démonstrations que pour la proposition 4.2.3
et du théorème adjacent, théorème 4.3 page 230 
Enfin, pour conclure ce chapitre, voici un tableau comparatif concernant les espaces
préhilbertiens réels ou complexes. Commençons par les différences :
R C
euclidien hermitien
4(x|y) = kx + yk2 − kx − yk2
4(x|y) = kx + yk2 − kx − yk2
−ikx + iyk2 + ikx − iyk2
E et E ∗ isomorphes E et E ∗ semi-isomorphes
Maintenant, les notions communes :
Cauchy-Schwarz
Orthogonalité
Pythagore
Existence de b.o.n.
Algorithme de Schmidt
Projection orthogonale
Inégalité de Bessel
Questions :
Z 2π
1
(i) Prouver que dans E = Cn [X], B(P, Q) = P (eiθ )Q(eiθ ) dθ est un pro-
2π 0
duit scalaire hermitien.
Si Q = X n + bn−1 X n−1 + · · · + b0 , prouver que sup |Q(z)| > 1 avec égalité ssi
|z|=1
b0 = . . . = bn−1 = 0.
(ii) Montrer que F1⊥ + F2⊥ = (F1 ∩ F2 )⊥ en dimension finie.
254 CHAPITRE 4. ESPACES EUCLIDIENS ET HERMITIENS

Vous aimerez peut-être aussi