Chapitre 2
Chapitre 2
Chapitre 2
26
Chapitre 2. Applications linéaires et matrices
2.
g : R2 −→ R3
(x, y) 7−→ (x + 2y, 3x + 5y, −7x + 11y)
est une application linéaire ( ou homomorphisme).
3. Soit E un espace vectoriel;
IdE : E −→ E
x 7−→ x
est linéaire s’appelle application identité.
27
Chapitre 2. Applications linéaires et matrices
f : (E, +, .) −→ (K, +, .)
R est une relation d’équivalence compatible avec les lois ” + ” et ”.” et on note
E/R l’ensemble des classes d ’équivalence de la relation R. On sait que l’ensemble
E/R muni de la loi interne ” + ” et de la loi externe ”.” définissant par;
x̄ + ȳ = x + y
∀ λ ∈ K; ∀ x̄ ∈ E/R : λ.x̄ = λ.x
est un espace vectoriel sur K, elle s’appelle l’espace quotient de E par R. L’ap-
plication;
s : E −→ E/R
x 7−→ x̄
i : f (E) −→ F
y 7−→ y
28
Chapitre 2. Applications linéaires et matrices
1. Montrer que
xRy ⇐⇒ x − y ∈ Ker(f )
2. En déduire le diagramme de la décomposition de f suivant:
f
E /F
O
s i
f¯
E/Kerf / f (E)
h : H 0 −→ E/H
x 7−→ x̄
est un isomorphisme d’espace vectoriel.
Preuve. L’application h est injective; en effet: soit x ∈ H 0 , on a
h(x) = 0̄ =⇒ x̄ = 0̄
=⇒ x ∈ H
29
Chapitre 2. Applications linéaires et matrices
ii) On définit le rang d’une matrice comme étant le rang de ses vecteurs
colonnes.
iii) Soient E et F deux espaces vectoriels sur K, et f une application de
E dans F et B = {e1 , e2 , . . . , en } la base de E. On définit le rang de
f comme étant le rang des vecteurs {f (e1 ), f (e2 ), . . . , f (en )}. Autrement
dit; rang(f ) = dim(Im(f )).
30
Chapitre 2. Applications linéaires et matrices
La matrice
α1,1 α1,2 · · · α1,p
α2,1 α2,2 · · · α2,p
MBB 0 (f ) =
.. .. .. ..
. . . .
αn,1 αn,2 · · · αn,p
qu’est une matrice dont la j ieme colonne est formée des coordonnées de f (ej ) dans
la base {f1 , f2 , . . . , fn } de F, s’appelle matrice associée à l’application linéaire f,
pour les bases B et B 0 . Elle est unique pour ces bases B et B 0 .
Inversement; si on se donne une matrice M ∈ Mn,p (K) où Mn,p (K) est l’en-
semble des matrices de type (n, p), on lui est associée une application linéaire
définit par:
f : E −→ F
x 7−→ f (x) = M.x
x1
x2
où x = c.a.d; x = x1 .e1 + x2 .e2 + · · · + xp .ep
..
.
xp
31
Chapitre 2. Applications linéaires et matrices
f 7−→ MBB 0 (f )
est une application linéaire bijective.
• Notation: Dans le cas où E = F, (ie; n = p) on note Mn,n (K) = Mn (K) et L(E, F ) =
L(E)
i) Mn (K) s’appelle l’ensemble des matrices carrées d’ordre n.
ii) L(E) s’appelle l’ensemble des endomorphismes.
Corollaire 2.2.2. L’espace vectoriel (Mn,p (K), +, .) est de dimension n × p.
Preuve. Considérons la familles des matrices Aij ∈ Mn,p (K) telles que 1 ≤ i ≤
n; 1 ≤ j ≤ p tels que les éléments de chaque matrice Aij sont tous nuls sauf celui
de iemes ligne et j emes colonne qui vaut 1. Cette famille de matrices est libre et
de plus c’est une partie génératrice de Mn,p (K), car
p
n X
X
∀ A = (aij )i,j ∈ Mn,p (K), on a : A = aij Aij .
i=1 j=1
2 √ −3
Exemples 2.2.3. Prenons A = ∈ M2 (R). On a
4 2
√
2 √−3 1 0 0 0 0 1 0 0
A= = 2. + 4. + (−3). + 2.
4 2 0 0 1 0 0 0 0 1
dim(M2 (R)) = 2 × 2 = 4.
Corollaire 2.2.4. dim(L(E, F )) = dim(F ) × dim(E).
Preuve. On sait que ces deux espaces (L(E, F ), +, .) et (Mn,p (K), +, .) sont iso-
morphes, donc ont même dimension. D’où le résultat.
32
Chapitre 2. Applications linéaires et matrices
Exercice. 1. Soit
f : R2 −→ R3
(x, y) 7−→ (x + 2y, 3x + 5y, −7x + 11y)
en utilisant les bases canoniques respectivement de R2 et R3 , trouver la
matrice associée à f .
2. Soit E un espace vectoriel de dimension n. Déterminer la matrice associée
à IdE .
Proposition 2.2.5. Soit f : E −→ F une application linéaire et B, B 0 respecti-
vement les bases de E et F. On a;
f bijective ⇐⇒ MBB 0 (f ) est inversible .
−1
Dans ce cas on a MBB 0 (f ) = MB 0 B (f −1 ).
Preuve. Posons n = dim(F ) = dim(E).
• f bijective implique f of −1 = IdF et f −1 of = IdE , donc MB 0 B 0 (f of −1 ) =
MB 0 B 0 (IdF ) et MBB (f −1 of ) = MBB (IdE )
=⇒ MBB 0 (f ) × MB 0 B (f −1 ) = MB 0 B (f −1 ) × MBB 0 (f ) = In ; (In matrice identité)
−1
d’où MBB 0 (f ) est inversible et MBB 0 (f ) = MB 0 B (f −1 ).
• Inversement; si MBB 0 (f ) est inversible, soit A ∈ Mn (K) telle que
MBB 0 (f ) × A = A × MBB 0 (f ) = In ,
et soit g ∈ L(F, E) telle que MB 0 B (g) = A, c’est à dire; ∀ y ∈ F : g(y) = A.y .
On a alors MBB (gof ) = MB 0 B 0 (f og) = In . Donc gof = IdE et f og = IdF , d’où
f est inversible.
0 0 0 0
33
Chapitre 2. Applications linéaires et matrices
34
Chapitre 2. Applications linéaires et matrices
MB2 B20 (f ) = MB10 B20 (IdF ) × MB1 B10 (f ) × MB2 B1 (IdE ) = Q−1 MB1 B10 (f )P.
Exercice. Soit
f : R2 −→ R3
(x, y) 7−→ (x + 2y, 3x − 5y, 6x − y)
Soient B1 , B10 les bases canoniques respectivement de R2 et R3 . Posons B2 =
{(1, 1), (2, 3)} ⊂ R2 , B20 = {(1, 1, 0), (1, 0, 1), (0, 1, 1)} ⊂ R3 .
1. Vérifier que B2 et B20 sont respectivement des bases de R2 et R3 .
2. Déterminer MB1 B10 (f ) et MB2 B20 (f ).
3. Trouver les matrices de passages P = PB1 B2 et Q = QB10 B20 , puis Q−1 .
4. Vérifier que MB2 B20 (f ) = Q−1 MB1 B10 (f )P.
35
Chapitre 2. Applications linéaires et matrices
n = dim(E) ≥ 1 et B = (e1 , e2 , . . . , en )
e∗i : E −→ K
n
X
x= xi ei 7−→ xi
i=1
µ : E −→ R
Z b
f 7−→ f (x)dx
a
est une forme linéaire sur E.
δi,j s’appelle symbole de Kronecker. La famille qu’on note B ∗ = (e∗1 , e∗2 , . . . , e∗n )
est une base de E ∗ , en effet: les e∗i sont bien des éléments de E ∗ (voir l’exemple
précédent), d’autre part soient ψ ∈ E ∗ et (λ1 , λ2 , . . . , λn ) ∈ K n , on a;
n
X n
X
λi e∗i = ψ ⇐⇒ ∀ j ∈ {1, 2, . . . , n}, λi e∗i (ej ) = ψ(ej )
i=1 i=1
⇐⇒ ∀ j ∈ {1, 2, . . . , n}; λj = ψ(ej ).
36
Chapitre 2. Applications linéaires et matrices
Donc si ψ ≡ 0, alors λj = 0, ∀ j ∈ {1, 2, . . . , n}, d’où (e∗1 , e∗2 , . . . , e∗n ) est libre
Xn
∗ ∗
dans E . De plus pour tout ψ ∈ E on a ψ = ψ(ei ).e∗i , ce qui montre que
i=1
(e∗1 , e∗2 , . . . , e∗n ) engendre E ∗ . Enfin (e∗1 , e∗2 , . . . , e∗n ) est une base de E ∗ .
Définition 2.4.3. La base (e∗1 , e∗2 , . . . , e∗n ) de E ∗ citée précédemment s’appelle
base duale de la base B et se note par B ∗ .
Corollaire 2.4.4. dim(E ∗ ) = dim(E).
Preuve. D’après la démonstration précédente.
Remarque 2.4.5. Soient B = (e1 , e2 , . . . , en ) une base de E, B ∗ = (e∗1 , e∗2 , . . . , e∗n )
sa base duale on a:
e∗1
n e∗
∗
X
∗ 2
i) ∀ ψ ∈ E : ψ = ψ(ei ).ei = ψ(e1 ), ψ(e2 ), . . . , ψ(en ) . ..
i=1
.
e∗n
e1
Xn Xn e2
ii) ∀ x ∈ E : x = xi e i = e∗i (x)ei = e∗1 (x), e∗2 (x), . . . , e∗n (x) . ..
i=1 i=1
.
en
Proposition 2.4.6. (Changement de base pour la dualité)
Soient B, B 0 deux bases de E, P la matrice de passage de B à B 0 . Alors la matrice
de passage de B ∗ à B 0∗ est t P −1 .
Preuve. Notons B = (e1 , e2 , . . . , en ), B 0 = (f1 , f2 , . . . , fn ), P = (pij )i,j , la ma-
trice de passage de B à B 0 , puis Q = (qij )i,j , la matrice de passage de B ∗ à B 0∗ . On
Xn Xn Xn
2 ∗ ∗ ∗
a pour tout (i, j) ∈ {1, 2, . . . , n} : fj (fk ) = fj ( plk el ) = ( qij ei )( plk el ) =
l=1 i=1 l=1
n X
X n n
X
qij plk δil = qij pik , ça d’une part, d’autre part fj∗ (fk ) = δjk . Donc
i=1 l=1 i=1
n
X
qij pik = δik . Ceci montre que t Q.P = In , d’ où Q = t P −1 .
i=1
37
Chapitre 2. Applications linéaires et matrices
2.4.2 Hyperplans
Définition 2.4.7. Soit E un espace vectoriel. Les hyperplans de E sont les noyaux
des formes linéaires sur E autre que la forme nulle, c’est à dire;
si f : E −→ K
x 7−→ f (x)
une forme linéaire non nulle, H = Ker(f ) est un hyperplan de E. Autrement dit;
un sous e.s.v H est un hyperplan si et seulement si;
Exemples 2.4.8.
ψ : R2 −→ R
(x, y) 7−→ x + y
est une forme linéaire, Ker(ψ) = {(x, y) ∈ R2 | x + y = 0} est un hyperplan.
38
Chapitre 2. Applications linéaires et matrices
x 7−→ λ
ψ est linéaire et bien définie car pour chaque x ∈ E il existe un unique λ, et x2 ∈
H tq x = λ.u0 + x2 , on a alors ψ ∈ E ∗ − {0}, et Ker(ψ) = H.
Preuve. ⇐=) Il est clair que pour tout α ∈ K − {0} : Ker(α.ϕ) = Ker(ϕ) = H.
=⇒) Réciproquement; soit ψ ∈ E ∗ − {0} tq H = Ker(ψ). Il existe x0 ∈ E tel
que ϕ(x0 ) 6= 0, (car ϕ ∈ E ∗ − {0}, or H = Ker(ϕ) donc;
v : E −→ Kp
39
Chapitre 2. Applications linéaires et matrices
ϕ : E × F −→ K
Exemples 2.5.3.
ψ : R2 × R2 −→ R
((x, y), (x0 , y 0 )) 7−→ xy 0 + x0 y
ψ : R × R −→ R
(x, y) 7−→ xy
2.5.1 L’othogonalité
D’abord l’application;
ϕ : E × E ∗ −→ K
(x, f ) 7−→ ϕ(x, f ) = f (x)
est une forme bilinéaire (vérifiez ça), s’appelle forme bilinéaire canonique définie
sur E × E ∗ , et on note ϕ(x, f ) = f (x) =< x, f > . Donc on aura
i) < λ.x + λ0 .x0 ; f >= λ. < x; f > +λ0 . < x0 ; f > .
ii) < x; λ.f + λ0 .g >= λ. < x; f > +λ0 . < x; g > .
40
Chapitre 2. Applications linéaires et matrices
⊥
x∈ F ⇐⇒ < x, f >= 0, ∀ f ∈ F
⇐⇒ x ∈ Ker(f ), ∀ f ∈ F
⇐⇒ x ∈ ∩ Ker(f ).
f ∈F
41
Chapitre 2. Applications linéaires et matrices
n
X
D’où f = λi e∗i , ceci dit que X ⊥ est engendré par {e∗p+1 , e∗p+2 . . . , e∗n }
i=p+1
et puisque {e∗p+1 , e∗p+2 . . . , e∗n } est libre, alors c’est une base de X ⊥ .
Donc dim(X) + dim(X ⊥ ) = dim(E).
2. De la même manière.
Corollaire 2.5.8. Dans le cas de dimension finie et avec les mêmes notations
on a: ⊥ (X ⊥ ) = X.
Preuve. On sait que X ⊂ ⊥ (X ⊥ ) et dim(X) = n − dim(X ⊥ ) et or aussi
dim(X ⊥ ) + dim ⊥ (X ⊥ ) = dim(E), alors;
F ⊥ = {ϕ ∈ E ∗∗ | < f, ϕ >= 0, ∀ f ∈ F }
f 7−→ t u(f ) = f ◦ u
est caractérisée par le fait que ∀ x ∈ E et ∀ f ∈ F ∗ , on a:
42
Chapitre 2. Applications linéaires et matrices
φ : L(E, F ) −→ L(F ∗ , E ∗ )
u 7−→ t u
est linéaire.
b) Soient E, F et G trois espaces vectoriels sur K et u ∈ L(E, F ), v ∈ L(F, G)
on a:
t
(v ◦ u) = t u ◦ t v.
c) Soit l’application identique de E; idE : E −→ E. On a t idE = idE ∗ .
d) Soit u appartient à L(E, F ), si u est inversible, alors t u est aussi inversible
et on a ( t u)−1 = t (u−1 ).
∀ f ∈ G∗ : t
(v ◦ u)(f ) = f ◦ (v ◦ u)
= (f ◦ v) ◦ u
= t u(f ◦ v)
= t u( t v(f ))
= t u ◦ t v(f )
d’où le résultat.
c) On a ∀ f ∈ E ∗ : t idE (f ) = f ◦ idE = f = idE ∗ (f ), donc t idE = idE ∗ .
d) Si u est inversible, alors u−1 ◦ u = idE =⇒ t (u−1 ◦ u) = t idE =⇒ t u◦ t u−1 =
idE ∗ , d’où t u−1 = ( t u)−1 .
Ker( t u) = (Im(u))⊥ .
43
Chapitre 2. Applications linéaires et matrices
f ∈ Ker( t u) ⇐⇒ t u(f ) = 0
⇐⇒ ∀ x ∈ E : t u(f )(x) =< x; t u(f ) >=< u(x); f >= 0
⇐⇒ ∀ y ∈ Im(u) : < y; f >= 0
⇐⇒ f ∈ (Im(u))⊥
X̃ : E ∗ −→ K
44
Chapitre 2. Applications linéaires et matrices
f 7−→ f (X)
est une forme linéaire sur E ∗ , et l’application:
ϕ : E −→ E ∗∗
X 7−→ X̃
est un isomorphisme; en effet:
donc X̃ est une forme linéaire ce qui dit que ϕ est bien définie. D’autre
part;
^
(λX + µY )(f ) = f (λX + µY )
= λf (X) + µf (Y )
= λX̃(f ) + µỸ (f ); valable ∀ f ∈ E ∗
X̃ = 0 ⇐⇒ ∀ f ∈ E ∗ : X̃(f ) = 0
⇐⇒ ∀ f ∈ E ∗ : f (X) = 0
⇐⇒ ∀ f ∈ E ∗ : f ∈ {X}⊥
⇐⇒ E ∗ ⊂ {X}⊥
⇐⇒ X ∈ ⊥ (E ∗ ) = {0E }
⇐⇒ X = 0E
45
Chapitre 2. Applications linéaires et matrices
φ : L(E, F ) −→ L(F ∗ , E ∗ )
u 7−→ t u
est un isomorphisme. Ceci nous permet de définir un isomorphisme entre deux
espaces Mp,n (K) et Mn,p (K).
46
Chapitre 2. Applications linéaires et matrices
A 7−→ t A
est un isomorphisme, et on a bien t A = (bji ) avec bji = aij .
1≤j≤n
1≤i≤p
ϕ−1
1 φ ∗ ∗ ϕ2
Preuve. On a; ψ : Mp,n (K) −→ L(E, F ) −→ L(F , E ) −→ Mn,p (K)
t t
A 7−→ u 7−→ u 7−→ A
−1 −1
c’est à dire ψ = ϕ2 ◦ φ ◦ ϕ1 , puisque ϕ2 , φ, et ϕ1 sont des isomorphismes, alors
ψ est un isomorphisme.
h=n
X
t
De plus nous avons; u(fi ) =∗
bhi .e∗h , donc bji = t u(fi∗ )(ej ). Ceci nous donne;
h=1
Preuve. Cela revient au fait que rang(u) = rang( t u) où u, et t u sont respec-
tivement les endomorphismes associées à A et t A.
47
Chapitre 3
~ AC)|
Mais Algébriquement comment passer de |det(AB, ~ ~ AD)|
à |det(AB, ~ et à
~ ~
|det(AC, AD)|?.
48
Chapitre 3. Déterminant d’une matrice carrée et systèmes de Cramer
~ AC)
On a det(AB, ~ = det(AB, ~ AB ~ + BC).
~ Alors si l’application ”det” vérifie
~ ~ ~ ~ ~ ~
det(AB, AB + BC) = det(AB, AB) + det(AB, BC) ~ (ie; bilinéaire) , et
~ AB)
det(AB, ~ = 0 (ie; Alternée) . On obtient le résultat:
~ AC)
det(AB, ~ = det(AB,
~ BC)
~ = det(AB,
~ AD)
~ car AD
~ = BC.
~
en tenant compte du fait que ”det” est une application trilinéaire alternée.
• En général: la valeur absolue du déterminant de n vecteurs dans l’espace
vectoriel E est donné par le volume du parallélotope engendré par ce système de
n vecteurs. La définition algébrique du déterminant nécessite d’abord la définition
d’ une application multilinéaire alternée.
f : E n −→ K
49
Chapitre 3. Déterminant d’une matrice carrée et systèmes de Cramer
(u1 , u2 , . . . , un ) −→ f (u1 , u2 , . . . , un )
est dite n-linéaire si elle vérifié:
f (u1 , u2 , . . . , α.ui +β.u0i , . . . , un ) = α.f (u1 , u2 , . . . , ui , . . . , un )+β.f (u1 , u2 , . . . , u0i , . . . , un ), ∀ ui , u0i ∈
E avec i = 1, 2 . . . , n et ∀α, β ∈ K; c’est à dire qu’elle est linéaire par rapport à chacune
des variables
• Elle est dite alternée si:
f (u1 , u2 , . . . , ui . . . , uj , . . . , un ) = −f (u1 , u2 , . . . , uj . . . , ui , . . . , un ), ∀ i 6= j; c’est à dire
que l’échange de 2 variables la transforme en son opposé.
f : R × R −→ R
(x, y) −→ 3xy
est une forme bilinéaire mais n’est pas alternée.
• L’application;
f : R2 × R2 −→ R
(X, Y ) −→ x1 y2 − x2 y1
x1 y1
où X = ,Y = ; est une forme bilinéaire alternée.
x2 y2
Remarque 3.1.3. Quand on aura 2 fois même vecteur, la forme est égale à
son opposé et donc nulle; c’est à dire f (u1 , u2 , . . . , ui . . . , ui , . . . , un ) = 0, ∀ i =
1, 2, . . . , n.
f : E n −→ K
(v1 , v2 , . . . , vn ) −→ f (v1 , v2 , . . . , vn )
Preuve. Pour la simplicité, on montre ce théorème dans le cas de n = 2. Notons
v1 = α1 e1 + β1 e2 ; v2 = α2 e1 + β2 e2 . On a
f (v1 , v2 ) = f (α1 e1 + β1 e2 , α2 e1 + β2 e2 )
= α1 α2 f (e1 , e1 ) + α2 β1 f (e2 , e1 ) + β2 α1 f (e1 , e2 ) + β1 β2 f (e2 , e2 )
= (β2 α1 − α2 β1 ) ×f (e1 , e2 ).
| {z }
detB (v1 ,v2 )
Donc f est bien définie par f (e1 , e2 ), et par les composantes de v1 , et v2 . Pour une
valeur donnée de f (e1 , e2 ), par exemple f (e1 , e2 ) = 1, il existe une unique application
définie par l’expression (β2 α1 − α2 β1 ).
50
Chapitre 3. Déterminant d’une matrice carrée et systèmes de Cramer
detB : E n −→ K
Remarque 3.1.6. Le calcul de detB (v1 , v2 , . . . , vn ) se fait via les composantes des
vecteurs vi , où i = 1, 2, . . . , n ( voir la démonstration du théorème précédent).
51
Chapitre 3. Déterminant d’une matrice carrée et systèmes de Cramer
52
Chapitre 3. Déterminant d’une matrice carrée et systèmes de Cramer
53
Chapitre 3. Déterminant d’une matrice carrée et systèmes de Cramer
Proposition 3.4.1. Soit A = (aij ) une matrice carré d’ordre n, et soit Aij
1≤i≤n
1≤j≤n
la matrice déduite de A en supprimant la ligne i et la colonne j, on a:
Xn
i) ∀ j; det(A) = (−1)i+j aij det(Aij ). Développement par rapport à la j iéme
i=1
colonne.
n
X
ii) ∀ i; det(A) = (−1)i+j aij det(Aij ). Développement par rapport à la i iéme
j=1
ligne.
54
Chapitre 3. Déterminant d’une matrice carrée et systèmes de Cramer
A B In 0Mn,p A
B
Preuve. Remarquez que = ×, donc
0Mp,n C 0Mp,n C 0Mp,n Ip
A B In 0Mn,p A B
det = det × det .
0Mp,n C 0Mp,n C 0Mp,n Ip
In 0Mn,p
Pour det , en développant par rapport à la première ligne, on trouve
0Mp,n C
In 0Mn,p A B
que det = det(C), et pour det , en développant par
0Mp,n C 0Mp,n Ip
A B
rapport à la deuxième ligne, det = det(A). D’où le résultat.
0Mp,n Ip
Proposition 3.4.5. Soit A une matrice carrée inversible. On a: A−1 = det(A)
1 t com(A),
où com(A) = (Lij ) , avec Lij = (−1)i+j det(Aij ), et qui s’appelle la coma-
1≤i≤n
1≤j≤n
trice de A.
Preuve. Le calcul de t com(A) × A donne le det(A) pour les termes de la diago-
nale et 0 pour les autres, ( cela revient à développer undéterminant qui a 2 co-
L11 L12 · · · L1n
L21 L22 · · · L2n
lonnes identiques), en effet: D’abord posons, com(A) = . .. ,
.. ..
.. . . .
Ln1 Ln2 · · · Lnn
L11 L21 ··· Ln1
L12 L22 ··· Ln2
donc t com(A) = . et montrons que t com(A) × A =
.. .. ..
.. . . .
L1n L2n · · · Lnn
L11 L21 · · · Ln1 a11 a12 ··· a1n det(A) 0 ··· 0
L12 L22 · · · Ln2 a21 a22 ··· a2n 0 det(A) · · · 0
.. × = .
.. .. . . .. .. .. .. .. .. .. ..
. . . . . . . . . . . .
L1n L2n · · · Lnn an1 an2 ··· ann 0 0 ··· det(A)
X n
Il est claire que ∀ j; aij Lij = det(A) donc les coefficients diagonaux sont égaux à
i=1
n
X
det(A). Il nous reste à montrer que aij Lik = 0, pour tout couple (j, k) tq j 6= k,
i=1
notons B = (bir )ir la matrice obtenue en remplaçant dans A la k-iéme colonne par
la j-iéme colonne de A, alors d’une part det(B) = 0 car la matrice B contient deux
colonnes identiques. D’autre part; on calcule det(B) en développant par rapport à la
Xn X n n
X
i+k
k-iéme colonne on a det(B) = (−1) bik det(Bik ) = bik Lik = aij Lik , d’où
i=1 i=1 i=1
n
X
aij Lik = 0; ∀ (j, k) tq j 6= k.
i=1
Remarque 3.4.6. Toutefois cette formule n’a qu’un intérêt théorique puisqu’elle exige
le calcul de n2 déterminants ce qui est trop même si n = 3.
55
Chapitre 3. Déterminant d’une matrice carrée et systèmes de Cramer
Si A ∈ Mn (K) est
inversible,
le système
A.X = b admet une solution unique, c’est
x1 b1
x2 b2
X = A−1 b, où X = . et b = . . On a la proposition suivante:
.
. . .
xn bm
56
Chapitre 4
57
Chapitre 4. Réduction des endomorphismes et des matrices carrées
58
Chapitre 4. Réduction des endomorphismes et des matrices carrées
Exercice. 1. On note GLn (K) l’ensemble des matrices carrées inversibles. Montrer
que A ∈ GLn (K) ⇐⇒ 0 6∈ Sp(A).
2. Soit A une matrice carrée d’ordre n. Supposons que les sommes de toutes ses
lignes (ou de toutes ses colonnes) sont égales à la même valeur α. Montrer que
α est une valeur propre de A.
Définition 4.1.5. Pour toute valeur propre λ de f, le sous espace vectoriel noté Eλ =
Ker(f − λIdE ) de E est formé par des vecteurs propres associés à λ plus le vecteur nul.
Il est appelé sous-espace propre pour f associé à λ. Autrement dit;
Dans le cas de dimension finie; si A une matrice carrée d’ordre n et λ une valeur propre
de A, alors Eλ = Ker(A − λIn ) est appelé sous-espace propre pour A associé à λ.
2. Une matrice carrée A est diagonalisable si elle est semblable à une matrice
diagonale D, c’est-à-dire si elle s’écrit sous la forme; A = P DP −1 où P est la
matrice de passage de la première base à une base de vecteurs propres de A et
D une matrice diagonale.
diagonalisable, alors elle est semblable à une matrice diagonale noté D qui n’est
autre qu’une matrice associée à l’endomorphisme f dans une base des vecteurs
propres et donc f est diagonalisable.
ii) Tout matrice diagonale est diagonalisable.
iii) Pour diagonaliser un endomorphisme ou sa matrice associée, il faut trouver
d’abord les valeurs propres, puis les espaces propres associées.
59
Chapitre 4. Réduction des endomorphismes et des matrices carrées
PA : K −→ K
Preuve. On utilise l’expression de calcul du ”det”, puis le fait que β0 = PA (0) = det(A).
Exercice. Soit
8 12 10
A = −9 −22 −22
9 18 17
1. Déterminer les valeurs propres de A et donner leurs multiplicités.
2. Déterminer les vecteurs propres associes à chaque valeur propre.
60
Chapitre 4. Réduction des endomorphismes et des matrices carrées
Corollaire 4.2.10. Si λ une valeur propre simple ( ie; de multiplicité 1), alors dim(Eλ ) =
1.
61
Chapitre 4. Réduction des endomorphismes et des matrices carrées
Yk
On a donc ∀ λ ∈ K : Pf (X) = det(M atB 0 (f ) − X.In ) = (λi − X). Ainsi Pf
X X i=1
est scindé est donc mλ = n = dλ , et or 1 ≤ dλ ≤ mλ , alors
λ∈Sp(f ) λ∈Sp(f )
nécessairement pour chaque λ, on aura dλ = mλ .
⇐=) Réciproquement; supposons Pf est scindé et ∀ λ ∈ Sp(f ); dλ = mX λ . Puisque
Pf est scindé et que les racines de Pf sont des valeurs propres, alors mλ =
λ∈Sp(f )
X
n. D’où dλ = n, et donc f est diagonalisable.
λ∈Sp(f )
62
Chapitre 4. Réduction des endomorphismes et des matrices carrées
63
Chapitre 4. Réduction des endomorphismes et des matrices carrées
est semblable à T. Or det(A − X.In ) = det(T − X.In ), car A − X.In est T − X.In sont
Yn
aussi semblables, donc Pf (X) = PA (X) = (Tii − X) qu’est scindé.
i=1
Inversement: ii) =⇒ i); on suppose que PA (X) est scindé, par récurrence sur n; (dim(E) =
n), et on montre que A est trigonalisable.
• Pour n=1 la propriété est triviale.
• Hypothèse de récurrence: supposons que la propriété est vraie pour n ≥ 2, et soit
A ∈ Mn+1 (K) telle que PA (X) soit scindé, alors
A admet
au moins une valeur propre λ1
x1
x2
et un vecteur propre qui lui est associée U1 = . . D’après le théorème de la base
.
.
xn+1
vecteurs deE tel que B 0 = {U1 , U2 , U3 , . . . , Un+1 }
incomplète; il existe U2 , U3 , . . . , Un+1
λ1 L
est une base de E et M atB 0 (f ) = , avec L ∈ M1,n (K) est un vecteur
Oc D
0
0
ligne de n colonnes et Oc ∈ Mn,1 (K) est un vecteur colonnes nul; ie: Oc = . ,
..
0
et D est une matrice carrée; ici D ∈ Mn,n (K). Or A est semblable
à M at B 0 (f ), alors
λ1 − X L
PA (X) = det(A − X.In+1 ) = det(M atB 0 (f ) − X.In+1 ) = det =
Oc D − X.In
(λ − X) × det(D − X.In ) = (λ1 − X) × PD (X). Or PA (X) est scindé, il en résulte que
PD (X) est aussi scindé sur K, donc d’après l’hypothèse de récurrence il existe Q matrice
−1
d’ordre n et
inversible, et T ∈ Mn (K) une matrice triangulaire telle que D = QT Q .
1 OL 1 OL
Notons R = ∈ Mn+1 qu’est inversible et d’inverse R−1 = ,
Oc Q Oc Q−1
avec OL = (0, 0, ..., 0) ∈ M1,n est un vecteur ligne de n composantes nuls. Il reste
à montrer
qu’il existe X∈ M1,n (K vecteur ligne de n composantes tel que pour
λ1 X λ1 L
T1 = , on ait = RT1 R−1 . Il suffit de choisir X = L.Q, en effet:
Oc T Oc D
λ1 X.Q−1
−1 1 OL λ1 X 1 OL
RT1 R = . . = = M atB 0 (f ).
Oc Q Oc T Oc Q−1 Oc D
−1 −1 P −1 et cela montre que A est sem-
Donc on a A = PBB 0 M atB 0 (f )PBB 0 = PBB 0 RT1 R BB 0
λ1 X
blable à T1 = qu’est triangulaire supérieure, puisque T l’est. Donc A est
Oc T
diagonalisable.
Preuve. D’après le théorème d’Alembert qui dit que tout polynôme dans C[X] est
scindé, alors d’après le théorème précédent, f (ou A) est trigonalisable.
64
Chapitre 4. Réduction des endomorphismes et des matrices carrées
P = ar X r + ar−1 X r−1 + · · · + a0 .
ϕ : K[X] −→ L(E)
65
Chapitre 4. Réduction des endomorphismes et des matrices carrées
2. Même méthode.
66
Chapitre 4. Réduction des endomorphismes et des matrices carrées
67
Chapitre 4. Réduction des endomorphismes et des matrices carrées
D’où (Pgx (f ))(x) = (−1)rx (f rx (x) − arx −1 f rx −1 (x) − · · · − a1 f (x) − a0 .x). D’autre
part Pgx /Pf , en effet: par le théorème de base incomplète on peut compléter la base
Bx de Ef (x) en une base de E qu’on note B, alors il existe deux matrices D ∈ Mrx ,n−rx (K) et C ∈
Mn−rx (K) telles que
A D
M atB (f ) =
0 C
68
Chapitre 4. Réduction des endomorphismes et des matrices carrées
A − λ.Irx D
Alors Pf (λ) = det = det(A − λ.Irx ) × det(C − λ.In−rx ) =
0 C − λ.In−rx
Pgx (λ)×PC (λ), et comme PC ∈ K[X], on conclut que Pgx /Pf . Donc il existe Qx ∈ K[X]
tel que Pf = Qx × Pgx ce qui implique Pf (f ) = Qx (f ) ◦ Pgx (f ), puis Pf (f )(x) =
Qx (f )(Pgx (f )(x)) = Qx (f )(0) = 0, et ceci est vrai pour tout le choix de x ∈ E, d’où
Pf (f ) = 0 c’est à dire Pf est un polynôme annulateur de f.
69
Chapitre 4. Réduction des endomorphismes et des matrices carrées
Chaque Ker(Qi (f )) admet une base Bi ayant ni éléments; notons B = ∪ri=1 Bi . Comme
pour tout i ∈ {1, 2, . . . , r}, Ker(Qi (f )) est stable par f, la matrice de f dans B est
bien diagonale par blocs.
Exemples 4.4.15. Diagonaliser par blocs la matrice suivante:
3 −5 3 −5
2 −3 −2 −2
A=
0 0 1 −1
0 0 5 −1
Indication: Il faut calculer et factoriser le polynôme caractéristique associée à A et
de chercher les Bi et puis B dans la quelle A est diagonale en blocs,
70
Chapitre 4. Réduction des endomorphismes et des matrices carrées
Alors;
i) Si γ < βi , l’endomorphisme R(f ) n’est pas nul d’après la définition du polynôme
minimal, et donc Ker(R(f )) 6= E.
Comme Ker(f −λi IdE )γ ⊂ Ker(f −λj IdE )βi , alors les décompositions de (4.1)
et (4.2) entrainent Ker(f − λi IdE )γ ( Ker(f − λj IdE )βi .
ii) Si γ ≥ βi , dans ce cas on a: Qf (X)/R(X) =⇒ R(f ) = 0 =⇒ Ker(R(f )) = E et
d’après (4.1) et (4.2), on obtient Ker(f − λi IdE )γ = Ker(f − λi IdE )βi .
71
Chapitre 4. Réduction des endomorphismes et des matrices carrées
P (i) (λk )
où αi = i! . (vérifions ça).
Lemme 4.6.2. Si F désigne un sous espace vectoriel tel que Ker(f k ) ∩ F = {0}, alors
Ker(f k−1 ) ∩ f (F ) = {0}, et f : F −→ f (F ), est un isomorphisme.
72
Chapitre 4. Réduction des endomorphismes et des matrices carrées
73
Chapitre 4. Réduction des endomorphismes et des matrices carrées
r
Y
Preuve. L’existence: Soit Pf (X) = (−1)n (X − λ)αk . Rappelons les notations de
k=1
r
M
la définition 4.5.1 et les théorèmes 4.5.3, 4.5.4 on a E = Nk , et notons pour
k=1
tout k ∈ {1, 2, . . . , r}, ek = IdNk , fk l’endomorphisme induit par f sur Nk et vk =
fk − λk ek . Considérons les endomorphismes d et v définis par recollement respectif des
λk ek et des vk , et on a pour tout x ∈ E; ∃ (x1 , x2 , . . . xr ) unique tel que x = x1 + x2 +
Xr Xr
· · · + xr , avec xi ∈ Ni . On pose alors d(x) = λk xk , et v(x) = vk (xk ). Dans une
k=1 k=1
base réunion de bases des Ni , la matrice associée à l’endomorphisme d est
λ1 .Iα1 0 ··· 0
0 λ2 .Iα2 · · · 0
.. .. .. ..
. . . .
0 0 · · · λr .Iαr
r
X
α
v (x) = vkα (xk ) = 0,
k=1
r
X
d’où f = d+v. Nous vérifions facilement que pour tout x ∈ E; (d◦v)(x) = λk vk (xk ) =
k=1
(v ◦ d)(x), d’où d ◦ v = v ◦ d.
Notons Qk le polynôme défini par (X − λk )αk × Qk (X) = Pf (X), avec (X − λk ) ne
divise pas Qk (X). D’après l’identité de Bezout il existe deux polynômes Uk (X), Vk (X)
tels que Uk (X).Qk (X) + Vk (X).(X − λk )αk = 1 ce qui implique
Uk (f ) ◦ Qk (f ) + Vk (f ) ◦ (f − λk )αk = IdE .
M
Or E = Nk ⊕ Ni = Nk ⊕ Ker(Qk (f )), alors x ∈ E s’écrit d’une façon unique
i6=k
comme x = xk + x0 , avec xk ∈ Nk , x0 ∈ Ker(Qk (f )); ceci nous permet d’écrire
Uk (f ) ◦ Qk (f ) (x) + Vk (f ) ◦ (f − λk )αk (x) = x
| {z } | {z }
xk x0
M
cela dit que le projecteur sur Nk parallèlement à Ni est Uk (f ) ◦ Qk (f ) qu’est un
i6=k
74
Chapitre 4. Réduction des endomorphismes et des matrices carrées
r
X r
X
polynôme en f. Or d(x) = λk xk , = λk Uk (f ) ◦ Qk (f ) (x) alors
k=1 k=1
r
X
d= λk Uk (f ) ◦ Qk (f ) ,
k=1
75
Chapitre 4. Réduction des endomorphismes et des matrices carrées
r
Y r
Y
αi
Preuve. Notons Pf (X) = (−1)n (X − λi ) , Qf (X) = (X − λi )βi respectivement
i=1 i=1
polynôme caractéristique et minimal de f. Alors E est somme directe des sous espaces
caractéristiques Nk = Ker(f − λk IdE )αk . Chaque fk = f /Nk : Nk −→ Nk , s’écrit fk =
vk +λk .IdNk avec vk = fk −λk .IdNk nilpotent d’indice βk . D’après le théorème 4.6.4 de
la réduction d’un endomorphisme nilpotent, il existe une base Bk de Nk dans la quelle
la matrice de vk est de la forme;
0 1 0 ··· 0
0 0 2 . . .
..
.
.. . . . . .. ,
. . . . 0
..
..
. . 0 αk −1
0 0 ··· 0 0
avec i ∈ {0, 1}, et la matrice de fk dans cette base aura comme suivante:
λk 1 0 ··· 0
0 λk 2 . . .
..
.
.. . . . . .. ,
. . . . 0
..
..
. . λ k αk −1
0 0 ··· 0 λk
avec i ∈ {0, 1}, et cette matrice est bien formée de blocs de Jordan sur la diagonale
principale et de zéros partout ailleurs. Prenons alors B = ∪rk=1 Bk , et dans la base B la
matrice de f sera de la forme J du théorème.
76
Chapitre 4. Réduction des endomorphismes et des matrices carrées
−2 3
alors E2 = y 1 + z 0 , d’où dim(E2 ) = dim(Ker(f − 2IdR3 )) = 2, alors
0 1
dim(F2 ) = 1. Choisissons alors une base de F2 , or e3 6∈ E2 , car (M − 2I3).e3 6= 0, alors
−3
e3 ∈ F2 et est constitue une base de F2 . On a f1 (e3 ) = (M − 2I3 ).e3 = −12 = e01 ,
−9
0
et on vérifie que (M − 2I3 ).e01 = 0 , donc e01 ∈ E2 . Nous complétons e01 par un
0
vecteur dans Ker(f −
R2I 3 ) pour construire une base deKer(f − 2IR3 ), enchoisissant
−2 −3 0
par exemple; e03 = 1 , donc on pose b1 = f1 (e3 ) = −12 , b2 = e3 = 0 , b3 =
0 −9 1
−2
1 . Dans la base B = {b1 , b2 , b3 } la matrice de f1 est
0
0 1 0
M atB (f1 ) = 0 0 0
0 0 0
D’où la matrice de f dans cette base est
2 1 0
M atB (f ) = 0 2 0
0 0 2
−3 0 −2
et la matrice M = P.M atB (f ).P −1 , avec P = −12 0 1
−9 1 0
• On peut suivre d’autre technique comme le montre l’exemple suivant:
−1 0 −2 −2
2 1 2 2
Soit l’endomorphisme f : R4 −→ R4 dont la matrice associée est A = 3
.
1 3 2
−1 −1 0 1
Le polynôme caractéristique est: PA = (1 − X)4 , il est scindé sur R et il y a une seule
valeur propre λ = 1 de multiplicité 4. On pose A1 = A − λ.I4 , et f1 = f − λ.IR4 l’en-
domorphisme associé à A1 . Cherchons alors une base de l’endomorphisme nilpotent f1
d’indice q ≤ 4, qu’il faut déterminer. On sait que E = Ker(f −λ.IR4 )⊕F2 ⊕· · ·⊕Fq , avec
Fk est le supplémentaire de Ker(f − λ.IR4 )k−1 dans Ker(f− λ.I k . Notons B =
R4 ) 1
−2 0
2 0
{e1 , e2 , e3 , e4 }, la base canonique de R4 , on a A21 .e1 = A1 .
3 = 0 , A1 .e2 =
2
−1 0
0 0 −2 0 −2 0
0 0 2 0 0
2
2
2
A1 .
1 = 0 , A1 .e3 = A1 . 2 = 0 , A1 .e4 = A1 . 2 = 0 . Alors
−1 0 0 0 0 0
77
Chapitre 4. Réduction des endomorphismes et des matrices carrées
0 0 1 1
−1 −1
• Maintenant; on note f2 l’endomorphisme de vect(e03 , e04 ) représenté par A2 =
1 1
dans la base {e 0 , e0 }, f est nilpotent d’indice 2 ( facile à vérifier); en effet:
3 4 2
0 1 −1 0 1
2
A2 e 3 = A2 . 2 = A2 . = de même A22 e03 = A22 . =
0 (e0 ,e0 ) 1 (e0 ,e0 ) 0 0 (e0 ,e0 )
3 4 3 4 3 4
−1 0 0
A2 . = . Choisissons X2 = e3 , ( il faut choisir le vecteur X2 parmi
1 (e0 ,e0 ) 0
3 4
n(X2 )
e03 , e04 tel que A2 .X2 = 0 avec n(X2 ) = max(n(e03 ), n(e04 )) ).
0 1 0
0
0 0
On a bien f12 (X2 ) = A21 .
1 = A1 . −1 = 0 et S2 = {f1 (X2 ), X2 } = {A1 .X2 , X2 }
0 1 0
est libre et est constitue avec S1 une base de E = R4 . Dans la base
−2 1 −2 0
n 2 0 2 0 o
B = {f1 (X1 ), X1 , f1 (X2 ), X2 } = 3 , 0 , 2 , 1 ,
−1 0 0 0
la matrice de f1 est un bloc de Jordan,
0 1 0 0
0 0 0 0
M atB (f1 ) =
0
0 0 1
0 0 0 0
d’où la matrice de f dans cette base est de la forme:
1 1 0 0
0 1 0 0
M atB (f ) =
0 0 1
1
0 0 0 1
−2 1 −2 0
2 0 2 0
et donc A = P M atB (f )P −1 , avec P =
3 0 2 1
−1 0 0 0
78
Chapitre 5
Formes bilinéaires-Formes
quadratiques
79
Chapitre 5. Formes bilinéaires-Formes quadratiques
ψ : R2 × R2 −→ R
ψ : E × F −→ K
80
Chapitre 5. Formes bilinéaires-Formes quadratiques
81
Chapitre 5. Formes bilinéaires-Formes quadratiques
ψ : E × E −→ K
Exemples 5.2.2.
ψ : R2 × R2 −→ R
((x, y), (x0 , y 0 )) 7−→ xy 0 + x0 y
est une forme bilinéaire symétrique.
ψ : R2 × R2 −→ R
Remarque 5.2.3. On note l’ensemble des formes bilinéaires symétriques par S(E ×
E, K). Il est un sous espace vectoriel de l’espace (L(E × E; K), +, .)
5.2.1 L’orthogonalité
Définition 5.2.5. Soient E un espace vectoriel sur K et ψ une forme bilinéaire symé-
trique sur E × E, alors on dit que deux vecteurs X et Y de E sont orthogonaux par
rapport à ψ (ou simplement ψ orthogonaux) si; ψ(X, Y ) = 0. Ainsi si A est une partie
de E, on appelle orthogonale de A qu’on note aussi A⊥ l’ensemble des éléments Y de
E tels que ψ(X, Y ) = 0, ∀ X ∈ A. On écrit;
A⊥ = {Y ∈ E | ψ(X, Y ) = 0; ∀ X ∈ A}
82
Chapitre 5. Formes bilinéaires-Formes quadratiques
A ⊂ A ∪ B =⇒ (A ∪ B)⊥ ⊂ A⊥
B ⊂ A ∪ B =⇒ (A ∪ B)⊥ ⊂ B ⊥
donc (A ∪ B)⊥ ⊂ A⊥ ∩ B ⊥ .
Réciproquement; soit x ∈ A⊥ ∩ B ⊥ . Alors x est orthogonal à tout Y de A et à
tout Y de B, donc à tout Y de A ∪ B et par suite x ∈ (A ∪ B)⊥ .
4. Soit X ∈ A⊥ + B ⊥ . Il existe Y ∈ A⊥ et Z ∈ B ⊥ tels que X = Y + Z. Comme Y
est orthogonal à tout vecteur de A, il est orthogonal à tout vecteur de A ∩ B.
Donc Y ∈ (A ∩ B)⊥ , de même Z ∈ (A ∩ B)⊥ . Alors X = Y + Z ∈ (A ∩ B)⊥ .
5. De même manière.
6. D’abord
A ⊂ V ect(A) =⇒ (V ect(A))⊥ ⊂ A⊥ .
Ensuite, soit X ∈ A⊥ . Alors X est orthogonal à tout vecteur de A et en particu-
lière à tout combinaison linéaire d’élément de A, il est donc orthogonal à tout
vecteur de Vect(A), d’où X ∈ (V ect(A))⊥ .
7. Soit X ∈ A, alors ∀ Y ∈ A⊥ : ψ(X; Y ) = 0. Comme ψ est symétrique, donc
ψ(X, Y ) = ψ(Y, X) = 0. D’où X ∈ (A⊥ )⊥ , ce qui montre A ⊂ (A⊥ )⊥ .
8. D’abord {0E }⊥ ⊂ E. Soit Y ∈ E, or ψ(0E , Y ) = 0, alors Y ∈ {0E }⊥ . Donc
E ⊂ {0E }⊥ , d’où l’égalité.
Exercice. Soit B = {e1 , e2 , e3 } une base canonique de R3 , et
ψ : R3 × R3 =⇒ R
83
Chapitre 5. Formes bilinéaires-Formes quadratiques
Remarque 5.2.7. On vient de voir que lorsque l’espace E est muni d’une forme bili-
néaire symétrique spécifique, on aura d’autre propriétés de l’orthogonalité liée à cette
forme bilinéaire.
(ψ̄X = 0 =⇒ X = 0E ) ⇐⇒ (∀ Y ∈ E : ψ(X, Y ) = 0 =⇒ X = 0E ).
En effet: dim(E) = dim(E ∗ ) et puisque ψ̄ est linéaire injective, alors il est un isomor-
phisme, et inversement.
Définition 5.2.9. 1. Soit ψ une forme bilinéaire. On dit que ψ est définie si
ψ(X, X) = 0 =⇒ X = 0E
Remarque 5.2.10. 1. Si ψ est une forme bilinéaire symétrique et elle est définie,
¯ = {X ∈ E | ψ̄(X) = 0} = {X ∈
alors ψ est non dégénérée. En effet: Ker(ψ))
E | ∀ Y ∈ E; ψ(Y, X) = 0} = E . Donc X ∈ Ker(ψ̄) =⇒ X ∈ E ⊥ =⇒
⊥
84
Chapitre 5. Formes bilinéaires-Formes quadratiques
où ψ̄X ∈ F ∗ , par suite F ∩F ⊥ est le noyau de la restriction à F de ψ̄. Les deux premières
conditions sont donc bien équivalentes. D’autre part, il est évident que 3) =⇒ 1). Mais
puisque 1) et 2) sont équivalents, il reste à prouver que 2) =⇒ 3), c’est à dire 2)
implique F + F ⊥ = E. Considérons la restriction ψ/F = f, alors f est une forme
bilinéaire symétrique, et puisque elle est non dégénérée par hypothèse, alors f¯ est une
bijection de L(F, F ∗ ). Pour tout X ∈ F, l’application u : Y =⇒ ψ(X, Y ) de F dans K
est évidemment un élément de F ∗ . Il existe par suite X 0 ∈ F tel que f¯(X 0 ) = u; c’est
à dire ∀ Y ∈ F : f¯(X 0 )(Y ) = f (X 0 , Y ) = ψ(X 0 , Y ) = u(Y ) = ψ(X, Y ), ceci implique
∀ Y ∈ F : ψ(X − X 0 , Y ) = 0, ce qui veut dire que (X − X 0 ) ∈ F ⊥ , par conséquent,
X ∈ F + F ⊥ . Or F ∩ F ⊥ = {0E }; car 1) ⇐⇒ 2), alors F + F ⊥ est directe donc
X ∈ F ⊕ F ⊥ d’où E = F ⊕ F ⊥ .
Corollaire 5.2.12. Soit ψ une forme bilinéaire symétrique sur un espace E de dimen-
sion finie. Les propositions suivantes sont équivalentes:
1. ψ est définie; ie: ψ(X, X) = 0 =⇒ X = 0E ;
2. Pour tout sous espace F de E, on a F ⊕ F ⊥ = E.
Remarque 5.2.13. Soit ψ une forme bilinéaire symétrique sur un espace E de dimen-
sion finie. Si ψ est non dégénérée, alors pour tout sous espace F de E, on a:
1. dim(F ) + dim(F ⊥ ) = dim(E).
2. (F ⊥ )⊥ = F.
3. E ⊥ = {0E }.
Exercice. Soient ψ une forme bilinéaire symétrique sur un espace E de dimension finie,
et A, B deux parties de E. On suppose que, ψ est non dégénérée. Montrer les propriétés
suivantes:
85
Chapitre 5. Formes bilinéaires-Formes quadratiques
a) A⊥ + B ⊥ = (A ∩ B)⊥
b) A⊥ ∩ B ⊥ = (A + B)⊥ .
Définition 5.2.14. Soient E un espace vectoriel de dimension finie, (dim(E) = n), et
{e1 , e2 , . . . , en } une base de E, et ψ une forme bilinéaire sur E, alors {e1 , e2 , . . . , en } est
dite base orthogonale relativement à ψ si;
∀ i 6= j; 1 ≤ i, j ≤ n : ψ(ei , ej ) = 0
Elle est dite orthonormale relativement à ψ si;
∀ i, j; 1 ≤ i, j ≤ n : ψ(ei , ej ) = δij .
Proposition 5.2.15. Soient E un espace vectoriel de dimension finie (dim(E) =
n), sur K avec K = R ou C et ψ une forme bilinéaire symétrique non nulle sur E,
alors E possède une base orthogonale relativement à ψ.
Preuve. D’abord on montre qu’il existe dans E des vecteurs non isotropes. Supposons
que ∀ X ∈ E : ψ(X, X) = 0, alors on a ∀ X, Y ∈ E : ψ(X + Y, X + Y ) = ψ(X, X) +
| {z }
=0
2ψ(X, Y ) + ψ(Y, Y ) = 0, d’où ∀ X, Y ∈ E : 2ψ(X, Y ) = 0. Puisque ψ 6= 0, alors il
| {z }
=0
existe un couple (X, Y ) tel que ψ(X, Y ) 6= 0, donc pour ce couple (X, Y) la relation
2ψ(X, Y ) = 0 exige que la caractéristique du corps K égalé à 2, ce que n’est pas notre
cas puisque K = R ou C. Donc il existe dans E des vecteurs non isotropes.
On raisonne par récurrence sur dim(E) = n :
— si dim(E) = 1, le problème ne se pose pas. Supposons dim(E) = n ≥ 2. Pour
n = 2; on sait qu’il existe dans E un vecteur v1 non isotrope, la droite Dv1
de vecteur directeur v1 est non isotrope, donc Dv1 ∩ Dv⊥1 = {0E } et d’après le
théorème 5.2.11 on a Dv1 ⊕ Dv⊥1 = E. Pour tout v2 ∈ Dv⊥1 , la base {v1 , v2 } est
orthogonale.
— hypothèse de récurrence: supposons que le résultat est vrai pour dim(E) = n et
le démontrer pour n + 1. Pour un vecteur v1 non isotrope de E, la droite Dv1 est
supplémentaire de l’hyperplan Dv⊥1 , ce dernière est un sous espace de dimension
n. On peut donc appliquer l’hypothèse de récurrence sur Dv⊥1 et à la restriction
de ψ à Dv⊥1 ; il existe une base orthogonale {v2 , . . . , vn+1 } de Dv⊥1 relative à la
restriction de ϕ. Alors {v1 , v2 , . . . , vn+1 } est orthogonale de E, d’où le résultat.
Remarque 5.2.16. 1. Si ψ est nul, alors ψ(X, Y ) = 0, ∀ (X, Y ) ∈ E 2 , et par suite
toute base de E est orthogonale par rapport à la forme bilinéaire nulle.
2. Si ψ est une forme bilinéaire symétrique et {v1 , v2 , . . . , vn } une base orthogo-
X n Xn
nale relativement à ψ de E, alors ψ(X, Y ) = aii xi .yi où X = xi vi , Y =
i=1 i=1
n
X
yi vi et aii = ψ(vi , vi ). En particulier la matrice de ψ dans cette base est
i=1
diagonale, dont les coefficients diagonaux sont les aii .
a11 0 · · · 0
0 a22 · · · 0
Mψ = .
.. .. ..
..
. . .
0 0 ··· ann
86
Chapitre 5. Formes bilinéaires-Formes quadratiques
Preuve. On sait qu’il existe une base orthogonale pour ψ qu’on note par exemple;
{f1 , f2 , . . . , fn } et telle que la matrice de ψ dans cette base est diagonale
a11 0 · · · 0
0 a22 · · · 0
Mψ = .
.. .. ..
.. . . .
0 0 ··· ann
Le rang de ψ c’est le rang de la matrice Mψ qu’est égal au nombre d’éléments non nuls
sur la diagonale. On indexe de 1 à r les éléments fi tels que aii = ψ(fi , fi ) 6= 0, et on
pose ei = √1aii fi . On indexe de r+1 à n les fi tels que aii = ψ(fi , fi ) = 0, et on pose
ei = fi . Alors {e1 , e2 , . . . , en } est une base orthogonale de E qui répond au résultat; car
X n Xn n
X
on a ψ(X, Y ) = bii xi yi avec X = xi e i , Y = yi ei et bii = ψ(ei , ei ).
i=1 i=1 i=1
. pour 1 ≤ i ≤ r : ψ(ei , ei ) = ψ( √1aii fi , √1aii fi ) = ( √1aii )2 ψ(fi , fi ) = 1
aii × aii = 1.
. pour r + 1 ≤ i ≤ n : bii = ψ(ei , ei ) = ψ(fi , fi ) = aii = 0.
D’où ψ(X, Y ) = x1 .y1 + x2 .y2 + · · · + xr .yr .
. pour 1 ≤ i ≤ p on pose ei = √1 fi ;
aii
. pour p + 1 ≤ i ≤ r on pose ei = √ 1 fi ;
−aii
. pour r + 1 ≤ i ≤ n on pose ei = fi .
Alors dans la base {e1 , e2 , . . . , en } on aura bien
87
Chapitre 5. Formes bilinéaires-Formes quadratiques
Remarque 5.2.21. Si K = R on a:
a) Si ψ une forme bilinéaire symétrique définie positive, alors ψ possède une base
orthonormale {e1 , e2 , . . . , en } et c’est la base dans la quelle;
n
X n
X
ψ(X, Y ) = x1 .y1 + x2 .y2 + · · · + xr .yr où X = xi ei , et Y = yi ei .
i=1 i=1
b) Si ψ une forme bilinéaire symétrique et non dégénérée, alors il existe une base
orthogonale dans la quelle;
Φ : E −→ K
X −→ Φ(X) = ψ(X, X)
On définit aussi le rang d’ une forme quadratique Φ comme étant le rang de la fbs ψ
qui lui est associée (ie; rg(Φ) = rg(ψ)).
ψ : R2 × R2 −→ R
Φ : R2 −→ R
88
Chapitre 5. Formes bilinéaires-Formes quadratiques
n
X
((x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn )) 7−→ xk yk
k=1
la forme quadratique qui lui est associée est;
Φ : Rn −→ R
n
X
(x1 , x2 , . . . , xn ) 7−→ x2k
k=1
2. ∀ (α, β) ∈ K2 , ∀ (X, Y ) ∈ E 2 :
Exemples 5.3.5. Φ(x1 , x2 ) = x21+ 3x22 + 2x1 x2 est un exemple de polynôme à deux
variables. Sa forme polaire est; ψ (x1 , x2 ), (y1 , y2 ) = x1 y1 + 3x2 y2 + 2(x1 y2 + x2 y1 ).
89
Chapitre 5. Formes bilinéaires-Formes quadratiques
Exemples 5.3.7.
ψ : R2 × R2 −→ R
((x, y), (x0 , y 0 )) 7−→ 3xy 0 + 3x0 y
0 3
est non dégénéré car sa matrice associée est M atB (ψ) = . Elle est de rang
3 0
égale à 2.
X n
X X
Φ(X) = aij xi .xj = aii x2i + 2 aij xi .xj ,
i,j i=1 1≤i<j≤n
de plus il existe une base orthogonale B 0 = {f1 , f2 , . . . , fn } de E telle que pour tout
r
X
X = y1 f1 + y2 f2 + · · · + yn fn on a Φ(X) = bi yi2 . Notons P la matrice de passage de
i=1
B 0 à B, alors on aura
y1 x1
y2 x2 n
X
.. = P .. ⇐⇒ yi = pij xj = li (X), 1 ≤ i ≤ n.
. .
j
yn xn
90
Chapitre 5. Formes bilinéaires-Formes quadratiques
li désignant une forme linéaire sur E (li ∈ E ∗ , 1 ≤ i ≤ n). Les n formes linéaires li sont
indépendantes, puisque la matrice P = (pij )ij est inversible. On a donc
r
X
Φ(X) = bi (li (X))2 .
i=1
on va montrer par récurrence sur n, que Φ est la somme de carrés de r formes linéaires
indépendantes.
1. Supposons d’abord n = 2.
1 aa11
12
y1 x
= . 1
y2 0 1 x2
| {z }
P
a2
Le coefficient a22 − a12
11
est nul ssi r = 1.
2ieme cas: Φ ne possède pas de terme carré, Φ(X) = 2a12 x1 .x2 . On utilise la
relation; 4x1 x2 = (x1 + x2 )2 − (x1 − x2 )2 , et on obtient,
a12 a12
Φ(X) = (x1 + x2 )2 − (x1 − x2 )2 .
2 2
91
Chapitre 5. Formes bilinéaires-Formes quadratiques
r
X r
X 2
et que Φ(X) = bi yi2 = bi li (x1 , x2 , x3 , . . . , xn ) .
i=1 i=1
2ieme cas: Φ ne possède aucun terme carré. Si la forme Φ n’est pas nulle, elle contient
des termes rectangles aij xi .xj , par exemple a12 6= 0. En vu de simplification posons
92
Chapitre 5. Formes bilinéaires-Formes quadratiques
a1 2 S.R
Φ(X) = (u1 − u22 ) + Φ0 − .
4 a1
S R S R
y1 = x1 +x2 + + = l1 (x1 , x2 , x3 , x4 , . . . , xn ); y2 = x1 −x2 + − = l2 (x1 , x2 , x3 , x4 , . . . , xn ),
a1 a1 a1 a1
y1 1 1 ∗ ... ∗ x1
y3 x3 y2 1 −1 ∗ . . . ∗ x2
y4 x4
et on a . = A. . , d’où y3 = 0 0
x3
. et que Φ =
.. .. .. .. .. ..
. . . A .
yn xn
yn 0 0 xn
| {z }
P
r
X r
X 2
bi yi2 = bi li (X) , où r = rang(Φ).
i=1 i=1
93
Chapitre 5. Formes bilinéaires-Formes quadratiques
Définition 5.4.1. Soit E un espace vectoriel sur K, ψ une forme bilinéaire symétrique
et u ∈ L(E). On dira que u est un endomorphisme orthogonal relativement à ψ ou bien
simplement ψ− orthogonal si;
Proposition 5.4.4. Soit E un espace vectoriel sur K et ψ une forme bilinéaire symé-
trique sur E. Alors u ∈ L(E) est un endomorphisme ψ− orthogonal si et seulement si
t u ◦ ψ̄ ◦ u = ψ̄, où t u ∈ L(E ∗ ) est la transposé de u.
et par conséquent, pour tout Y ∈ E : gX (Y ) = ψ̄u(X) ◦ u(Y ) = ψ(u(X), u(Y )). Puisque
u est ψ− orthogonal ssi ψ(u(X), u(Y )) = ψ(X, Y ), donc gX (Y ) = ψ̄X (Y ), d’où le
résultat.
Théorème 5.4.5. Soit E un espace vectoriel sur K et ψ une forme bilinéaire symétrique
sur E. L’ensemble noté Oψ (E), des automorphismes ψ− orthogonaux de E, est un sous
groupe du groupe des automorphismes linéaires GL(E).
94
Chapitre 5. Formes bilinéaires-Formes quadratiques
ϕ : Oψ (E) −→ O(n, K)
Corollaire 5.4.9. Pour toute matrice P ∈ GL(n, K), le groupe OA (n, K) avec A = t P P
est isomorphe au groupe O(n, K).
D : OA (n, K) −→ O(n, K)
M 7−→ P M P −1
est un isomorphisme.
ψ̄ : E −→ E ∗
Z 7−→ ψ̄Z
95
Chapitre 5. Formes bilinéaires-Formes quadratiques
tel que ∀ X ∈ E; ψ̄Z (X) = ψ(X, Z), est une bijection ( de plus est un isomorphisme),
et nous montrons que
fY : E −→ K
X 7−→ ψ(u(X), Y )
est une application linéaire. Comme ψ̄ est une bijection, alors il existe un unique Z ∈
E tq ψ̄(Z) = ψ̄Z = fY , par suite on a;
96
Chapitre 5. Formes bilinéaires-Formes quadratiques
Preuve. 1. On a d’une part; ∀ X, Y ∈ E; ψ (u ◦ v)(X), Y = ψ u(v(X)), Y =
ψ v(X), u∗ (Y ) = X, v ∗ (u∗ (Y )) , d’autre part;
∀ X, Y ∈ E; ψ (u ◦ v)(X), Y = ψ X, (u ◦ v)∗ (Y ) .
97
Chapitre 6
Exemples 6.1.2.
ψ : Rn × Rn −→ R
n
X
((x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn )) 7−→ x k yk
k=1
Remarque 6.1.3. 1. Lorsque ψ est un produit scalaire, on note souvent (X|Y ) ou <
X, Y > à la place de ψ(X, Y ).
2. Il est claire qu’un produit scalaire est une forme bilinéaire symétrique, non
dégénéré.
98
Chapitre 6. Espaces pré-hilbertiens réels - Espaces pré-hilbertiens complexes
(Supplémentaire)
Nous avons maintenant tout mis en place pour pouvoir généraliser l’étude géomé-
trique des vecteurs du plan à tous les vecteurs d’un espace euclidien. Commençons
d’abord par mesurer la taille des vecteurs avec la notion de norme.
||.|| : E −→ R
p √
7 → ||X|| = < X, X > = t XX
X−
C’est a dire que si Φ est la forme quadratique associée au produit scalaire < .. > alors;
c’est a dire
∀ (X, Y ) ∈ E 2 : ||X + Y || ≤ ||X|| + ||Y ||.
ψ̄ : E −→ E ∗
X 7−→ ψ̄(X)
tel que ∀ Y ∈ E : ψ̄(X)(Y ) =< X; Y > est un isomorphisme; appelé isomor-
phisme canonique.
2. Si E est un espace pré-hilbertien réel l’application ψ̄ précédente est en général
isomorphe à ψ̄(E), qu’est un sous espace vectoriel de E ∗ . Ceci nous permet de
définir un prolongement naturel de E dans E ∗ .
99
Chapitre 6. Espaces pré-hilbertiens réels - Espaces pré-hilbertiens complexes
(Supplémentaire)
(F + G)⊥ = F ⊥ ∩ G⊥ et (F ∩ G)⊥ = F ⊥ + G⊥ .
Définition 6.1.10. Soit (E, < ., . >) un espace euclidien et F un sous espace vectoriel
de E. On appelle projecteur orthogonal sur F, et l’on note pF , le projecteur sur F
parallèlement à F ⊥ .
Proposition 6.1.12. Soit (E, < ., . >) un espace euclidien (ou bien pré-hilbertien), et
(Xi )i∈I une famille d’éléments de E. Si (Xi )i∈I est orthogonale et ∀ i ∈ I; Xi 6= 0, alors
(Xi )i∈I est libre.
Théorème 6.1.13. Théorème de Pythagore: Soit (E, < ., . >) un espace euclidien
(ou bien pré-hilbertien) et (X, Y ) ∈ E 2 . On a
100
Chapitre 6. Espaces pré-hilbertiens réels - Espaces pré-hilbertiens complexes
(Supplémentaire)
Corollaire 6.1.16. Tout espace vectoriel euclidien admet au moins une base orthonor-
male.
Preuve. En effet; d’après la proposition 5.2.15, il existe une base orthogonale dans
E, et d’après le théorème 6.1.15 précèdent on la ramène en une base orthonormale.
Exercice. Soit (E; < ., . >) un espace euclidien de dimension n et B une base de
E et soit A = M atB (< ., . >)
1. Montrer que B est orthogonale ssi la matrice A est diagonale.
2. Montrer que B est orthonormale ssi A = In .
101
Chapitre 6. Espaces pré-hilbertiens réels - Espaces pré-hilbertiens complexes
(Supplémentaire)
n
X
Preuve. 1. Soit B = {e1 , e2 , . . . , en } une b.o.n de E, alors pour tout X = xi e i , Y =
i=1
n
X n
X
yi ei on a < X, Y >= xi yi = t XY, alors < u(X), Y >= t (AX)Y = t X t AY.
i=1 i=1
Or < u(X), Y >=< X, u∗ (Y ) >= t X t AY, donc u∗ (Y ) = t AY et ceci pour
tout Y ∈ E. D’où M atB (u∗ ) = t A.
2. Puisque le produit scalaire est une fbs non dégénérée, alors d’après la proposition
5.4.13, on aurait le résultat.
3. La même démonstration que dans 5.4.13.
4. On a;
X ∈ Ker(u∗ ) ⇐⇒ u∗ (X) = 0
⇐⇒ ∀ Y ∈ E; < Y, u∗ (X) >= 0
⇐⇒ ∀ Y ∈ E; < u(Y ), X >= 0
⇐⇒ X ∈ (Im(u))⊥
Remarque 6.1.21. Lorsque un espace pré-hilbertien est complet pour la norme associe
au produit scalaire < ., . >, il se nomme en analyse, par espace de Hilbert réel.
102
Chapitre 6. Espaces pré-hilbertiens réels - Espaces pré-hilbertiens complexes
(Supplémentaire)
avec ᾱ, β̄ sont les conjugues respectivement de α et β. nous notons Sq(E) l’en-
semble des formes sesquilinéaires sur E.
2. ψ est linéaire par rapport à la 2eme place, ie;
3. Une forme sesquilinéaire ψ sur E est dite à symétrie hermitienne (ou simplement
hermitienne) si;
∀ (X, Y ) ∈ E 2 : ψ(Y, X) = ψ(X, Y ).
Nous notons SH(E)l’ensemble des fsh sur E.
4. On appelle forme quadratique hermitienne associe à ψ l’application souvent noté
Φ;
Φ : E −→ C
X 7−→ Φ(X) = ψ(X, X)
Puisque ψ(X, X) = ψ(X, X), alors ψ(X, X) ∈ R.
ψ : E × E −→ C
Z 1
(f, g) 7−→ f¯g
0
est une forme hermitienne, sa forme quadratique associée est:
Φ : E −→ C
Z 1
f 7−→ |f |2
0
103
Chapitre 6. Espaces pré-hilbertiens réels - Espaces pré-hilbertiens complexes
(Supplémentaire)
Réciproquement, donnons nous une matrice (aij ) ∈ Mn (C), on vérifie facilement que
la forme définie par la relation (6,1) est une forme sesquilinéaire. On peut alors énoncer
le théorème suivant.
ϕ : Sq(E) −→ Mn (C)
ψ −→ (ψ(ei , ej )) = (aij )
La matrice (aij ) appelée la matrice de ψ par rapport à la base B.
Définition 6.2.4. Soit une matrice A = (aij ) ∈ Mp,n (C). On appelle matrice conjugue
de A qu’on note Ā, la matrice Ā = (a¯ij ) ∈ Mp,n .
104
Chapitre 6. Espaces pré-hilbertiens réels - Espaces pré-hilbertiens complexes
(Supplémentaire)
105
Chapitre 6. Espaces pré-hilbertiens réels - Espaces pré-hilbertiens complexes
(Supplémentaire)
6.2.5 Orthogonalité
De nombreux résultat de l’étude des formes bilinéaires symétriques faites au chapitre
5 vont s’appliquer aux formes hermitiennes.
Définition 6.2.11. Soit E un espace vectoriel sur C et ψ une forme hermitienne sur E.
On dit que deux vecteurs X et Y sont orthogonaux par rapport à la forme hermitienne
ψ , si ψ(X, Y ) = 0.
Définition 6.2.13. Soit E un espace vectoriel sur C et ψ une forme hermitienne sur
E.
1. On appelle noyau de ψ le sous espace E ⊥ = {X ∈ E | ∀ Y ∈ E; ψ(X, Y ) = 0}.
2. On dit que ψ est non dégénérée si (∀ Y ∈ E; ψ(X, Y ) = 0) =⇒ X = 0E .
Autrement dit le noyau de ψ est nul c’est à dire E ⊥ = {0E }. Dans le cas
contraire E ⊥ 6= {0E }, elle est dite dégénérée.
Exemples 6.2.14.
ψ : C2 −→ C
(X, Y ) 7−→ x¯1 y1 + x¯2 y2
où X = (x1 , x2 ), Y = (y1 , y2 ) est une forme hermitienne non dégénérée.
Théorème 6.2.15. Soit E un espace vectoriel sur C. Si, dans son groupe additif (E, +)
on définit une nouvelle loi externe, notée (α, X) 7−→ α ∗ X, par α ∗ X = ᾱX, alors
(E, +, ∗) est un espace vectoriel sur C, se nomme sous espace conjugue de E et on le
note Ē.
106
Chapitre 6. Espaces pré-hilbertiens réels - Espaces pré-hilbertiens complexes
(Supplémentaire)
Théorème 6.2.19. Soit E un espace vectoriel de dimension finie sur C et ψ une forme
hermitienne non dégénérée sur E.
1. Pour tout sous espace vectoriel F de E on a; dim(F )+dim(F ⊥ ) = dim(E) et (F ⊥ )⊥ =
F.
2. Pour toutes parties A et B de E, on a; A⊥ + B ⊥ = (A ∩ B)⊥ et A⊥ ∩ B ⊥ =
(A + B)⊥ .
Théorème 6.2.20. Soit E un espace vectoriel de dimension finie sur C et ψ une forme
hermitienne non dégénérée sur E. Pour tout sous espace F de E, les propriétés suivantes
sont équivalentes:
1. F ∩ F ⊥ = {0E }, (F est non isotrope );
2. La restriction de ψ à F est une forme hermitienne non dégénérée sur F;
3. F ⊕ F ⊥ = E.
107
Chapitre 6. Espaces pré-hilbertiens réels - Espaces pré-hilbertiens complexes
(Supplémentaire)
ψ̄ : E −→ E ∗
108
Chapitre 6. Espaces pré-hilbertiens réels - Espaces pré-hilbertiens complexes
(Supplémentaire)
∀ X, Y ∈ E; ψ(X, u∗ (Y )) = ψ(u(X), Y ),
Proposition 6.2.30. Soit E un espace hermitienne de dimension finie. Si, dans une
base orthonormale B de E, A est la matrice d’un endomorphisme u ∈ L(E), la matrice
dans cette base de son adjoint u∗ est la matrice adjointe A∗ .
109
Chapitre 6. Espaces pré-hilbertiens réels - Espaces pré-hilbertiens complexes
(Supplémentaire)
Preuve. Comme exercice. (Rappelons qu’un sous espace F de E est dit stable par u si
u(F ) ⊂ F ).
110
Chapitre 6. Espaces pré-hilbertiens réels - Espaces pré-hilbertiens complexes
(Supplémentaire)
Fin
111