Cours Algébre 2 ESTI
Cours Algébre 2 ESTI
Cours Algébre 2 ESTI
Cours de Algébre 2
Resumé
L’algèbre est un langage universel qui sert à décrire de nombreux phénomènes en mé-
canique, électronique, et économie, par exemple. Il n’est donc pas étonnant de retrouver
cette matière enseignée au début de nombreux cursus universitaires car elle est nécessaire
pour pouvoir exprimer des concepts plus avancées les années suivantes. Ainsi il est cru-
cial pour un(e) étudiant(e) d’en maîtriser son vocabulaire et sa grammaire au plus tôt.
Pourtant, même si elle est un domaine des mathématiques, il n’est pas nécessaire d’être
un(e) mathématicien(ne) averti-e pour l’apprendre, fort heureusement. Ce cours d’algébre
2 est une introduction à l’algébre linéaire. Il est structuré en trois parties, la premiére est
consacrée à l’introduction aux espaces vectoriels, la deuxieme aux espaces vectoriels en
dimension finie et la derniére aux applications linéaires.
1
CHAPITRE 1
Ce premier chapitre a pour but de développer les principaux résultats concernant les es-
paces vectoriels. Cette étude n’est pas une fin en soi mais elle est le passage obligé pour
étudier ensuite les applications linéaires et les matrices et systèmes d’équations linéaires.
Motivation : Géométrie des vecteurs dans R2 et de R3 et des règles vérifiées par l’addi-
tion de deux vecteurs et par la multiplication d’un vecteur par un scalaire réel. En terme
de coordonnées : ~u = (u1 , u2 ), ~v = (v1 , v2 ) ∈ R2 alors ~u +~v = (u1 + u1 , v1 + v2 ) ∈ R2 et α ∈ R
alors α.~u = (αu1 , α2 u2 ). Par conséquent, si ~u = (u1 , u2 ), ~v = (v1 , v2 ), α ∈ R alors :
α(~u + ~v) = (α(u1 + v1 ), α(u2 + v2 )) = (αu1 + αv1 , αu2 + αv2 ) = α~u + α~v ∈ R2 .
Idée : Etendre les propriétés essentielles de ces opérateurs dans R2 et de R3 pour qu’elles
deviennent les axiomes d’un espace vectoriel abstrait.
But : Pouvoir appliquer les méthodes et les intuitions géométriques dans un contexte plus
général, par exemples, à des polynômes.
2
3 Espaces vectoriels
— (~u + ~v) + w
~ = ~u + (~v + w
~ ), ∀ ~u, ~v, w
~ ∈ E.
— α(β~u) = (αβ)~u, ∀ α, β ∈ K, ~u ∈ E.
V3 existence d’un élément neutre pour l’addition : ∃ ~0E ∈ E tel que ~u+~0 = ~u, ∀ ~u ∈ E.
Remarque 1.2 Noter que l’axiome V3 implique que tout espace vectoriel contient au
moins un vecteur : ~0E .
Pour simplifier l’écriture dans certains livres on écrit u à la place de ~u.
Consequence 1.3
Tout vecteur ~u de E est régulier pour l’addition vectorielle (desormais notée +).
(~u, ~v, w
~ ) ∈ E 3 , ~u + ~v = ~u + w
~ =⇒ ~v = w
~.
— (~u, ~v) ∈ E 2 , ∃ w
~ ∈ E : ~u + w
~ = ~v + w
~, w
~ est unique.
— ∀ ~u ∈ E, 0.~u = ~0E .
— ∀ α ∈ K, α.~0E = ~0E .
3
4 Espaces vectoriels
1. R, muni de l’addition comme loi interne et la multiplication par un réel comme loi
externe.
2. L’ensemble des polynomes à une variable de degré au plus égal à n, muni de l’addition
comme loi interne et la multiplication par un réel comme loi externe.
!
x
3. R × R, ensemble des couples, ~u = muni des lois suivantes :
y
x+z αx
! ! ! ! !
x z x
+ = et α. = .
y w y+w y αy
( f, g) → f + g et (α, f ) → α. f.
5. L’ensemble des fonctions dérivables sur [a, b] muni des lois ci-dessus.
6 L’ensemble des fonctions escalier (de R dans R) muni des lois ci-dessus.
Solution
Loi interne : ∀x ∈ R3 , x = (x1 , x2 , x3 ) et ∀y ∈ R3 , y = (y1 , y2 , y3 ). On a
x + y = (x1 + y1 , x2 + y2 , x3 + y3 ).
Loi externe : ∀x ∈ R3 , ∀λ ∈ R : λ.x = (λx1 , λx2 , λx3 ) ∈ R3 . Donc R3 est stable par
la loi externe. On peut conclure (R3 , +, .) est un R-espace vectoriel.
Remarque 1.6 Pour montrer que (E, +, .) est un K-espace vectoriel il suffit de montrer
que la loi interne et la loi externe sont stables par l’addition et la multiplication respecti-
vement.
4
5 Espaces vectoriels
Solution
Non : l’ensemble Q muni des deux lois indiqués n’est pas un espace vectoriel sur R. En
effet, la loi externe serait définie ainsi au couple (α, q) ∈ R × Q, on associe α ∗ q. Or il se
√
peut que : α ∗ q < Q ( donc loi externe n’est pas stable). Exemple prendre : α = 2, q = 3.
∀ (~u, ~v) ∈ U × U =⇒ ~u + ~v ∈ U
Définition 1.8 Une partie U d’un espace vectoriel E est un sous espace vectoriel si elle
stable pour les deux opérations de E, c’est à dire
∀ (~u, ~v) ∈ U × U =⇒ ~u + ~v ∈ U
∀ (α, ~u) ∈ K × U =⇒ α.~u ∈ U.
Théorème 1.9 Une partie U d’un espace vectoriel E est un sous espace vectoriel si et
seulement si :
Remarque 1.10 D’aprés la Remarque 1.6, on a un sous-espace vectoriel est lui méme un
espace vectoriel.
5
6 Espaces vectoriels
Exercice 1.16
n o n o
F1 = (x1 , 0, 0) avec x1 ∈ R et F2 = (0, x2 , x3 ) avec (x2 , x2 ) ∈ R2 .
Montrer que F1 et F2 sont supplémentaires de R3 c’est-à-dire F1 ⊕ F2 = R3 .
n o
Solution : Montrons que F1 ⊕ F2 = R3 . On a R3 = (x1 , x2 , x3 ) avec x1 , x2 , x3 ∈ R et
n o
F1 + F2 = (x1 , 0, 0) + (0, x2 , x3 ) = (x1 , x2 , x3 ) avec x1 , x2 , x3 ∈ R . D’oú F1 + F2 = R3 .
n o
F1 ∩ F2 = (x1 , x2 , x2 ) tel que (x1 , 0, 0)) = (0, x2 , x3 ) . Donc determiner F1 ∩ F2 revient
à resoudre l’equation suivante (x1 , 0, 0) = (0, x2 , x3 ). D’oú x1 = 0, x2 = 0, x3 = 0 =⇒
F1 ∩ F2 = {0R3 }. On conclut que F1 et F2 sont supplémentaires de R3 .
Remarque 1.17 Pour abréger, on dit sous-espace au lieu de sous-espace vectoriel (bien
distinguer : sous-ensemble et sous-espace).
Exercice 1.18 Dans l’espace vectoriel des applications de R dans lui-même l’ensemble
des fonctions telles que :
∀x ∈ R −→ ax (1.2)
oú a est un réel quelconque, est il un sous-espace vectoriel ?
6
7 Espaces vectoriels
Remarque 1.19 Les fonctions définies par (1.2) sont appelées fonctions linéaires.
oú α1 , α2 , ..., αn sont des élément quelconque de K, est appelé combinaison linéaire des
Xn
vecteurs u~i . On peut le noter αi u~i .
i=1
L’ensemble U de toutes les combinaisons linéaires des vecteurs u~i est un sous-espace vec-
toriel de E, noté L(F). C’est pour l’inclusion, le plus petit sous-espace vectoriel contenant
tous les u~i . On dit que U est le sous-espace vectoriel engendré par F.
7
8 Espaces vectoriels
On dit aussi que u~1 , u~2 , ...., u~n forme un systéme générateur.
x a
Dans R ~u = y
3
, ~v = b . Les vecteurs ~u et ~v sont linéairement dépendants si et
z c
seulement si :
yc − zb 0
za − xc = 0 . (1.4)
xb − ya 0
x → f (x) = x + 1 et x → g(x) = 2x
8
9 Espaces vectoriels
3. Dans l’espace vectoriel des polynomes à une variable à coéfficient dans R, le systéme
de vecteurs f et g tels que :
x → f = x2 + 1 et x → g = 2x2 − 5
5x − y −2x + 3y
α= , β= .
13 13
Donc, ∀ ~u ∈ R2 il existe
3
+ β 1
(α, β) ∈ R2 : ~u = α
.
2 5
3 1
D’oú et forme une famille génératrice de R2 .
2 5
9
10 Espaces vectoriels
Exercice 1.25 Soit ~i = (1, 0) ∈ R2 et ~j = (0, 1) ∈ R2 . La famille {~i, ~j} est-elle une base de
R2 ?
Remarque 1.26 La famille {e~1 , e~2 , e~3 , ..., e~n } avec e~1 = (1, 0, 0, ..., 0), e~2 = (0, 1, 0, ..., 0), ...., e~n =
(0, 0, 0, ..., 1) constitue la base canonique de Rn .
10
11 Espaces vectoriels
11
CHAPITRE 2
Les espaces vectoriels ont été définis dans le Chapitre 1 et nous avons mis en évidence
quelques-unes de leurs principales propriétés. Dans ce chapitre, nous complétons cette
étude par l’examen des espaces vectoriels de dimension finie. Nous verrons en particulier
qu’un espace vectoriel de dimension finie peut être complètement définie par sa dimen-
sion.
Définition 2.1 — Soit {ui }0≤i≤n une famille S d’éléments de E. On appelle cardinal
de S le nombre d’éléments de S.
Théorème 2.2 Toutes les bases d’un même espace vectoriel E ont le même cardinal. Ce
nombre commun est appelé la dimension de E. On note dimE.
Remarque 2.4 Si dimE = n, pour montrer qu’une famille de n éléments est une base de
E, il suffit de montrer qu’elle est libre ou bien génératrice.
Exercice 2.5 Soit e~1 = (1, 0, 0) ∈ R3 , e~2 = (0, 1, 0) ∈ R3 et e~3 = (0, 0, 1) ∈ R3 . Montrer
que {e~1 , e~2 , e~3 } forme une base de R3 .
12
13 Espace vectoriel de dimension finie
Exemple 2.9 Soit x ∈ R3 . Il existe (α1 , α2 , α3 ) ∈ R3 tel que x = α1 e~1 + α2 e~2 + α3 e~3 car
{e~1 , e~2 , e~3 } forme une base de R3 et les les coordonnées de ~x sont (α1 , α2 , α3 ).
Remarque 2.10 F = Vect{x1 , ..., x p } ⇐⇒ {x1 , ..., x p } est une famille génératrice de F.
13
14 Espace vectoriel de dimension finie
E = F ⊕ G.
14
15 Espace vectoriel de dimension finie
(1)
+ β −2
4
= ~0
λ
−2 1
équivaut à
4λ − 2β = 0
(2.2)
−2λ + β = 0.
Ce systéme admet une infinité de solution en particulier des solutions autres que (0, 0).
Par exemple λ = 1, β = 2. Ainsi il existe une combinaison linéaire de ~u et ~v égale à ~0,
sans que tous les coéfficients soient nuls ; ~u et ~v sont liés.
(2)
1
+ β 0 = ~0
λ
5 3
équivaut à
λ=0
(2.3)
5λ + 3β = 0.
Ce systéme admet une unique solution (0, 0). ~u et ~v forment une famille libre, puisque
λ~u + β~v = ~0 =⇒ λ = 0, β = 0.
Montrer que F R2 .
15
16 Espace vectoriel de dimension finie
équivaut à
4λ − 2β = 0
(2.4)
−2λ + β = 0.
Ce systéme admet une unique solution (0, 0). ~u et ~v forment une famille libre, puisque
λ~u + β~v = ~0 =⇒ λ = 0, β = 0.
c’est à dire
λ + 2β = x
(2.5)
3λ + 4β = y.
Ce systéme admet une unique solution. Calculons-la (bien que ce soit supperflu) λ =
3 1
y − 2x, β = x − y.
2 2
Exercice 2.18 Dans l’espace vectoriel de R2 est rapporté la base B = (e~1 , e~2 ). Le systéme
! √ !
1 − 3
~u = √ , ~v =
3 1
est-il une base de R2
16
CHAPITRE 3
Les espaces vectoriels ont été définis dans les Chapitres 1, 2 et nous avons mis en évi-
dence quelques-unes de leurs principales propriétés. Dans ce chapitre, nous abordons les
applications linéaires et les matrices.
∀x ∈ E, λ ∈ K, f (λx) = λ f (x)
(
(3.1)
∀(x, y) ∈ E × E, f (x + y) = f (x) + f (y).
17
18 Applications linéaires et Matrices
f (x, y) = x + y.
f (z+w) = f ((x, y)+(a, b)) = f (x+a, y+b) = x+a+y+b = (x+y)+(a+b) = f (x, y)+ f (a, b) = f (z)+ f (w).
(3.2)
f (λ(x, y)) = f (λx, λy) = λx + λy = λ(x + y) = λ f (x, y). (3.3)
18
19 Applications linéaires et Matrices
Notations :
L(E, F) est l’ensemble des applications linéaires (= homomorphismes) de E dans F.
L(E) est l’ensemble des endomorphismes de E.
(1) f est injective si et seulement si f transforme toute base de E en une famille libre de F.
(2) f est surjective si et seulement si l’image de toute base de E est une famille généra-
trice de F.
(3) f est bijective si et seulement si l’image de toute base de E est une base de F.
19
20 Applications linéaires et Matrices
20
21 Applications linéaires et Matrices
Solution : Voyons si les deux conditions pour que f soit une application linéaire sont
vérifiées
c’est à dire
x+y+z=a
(3.4)
2y − z = b.
f est injective si :
f (x, y, z) = f (a, b, c) =⇒ (x, y, z) = (a, b, c)
c’est à dire
x+y+z=a+b+c
(3.5)
2y − z = 2b − c.
21
22 Applications linéaires et Matrices
3.3 Matrices
Définition 3.18 On appelle matrice de type (n, p) à coefficients dans R, un tableau de n.p
éléments de R rangés sur n lignes et p colonnes :
a11 a12 . . . a1p
a a . . . a2p
A = 21 22 .
. . . . . . . . .
an1 a22 . . . anp
On désigne par Mn,p (R) l’ensemble des matrices à coefficients dans R, à n lignes et p co-
lonnes.
Cas particuliers :
Si n = p, on dit que la matrice est carrée.
Si les coefficients sont tq ai j = 0 pour i > j, on dit que la matrice est triangulaire supé-
rieure.
Si les coefficients sont tq ai j = 0 pour i ≤ j, on dit que la matrice est triangulaire inférieure.
22
23 Applications linéaires et Matrices
Xn
0 0 0 0
Soit f ∈ L(E, F) et on pose f (e j ) = ai j ei = a1 j e1 + a2 j e2 + . . . . . . . . . . . . + an j en .
i=1
On définit une matrice M = (ai j )1≤i≤n, 1≤ j≤p
a11 a12 . . . a1p
a21 a22 . . . a2p
M = .
. . . ... . . .
an1 a22 . . . anp
Remarque 3.20 La matrice d’une application linéaire dépend des bases choisies (B et
0
B ).
Exercice 3.21
S oit f : R3 → R3
(3.6)
(x1 , x2 , x3 ) 7→ f (x1 , x2 , x3 ) = (2x1 + x2 + x3 , x1 + 2x2 + x3 , x1 + x2 ).
f (x + y) = f (x1 + y1 , x2 + y2 , x3 + y3 )
= (2(x1 + y1 ) + x2 + y2 + x3 + y3 , x1 + y1 + 2(x2 + y2 ) + x3 + y3 , x1 + y1 + x2 + y2 )
= (2x1 + 2y1 + x2 + y2 + x3 + y3 , x1 + y1 + 2x2 + 2y2 + x3 + y3 , x1 + y1 + x2 + y2 )
= (2x1 + x2 + x3 , x1 + 2x2 + x3 , x1 + x2 ) + (2y1 + y2 + y3 , y1 + 2y2 + y3 , y1 + y2 )
= f (x) + f (y).
23
24 Applications linéaires et Matrices
Soit x = (x1 , x2 , x3 ) et λ ∈ R. On a
Théorème 3.23 L’application qui à f ∈ L(E, F) fait correspondre MBB0 ( f ) est bijective.
Autrement dit à toute application linéaire on peut associer une matrice.
24
25 Applications linéaires et Matrices
Exemple 3.24
1 −1 0 0 1 0
A = 0 0 2 et B = −4 1 −2 .
2 3 1 11 0 −1
On a
1 0 0 2 −2 0
A + B = −4 1 0 et 2A = 0 0 4 .
13 3 0 4 6 2
matrice associée MB0 B00 ( f ) ∈ M p,m (K). On a (g ◦ f ) ∈ L(E, G), on détermine la matrice
associée de cette application linéaire :
m
X m
X p p
m X
0
X 00
X 00
g ◦ f (ei ) = g( f (ei )) = a ji g(e j ) = a ji bk j ek = bk j a ji ek .
j=1 j=1 k=1 j=1 k=1
m
X
On pose cki = bk j a ji .
j=1
p
X 00
Donc g ◦ f (ei ) = cki ek .
k=1
La matrice associée à (g ◦ f ) est MBB00 ( f ) ∈ M p,n .
Remarque 3.25 Pour que le produit existe, il faut que l’on ait M p,m × Mm,n = M p,n .
En pratique :
MBB00 (g ◦ f ) = MB0 B00 (g) × MBB0 ( f ).
. . . . . . . . . . . . . . . . . . a1i . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . a2i . . . . . . . . . . . . . . .
Le coefficient de la k éme ligne et de la i éme colonne est cki = bk1 a1i + . . . . . . + bkm ami .
25
26 Applications linéaires et Matrices
Exemple 3.26
! 1 0
1 0 0
A= et B = 0 −1 .
2 −1 0 2×3
2 1 3×2
Calculons A.B. On a !
1 0
A.B = .
2 1 2×2
Remarque 3.27 A.B , B.A (Donc la multiplication matricielle n’est pas commutative).
Dans le cas précédent A.B ∈ M2×2 et B.A ∈ M3×3 . Donc (A + B)2 = A2 + A.B + B.A + B2 .
A , 0, B , 0 et AB = 0.
Définition 3.30 A ∈ Mn (K) est inversible ssi ∃ B ∈ Mn (K) tel que A.B = B.A = In .
1 0 . . . . . . . . .
. . . 1 . . . . . . . . .
In = .
. . . . . . . . . . . .
...... 1
0 0
Si n = 2 on a !
1 0
I2 = .
0 1
Propriétés de la matrice identité
1) A.In = In .A = A.
2) In est inversible :In −1 = In .
26
27 Applications linéaires et Matrices
équivaut à
a=1
b=0
(3.8)
c=2
d = −1
Théorème 3.33 Soit f une application linéaire de E dans F et A = MBB0 ( f ) avec B une
0
base de E et B une base de F. A est inversible ssi f est un isomorphisme de E dans F et
A−1 = MB0 B ( f −1 ).
Théorème 3.34 Soit A ∈ Mn (K). A est inversible si et seulement si la famille des vecteurs
colonnes de A est une base de E.
Théorème 3.35 Si A et B sont des matrices inversibles de Mn (K), alors A.B est inversible
et (A.B)−1 = B−1 .A−1 .
j=1 i=1
27
28 Applications linéaires et Matrices
n
X
Par identification on a yi = x j ai j .
j=1
A x et y, on fait correspondre deux vecteurs colonnes X et Y et on a la matrice A suivante :
a11 a12 . . . a1n
x1 y1
a21 a22 . . . a2n
X = . . . , Y = . . . et =⇒ Y = AX.
. . . . . . . . .
x y
n n
a p1 a22 . . . a pn
Exercice 3.36
S oit f : R4 → R3
(x1 , x2 , x3 , x4 ) 7→ (y1 , y2 , y3 ) tel que
y1 = 2x1 − x2 + x3 (3.9)
y2 = 3x2 − x3 + x4
y3 = x1 − x2 + x3 + x4 .
1) Déterminer la matrice A associée à f
2) Déterminer Ker( f ).
2x1 − x2 + x3 = 0
3x2 − x3 + x4 = 0 (3.10)
x1 − x2 + x3 + x4 = 0
28
29 Applications linéaires et Matrices
Théorème 3.38 Le rang de A est le rang de toute application linéaire représentée par A.
Exemple 3.41
2 −1 1 0
A = 0 3 −1 1 .
1 −1 1 1
On a
2 0 1
−1 3 −1
At = .
1 −1 1
0 1 1
a11 a12
det(A) = = a11 .a22 − a12 a21 .
a21 a22
29
30 Applications linéaires et Matrices
Notations :
On note Ai j la matrice déduite de A en supprimant la ligne i et la colonne j
On note (−1)i+ j .det(Ai j ) le cofacteur de l’élément ai j et det(Ai j ) s’appelle déterminant
mineur.
En pratique, on développe le déterminant de A au moyen des cofacteurs relatifs à la 1 ère
ligne (ou la 1 ère colonne).
Remarque 3.43 Ces propriétés sont aussi valables pour les lignes.
Le déterminant d’une matrice triangulaire est égal au produit des coefficients de la dia-
gonale.
30
31 Applications linéaires et Matrices
3.4.4 Comatrice
Définition 3.45 Soit M ∈ Mn (K). On appelle comatrice de M, notée M ∗ , la matrice des
cofacteurs.
31
32 Applications linéaires et Matrices
a11 x1 + a12 x2 + . . . + a1n xn = b1
a21 x1 + a22 x2 + . . . + a2n xn = b2
(3.11)
......
an1 x1 + an2 x2 + . . . + ann xn = bn
4x1 + 5x2 = 3
(
(3.12)
2x1 + 3x2 = 1.
On a
4 5
det(A) = = 4 ∗ 3 − 2 ∗ 5 = 12 − 10 = 2 =⇒ det(A) , 0.
2 3
Donc le systméme (3.12) admet une unique solution et A−1 existe. D’oú X = A−1 .B.
32