Cours D'algebre 1
Cours D'algebre 1
Cours D'algebre 1
1.1 Définition :
Définition1 :
On appelle loi de composition interne (l.c.i) ou opération sur E toute application de E × E vers E.
Lorsque cette loi de composition interne est noté ⋆, on note x ⋆ y l’image du couple (x, y) par application
précédente.
L’élément x ⋆ y est appelé composé de x par y via ⋆.
Les (l.c.i)sont généralement notées ⋆, ⊤, ⊥, +, ◦, ...
Exemples :
– L’addition est une l.c.i dans N, Z, Q, R.
– La multiplication est une l.c.i dans N, Z, Q, R.
∩
– est une l.c.i dans l’ensemnle des parties de E.
– o est une l.c.i sur l’ensemnle des applications de E vers E.
Définition2 :
On appelle magma tout couple (E, ⋆) formé d’un ensemble E et d’une loi de composition interne ⋆ sur E.
Définition2 :
Soit A une partie stable d’un magma (E, ⋆).
{A×A−→A
L’application restreinte définit une loi de composition interne sur A appelée loi de composition
(x,y)7−→x ⋆ y
interne induite ⋆.
On note ⋆|A ou plus couramment ⋆ et on peut ainsi donnée un sens au magma (A, ⋆).
Définition1 :
Soit ⋆ une loi de composition interne sur E. On dit que deux éléments a et b de E commutent pour la loi ⋆ ssi
a ⋆ b = b ⋆ a.
Exemples :
∩ ∪
– Les lois suivantes l’addition, la multiplication, , sont commutatives.
– o n’est pas commutative car si f (x) = x2 + 1 et g(x) = x − 1 on a (f og)(x) ̸= (gof )(x).
Définition2 :
Une loi de composition interne ⋆ sur E est dite commutative ssi tous les éléments de E commutent deux à
deux. Le magma (E, ⋆) est alors dit commutatif.
1
1.3.2 Associativité :
Définition1 :
Une loi de composition interne ⋆ sur E est dite associative ssi :
a, b, c ∈ E, (a ⋆ b) ⋆ c = a ⋆(b ⋆ c)
Définition1 :
On appelle élément régulier de (E, ⋆) tout élément x de E tel que ∀a, b ∈ E, x ⋆ a = x ⋆ b =⇒ a = b (régulier
à gauche) et a ⋆ x = b ⋆ x =⇒ a = b (régulier à droite).
Définition2 :
On appelle élément neutre de (E, ⋆) tout élément e de E tel que ∀x ∈ E x ⋆ e = x (neutre à gauche) et
e ⋆ x = x (neutre à droite).
Exemples :
– 0 est l’élément neutre pour l’addition.
– 1 est l’élément neutre pour la multiplication.
– IdE est l’élément neutre pour o sur l’ensemble des applications.
∩
– E est l’élément neutre pour sur l’ensemble de parties de E.
∪
– ∅ est l’élément neutre pour sur l’ensemble de parties de E.
– La soustraction et la division n’ont pas d’éléments neutres.
Proposition1 :
Si (E, ⋆) possède un élément neutre celui-ci est unique.
Exercice :
On considére les lois suivantes
– La loi ⊕ sur R2 définie par : (x1 , y1 ) ⊕ (x2 , y2 ) = (x1 + x2 , y1 + y2 ).
– La loi ⊗ sur R2 définie par : (x1 , y1 ) ⊗ (x2 , y2 ) = (x1 x2 − y1 + y2 , x1 y2 + x2 y1 ).
Montrer que les lois ⊕ et ⊗ sur R2 admettent chacun un élément neutre.
Définition3 :
On appelle monoïde tout magma (E, ⋆) associatif et possédant un élément neutre. Si de plus ⋆ est commutative,
le monoïde (E, ⋆) est commutatif.
2
1.4.3 Elément symétrisable
3
Définition1 :
On définit une loi de composition interne, encore notée ⋆, sur E n par
∀(x1 , x2 , ..., xn ), (y1 , ..., yn ) ∈ E n on pose (x1 , x2 , ..., xn ) ⋆(y1 , ..., yn ) = (x1 ⋆ y1 , ...., xn ⋆ yn ).
Proposition1 :
Si (E, ⋆) est un monoïde (resp. commutatif) d’élément neutre e alors (E n , ⋆) est un monoïde (resp. commutatif)
d’élément neutre f = (e, ..., e).
De plus un élément x = (x1 , ...., xn ) est symétrisable ssi ∀i ∈ {1, ..., n}, xi l’est, et si tel est le cas,
sym(x)=(sym(x1 ),...,sym(xn )).
Proposition1 :
Si (E, ⋆) est un monoïde (resp. commutatif) d’élément neutre e alors (F(X, E), ⋆) est un monoïde (resp.
commutatif) d’élément neutre g : x 7−→ e.
De plus un élément f ∈ F (X, E) est symétrisable ssi ∀x ∈ X, f (x) l’est, et si tel est le cas,
(symf )(x)=sym(f (x)).
2 Groupes
2.1 Définition :
Définition1 :
On appelle groupe tout magma (G, ⋆) tel que :
1. ⋆ est associative,
2. (G, ⋆) possède un élément neutre e,
3. Tout élément de (G, ⋆) est symétrisable.
Si de plus ⋆ est commutative, le groupe (G, ⋆) est dit commutatif ou plus couramment abélien.
Exemples :
– (R, +) et (R∗ , .) sont des groupes.
√ √ √
– Z[ 2]{k + l 2/k, l ∈ Z}, (Z[ 2], +) est un groupe.
Proposition1 :
Si (G, ⋆) est un groupe alors (Gn , ⋆) l’est aussi.
Proposition2 :
Si (G, ⋆) est un groupe alors (F(X, G), ⋆) l’est aussi.
4
2.2 Sous-groupe
2.2.1 Définition :
1. e ∈ H.
2. ∀ ∈ H, sym(x)∈ H (stabilité par passage au symétrique),
3. ∀x, y ∈ H x ⋆ y ∈ H (stabilité).
Théorème :
Si H est un sous-groupe de (G, ⋆) alors (H, ⋆) est un groupe.
Si de plus (G, ⋆) est abélien alors (H, ⋆) l’est aussi.
Proposition1 : (Caractérisation rapide des sous- groupes)
Soit H une partie G. On a équivalence entre :
1. H est un sous-groupe de (G, ⋆),
{H̸=∅
2.
∀x,y∈H, x⋆sym(x)∈H
Exemples :
– L’ensemble des applications continues muni de la loi o est un sous groupe de l’ensemle des application
muni de la loi o.
– L’ensemble des nombres pairs est un sous groupe de (Z, +).
Proposition2 :
Soit H1 , H2 deux sous-groupes de (G, ⋆).
H1 ∩ H2 est un sous-groupe de (G, ⋆).
Proposition1 :
(Un , ×) est un groupe abélien.
2.3.1 Définition :
Définition1
′
On appelle morphisme du groupe (G, ⋆) vers (G , ⊤) toute application
′
φ : G 7−→ G telle que :
∀x, y ∈ G, f (x ⋆ y) = f (x)⊤f (y).
5
′
Si (G , ⊤)=(G, ⋆) et f est bijective on dit que f est automorphisme.
Exemples :
– L’application x −→ 2x realise un automorphisme de (R, +).
– L’application x −→ 3lnx realise un isomorphisme de (R∗+ , .) sur (R, +).
– L’application x −→ ex realise un isomorphisme de (R, +) sur (R∗+ , .).
Proposition1 :
{Z−→G
Soit a ∈ G. φ : est un morphisme de groupes.
n7−→a
n
2.3.2 Propriètès
Proposition1 :
Soit f : G −→ G un morphisme de groupes.
′
f (e) = e , ∀x ∈ G, f (sym(x))=sym(f (x)), ∀x ∈ G, ∀p ∈ N, f (x⋆ p ) = (f (x))⊤p et ∀x1 , ..., xn ∈ G,
n n
f ( ⋆ xi ) = ⊤ f (xi )
i=1 i=1
Proposition2 :
′ ′ ′′ ′′
Si f : G −→ G et g : G −→ G sont deux morphismes de groupes alors g ◦ f : G −→ G est aussi un
morphisme de groupes.
Proposition3 :
′
Soit f : G −→ G .
′
Si f est un isomorphisme alors f −1 : G −→ G l’est aussi.
Proposition1 :
Soit f : G −→ G un morphisme de groupes.
′
Si H est un sous-groupe de(G, ⋆) alors f (H) est un sous-groupe de (G , ⊤).
′ ′
Si H est un sous-groupe de (G , ⊤) alors f −1 (H) est un sous-groupe de (G, ⋆).
Définition1 :
′
Soit f : G −→ G un morphisme de groupes.
′
On appelle image de f, l’ensemble Imf = f (G). C’est un sous-groupe de (G , ⊤).
′ ′
On appelle noyau de f, l’ensemble Kerf = f −1 ({e }). C’est un sous-groupe de (G , ⊤).
Théorème :
′
Soit f : G −→ G un morphisme de groupes.
′
f est surjective ssi Imf = G .
f est injective ssi Kerf = {e}.
Exercice :
Soit H = {(x, y, z) ∈ R3 /x + 2y − z = 0}.
– Montrer que H est un sous groupe de (R3 , +).
– Soit f : H −→ H définie par ∀(x, y, z) ∈ H, f (x, y, z) = (x − 2z, z − y, x − 2y).
Montrer que f est un morphisme de groupes déterminer son noyau et son image.
6
3 Etude du groupe symétrique
3.1 Permutation de Nn = {1, 2, ..., n}
Définition1 :
Pour n ∈ N∗ , On note Gn l’ensemble des permutations de Nn .
(Gn , ◦) est un groupe d’élément neutre IdNn = Id appelé groupe symétrique d’ordre n.
Définition2 : ( )
1 2 ... n
Pour σ ∈ Gn , On note pour visualiser l’action de σ.
σ(1) σ(2) ... σ(n)
Proposition1 :
Pour n ≥ 3 le groupe (Gn , ◦) n’est pas commutatif.
3.2 Cycles :
Soit p ∈ N tel que 2 ≤ p ≤ n.
Soit a1 , ..., ap une liste de p éléments deux à deux distincts de Nn .
Soit c : Nn −→ Nn définie par :
c(a1 ) = a2 , c(a2 ) = a3 , ..., c(ap−1 ) = ap , c(ap ) = a1 et ∀x ∈ Nn \ {a1 , ..., an }, c(x) = x.
c est une permutation de Nn .
Définition1 :
c est appelée cycle
( de longueur p )(ou p cycle).
On le note c = a1 a2 ... an .
L’ensemble S = {a1 , ..., an } est appelée support du cycle c.
Définition2 :
Les cycles de longueur (2 est appelés
) transpositions.
Une transposition τ = i j a pour effet d’échanger i et j.
Proposition1 :
Si c est un cycle de longueur p alors cp = Id.
Théorème
Toute permutation de Nn peut se décomposer en un produit d’au plus n − 1 transpositions.
Proposition2 : ( )
Toute permutation de Nn peut se décomposer en un produit de transposition de la forme 1 k avec 2 ≤ k ≤
n.
7
3.4 Signuature d’une permutation
Définition1 :
Soit σ ∈ Gn et un couple (i, j) avec 1 ≤ i < j ≤ n.
On dit σ réalise une inversion sur le couple (i, j) ssi σ(i) > σ(j).
On note I(σ) le nombre des couples (i, j) (avec 1 ≤ i < j ≤ n) sur lesquels σ réalise une inversion.
Définition2 :
On appelle signature d’une permutation σ de Gn le réel ε(σ) = (−1)I(σ) .
Proposition1 :
La signature d’une transposition est -1.
Théorème
L’application ε : Gn −→ {−1, 1} est un morphisme du groupe (Gn , ◦) sur ({−1, 1}, ×).
Corollaire :
Ainsi ε(σ1 ◦ ... ◦ σp ) = ε(σ1 ) × ... × ε(σp ).
∀p ∈ Z, ε(σ p ) = ε(σ)p et en particulier ε(σ −1 ) = ε(σ).
Proposition2 :
La signature d’un p cycle est (−1)p−1 .
Définition3 :
Une permutation de signature 1 est dite paire.
Une permutation de signature -1 est dite impaire.
On note An l’ensemble des permutations paires de Gn .
Proposition3 :
An est un sous-groupe de (Gn , ◦) appelé groupe alterné d’ordre n .
Proposition4 :
Pour n ≥ 2, CardAn = n!/2.
4 Anneaux
4.1 Définition :
Définition1 :
Soient ⊤ et ⋆ deux lois de composition internes sur un ensemble E.
On dit que ⋆ est distributive sur ⊤ ssi ∀a, b, c : a ⋆(b⊤c) = (a ⋆ b)⊤(a ⋆ c) (distributivité à gauche)
et (b⊤c) ⋆ a = (b ⋆ a)⊤(c ⋆ a) (distributivité à droite).
Définition2 :
On appelle anneau tout triplet (A, ⊤, ⋆) formé d’un ensemble A et deux lois de composition internes ⊤ et ⋆ tels
que :
8
1. (A, ⊤) est un groupe abélien,
2. (A, ⋆) est un monoïde,
3. ⋆ est distributive sur ⊤.
Si de plus ⋆ est commutative, l’anneau (A, ⊤, ⋆) est dit commutatif.
Exemples :
– (Z, +, .) et (R, +, .) sont des anneaux.
√
– (Z[ 2], +, .) est un anneau.
Proposition1 :
Si (A, +, ×) est un anneau et n ∈ N∗ alors (An , +, ×) est un anneau.
Proposition2 :
Si (A, +, ×) est un anneau et X un ensemble alors (F(X, A), +, ×) est un anneau.
4.2 Sous-anneau
Définition1 :
on appelle sous-anneau d’un anneau (A, ⊤, ⋆) toute partie B incluse dans A telle que :
1. eA ∈ B,
2. ∀x, y ∈ B, xT sym(y) ∈ B,
3. ∀x, y ∈ B, x ⋆ y ∈ B.
Exemples :
– (Z, +, .) est un sous-anneau de (Q, +, .) lui aussi est un sous-anneau de (R, +, .).
√
– (Z[ 2], +, .) est un sous-anneau de (R, +, .).
Théorème :
Si B est un sous-anneau de (A, +, ×) alors (B, +, ×) est un anneau.
Si de plus (A, +, ×) est commutatif alors (B, +, ×) est l’aussi.
Proposition1 :
∀a ∈ A, 0 × a = a × 0 = 0.
Proposition2 :
∀a, b ∈ A, (−a)b = −(ab) = a(−b)
.
Proposition3 :
∀a, b ∈ A, ∀p ∈ Z, (p.a)b = p.(ab) = a(p.b).
Proposition4 :
∀a, b ∈ A, (a + b)2 = a2 + ab + ba + b2 , (a + b)3 = ....
9
Théorème :(Formule du binôme de Newton)
Soit ∀a, b ∈ A tels que a et b commutent.
( )
∑n
n n−k k
∀n ∈ N, n
(a + b) = a b
k=0
k
.
Théorème :
Soit ∀a, b ∈ A, tels que a et b commutent.
∑
n−1
∀n ∈ N, a − b = (a − b)
n n
an−1−k bk = (a − b)(an−1 + an−1 b + ... + abn−2 + bn−1 )
k=0
Proposition1 :
Si x est inversible alors x−1 est inversible et (x−1 )−1 = x.
Proposition2 :
Si x et y sont inversibles alors xy est inversible et (xy)−1 =y −1 x−1 .
4.5.1 Définition :
Définition1 :
Soit a ∈ A tel que a ̸= 0A . On dit que a est diviseur de zéro ssi ∃b ∈ A\{0A } tel que ab = 0A ou ba = 0A .
Proposition1 :
Un diviseur de zéro est non régulier pour ×.
Proposition2 :
Les éléments inversibles de A ne sont pas diviseurs de zéro.
Proposition1 :
Si (A, +, ×) ne possède pas de diviseurs de zéro alors :
∀a, b ∈ A, ab = 0A =⇒ a = 0A ou b = 0A (implication d’intégrité)
10
Proposition2 :
Dans un anneau (A, +, ×) sans diviseurs de zéro tout élément non nul est régulier.
Définition1 :
Un élément a ∈ A est dit idempotent ssi a2 = a.
Définition2 :
Un élément a ∈ A est dit nilpotent ssi ∃n ∈ N∗ , an = 0A .
5 Corps
5.1 Définition :
Définition1 :
On appelle corps tout anneau commutatif (K, +, ×) non réduit à {0K } dont tous les éléments, sauf 0K , sont
inversibles.
Proposition1 :
Un corps n’a pas de diviseurs de zéro.
5.2 Sous-corps
Soit (K, +, ×) un corps.
Définition :
On appelle un sous-corps d’un (K, +, ×) toute partie L de K telle que :
1. L est un sous-anneau de (K, +, ×),
2. ∀x ∈ L\{0K }, x−1 ∈ L.
Théorème :
Si L est un sous-corps de (K, +, ×) alors (L, +, ×) est un corps.
11
Espaces vectoriels
K désigne le corps R ou C.
Soit n ∈ N∗ et E = Kn .
Pour λ ∈ K et ⃗x = (x1 , ..., xn ) ∈ Kn et on pose :
λ.⃗x = (λx1 , ..., λxn ) et ⃗x + ⃗y = (x1 + y1 , ..., x1 + yn ).
On définit ainsi un produit extérieur de K sur Kn et une loi de composition interne additive sur Kn .
Proposition : (Kn , +, .) est un K-espace vectoriel de vecteur nul ⃗0 = (0, ..., 0).
12
6.4.2 structure sur E1 × ... × En
Proposition : (E1 × ... × En , +, .) est un K-espace vectoriel de vecteur nul ⃗0 = (⃗0E1 , ..., ⃗0En ).
Proposition : Soit X un ensemble (F(X, K), +, .) est un K-espace vectoriel dont le vecteur nul est la fonction
nulle.
En particulier :
Pour X = D ⊂ R, l’ensemble F(D, R) (resp. F(D, C)) est un R-espace vectoriel (resp. C-espace vectoriel).
Pour X = N, l’ensemble RN (resp. CN ) est un R-espace vectoriel (resp. C-espace vectoriel).
Proposition : (F(X, F ), +, .) est un K-espace vectoriel de vecteur nul égal à la fonction constante égale à ⃗0F .
Soit E un C-espace vectoriel. La loi de composition externe de opérant de C sur E définit aussi par restric-
tion une loi de composition externe opérant de R sur E. Les propriétés calculatoires étant conservées, on peut
affirmer que E est alors aussi un R-espace vectoriel.
Proposition : ∀λ ∈ K, ∀⃗u ∈ E on a :
0.⃗u = ⃗0 et λ.⃗0 = ⃗0,
λ.⃗u = ⃗0 ⇒ λ = 0 ou ⃗u = ⃗0.
Proposition : ∀⃗u ∈ E, (−1).⃗u = −⃗u et ∀n ∈ N, ⃗u + ... + ⃗u = n.⃗u.
13
6.6 Combinaison linéaire
Déf : Soit ⃗e1 , ..., ⃗en des vecteurs de E.
On appelle combinaison linéaire (CL) des vecteurs ⃗e1 , ..., ⃗en tout vecteur ⃗x de E pouvant s’écrire sous la forme
∑
n
⃗x = λ1⃗e1 + ... + λn⃗en = λi⃗ei avec λ1 , ..., λn ∈ K.
i=1
7.1 Définition
Déf : On appelle sous-espace vectoriel de E toute partie F de E telle que :
1) F ̸= ∅,
2) ∀⃗x, ⃗y ∈ F, ⃗x + ⃗y ∈ F (F est stable pour +),
3) ∀⃗x ∈ F, λ ∈ K, λ.⃗x ∈ F (F est stable pour .).
Théorème : Si F est un sous-espace vectoriel de (E, +, .) alors (F, +, .) est un K-espace vectoriel.
∩
Proposition : Si (Fi )i∈I est une famille de sous-espaces vectoriels de E alors Fi est un sous-espace vectoriel
i∈I
de E.
14
7.3 Sous-espaces vectoriels supplémentaires
Déf : Soit F et G deux sous-espaces vectoriels de E.
On dit que F et G sont supplémentaires ssi F ∩ G = {⃗0} et F + G = E.
8 Applications linéaires
E, F et G désignent des K-espaces vectoriels.
8.1 Définition
Déf : Soit f : E → F . On dit que f est une application (K-linéaire) (ou morphisme de K-espace vectoriel)
ssi :
1) ∀⃗x, ⃗y ∈ E, f (⃗x + ⃗y ) = f (⃗x) + f (⃗y ),
2) ∀λ ∈ K, ∀⃗x ∈ E, f (λ.⃗x) = λ.f (⃗x).
On note LK (E, F ) (ou L(E, F )) l’ensemble de ces applications.
Proposition : (caractérisation usuelle)
Soit f : E → F . On a équivalence entre :
(i) f est une application linéaire,
(ii) ∀λ, µ ∈ K, ∀⃗x, ⃗y ∈ E, f (λ.⃗x + µ.⃗y ) = λ.f (⃗x) + µ.f (⃗y ).
Exemples :
15
Proposition : Soit f ∈ L(E, F ). On a : f (⃗0E ) = ⃗0F .
Proposition : Si ⃗e1 , ..., ⃗en est une famille de vecteurs de E et f ∈ L(E, F ) alors
∀λ1 , ..., λn ∈ K, f (λ1⃗e1 + ... + λn⃗en ) = λ1 f (⃗e1 ) + ... + λn f (⃗en )
(l’image d’un combinaison linéaire est la combinaison linéaire des images).
Déf : On appelle forme linéaire sur un K-espace vectoriel E, toute application linéaire de E vers K.
On note E ∗ . au lieu de L(E, K), l’ensemble des formes linéaires sur E.
E ∗ est appelé dual de E.
Exemple :
∫1
Soit J : C([0, 1], R) −→ R définie par J(f ) = 0 f (t)dt. J est une forme linéaire.
8.2.2 endomorphisme
On appelle endomorphisme de E, toute application linéaire de E dans lui-même. On note L(E) au lieu de
L(E, E) l’ensemble de ces applications.
8.2.3 isomorphisme
Déf : Deux K-espace vectoriels sont dits isomorphes ssi il existe un isomorphisme entre ceux-ci.
8.2.4 automorphisme
Déf : On appelle automorphisme de E, tout endomorphisme de E bijectif. On note GL(E) l’ensemble des
automorphismes de E.
16
Si W est un sous-espace vectoriel de F alors f −1 (W ) est un sous-espace vectoriel de E.
17
9 Transformations vectorielles
E désigne un K-espace vectoriel.
Proposition : q = Id − p.
18
F = E et G = {⃗0} donnent s = I.
F = {⃗0} et G = E donnent s = −I.
′
Déf : La symétrie s par rapport à G et parallélement à F est appelée symétrie complémentaire de s.
′
Proposition : s = s.
10 Notions affines
E désigne un K-espace vectoriel.
10.1 Translation
Déf : Soit ⃗u ∈ E. On appelle translation de vecteur ⃗u l’application t⃗u : E → E définie par ⃗x 7→ ⃗x + ⃗u.
Proposition : Soit ⃗u, ⃗v ∈ E. t⃗u ◦ t⃗v = t⃗u+⃗v = t⃗v ◦ t⃗u , t⃗u est une permutation de E et t⃗−1
u = t−⃗
u.
Exercice :
A quelle con dition une translation et une application linéaire d’un espace vectoriel E commutent-elles ?
19
10.2 Sous-espace affine
Déf : Soit ⃗a ∈ E et F un sous-espace vectoriel de E. On appelle sous-espace affine passant par ⃗a et dirigé par
F l’ensemble :
⃗a + F = {⃗a + ⃗u/⃗u ∈ F } = {⃗x ∈ E/⃗x − ⃗a ∈ F }.
Déf : Si V et W sont deux sous-espaces affines de directions F et G. On dit que V est parallèle à W ssi F ⊂ G.
Théorème : L’ensemble solution de l’équation linéaire f (⃗x) = ⃗y est soit vide, soit égal à un sous-espace affine
de direction kerf .
10.5 Barycentre
Soit n ∈ N∗ , ⃗u1 , ..., ⃗un ∈ E et λ1 , ..., λn ∈ K tel que λ1 + ... + λn ̸= 0.
Déf : On appelle barycentre des vecteurs ⃗u1 , ..., ⃗un affectés respectivement des masses λ1 , ..., λn le vecteur :
⃗v = λ1 ⃗uλ11+...+λ n⃗
un
+...+λn .
1
Déf : Lorsque les λ1 , ..., λn sont égaux non nuls, alors ⃗u = n (⃗
u1 + ... + ⃗un ) est appelé isobarycentre des
vecteurs ⃗u1 , ..., ⃗un .
Quand n = 2, on parle de milieu de ⃗u1 et ⃗u2 .
Proposition : Si tous les ⃗ui appartiennent à un même sous-espace affine V = ⃗a + F alors le barycentre ⃗v des
vecteurs ⃗u1 , ..., ⃗un affectés des masse λ1 , ..., λn appartient à V .
20
10.6 Convexité
Ici K = R.
Déf : Soit ⃗a, ⃗b ∈ E. On appelle segment d’extrémités ⃗a et ⃗b l’ensemble :
{ }
[⃗a, ⃗b] = (1 − λ)⃗a + λ⃗b/λ ∈ [0, 1] .
Déf : Soit C une partie de E. On dit que C est convexe ssi ∀⃗a, ⃗b ∈ C, [⃗a, ⃗b] ⊂ C.
∩
Proposition : Soit (Ci )i∈I une famille de parties convexes de ε. C = Ci est un convexe.
i∈I
21
Dimension d’un espace vectoriel
11 Famille de vecteurs :
Soit E un K-espace vectoriel et n ∈ N. F = (→ −
e1 , −
→
e2 , ..., −
→
en ) = ( −
→
ei )1≤i≤n désigne une famille de vecteurs
de E.
Dans le cas n = 0, on dit que c’est la famille vide.
Définition1 :
Soit F = (− →
e1 , −
→
e2 , ..., −
→
en ) une famille de vecteurs de E. On appelle sous-espace vectoriel engendrée par la
famille F le sous-espace vectoriel engendrée par {− →e1 , −
→
e2 , ..., −
→
en }. On le note Vect(F), Vect(−
→
e1 , −
→
e2 , ..., −
→
en ) ou
−
→
Vect( ei )1≤i≤n .
Théorème :
Si (−
→
e1 , −
→
e2 , ..., −
→
en ) est une famille de vecteurs de E alors Vect(−
→
e1 , −
→
e2 , ..., →
−
en ) est l’ensemble des combi-
−
→ −
→ −
→
naisons linéaires des e1 , e2 , ..., en i.e. :
{ ∑
n
}
V ect(−
→
e1 , −
→
e2 , ..., →
−
en ) = λi →
−
ei /λ1 , ..., λn ∈ K
i=1
.
Proposition :
Si (−→e1 , −
→
e2 , ..., →
−
en , −−→) est une famille génératrice et −
en+1 −→ ∈ Vect(−
en+1 →
e1 , →
−
e2 , ..., −
→
en ) alors la sous famille
→
− −
→ −
→
( e1 , e2 , ..., en )est génératrice.
22
11.3 Famille libre, famille liée
Définition
Un vecteur →
−u est dit colinéaire à vecteur −
→
v ssi il existe α ∈ K tel que −
→
u = α− →
v.
−
→ −
→
Deux vecteurs u et v sont dits colinéaires ssi l’un des deux est colinéaire à l’autre.
Définition
Cettte égalité vectorielles est alors appelée relation linéaire sur les vecteurs −
→
e1 , −
→
e2 , ..., →
−
en .
Proposition :
Soit n ≥ 2 et (−
→
e1 , −
→
e2 , ..., −
→
en ) une famille de vecteurs de E.
On a équivalence entre :
1. (−
→
e1 , →
−
e2 , ..., −
→
en ) est liée,
2. l’un des vecteurs − 1
→
e ,→
2
−
e , ..., −
n
→
e est combinaison linéaire des autres.
Si (→
−
e1 , −
→
e2 , ..., −
→
en ) est une famille libre et −−→ ∈Vect(→
en+1 −
e1 , −
→
e2 , ..., −
→
en ) alors (→
−
e1 , −
→
e2 , ..., −
→
en , −−→) est libre.
en+1
Soit B = (→
−ei )1≤i≤n = (−→
e1 , −
→
e2 , ..., −
→
en ) une famille de vecteurs de E.
On dit que B est une base ssi B est libre et génératrice.
Exemple
on pose −→
e1 = (1, 1, 1), −
→
e2 = (1, 1, 0), − →
e3 = (0, 1, 1) alors (−
→
e1 , −
→
e2 , −
→
e3 ) est une base.
∑
n
∀−
→
x ∈ E, ∃!(λ1 , λ2 , ..., λn ) ∈ Kn tel que →
−
x = λi −
→
ei .
i=1
23
Définition
Avec les notations ci-dessus on dit que les scalaires λ1 , λ2 , ..., λn sont appelés composantes de →
−
x dans B.
Définition
Munir un K−espace vectoriel d’une base B, c’est signifier que les composantes des vecteurs sont désormais
lues dans B.
Définition
λ1
.
−
→ →
− →
−
Si E est muni d’une base B = ( ei )1≤i≤n , on note parfois x (λ1 , λ2 , ..., λn ) ou x . pour signifier que
.
λn
−
→
x est le vecteur de composantes λ1 , λ2 , ..., λn .
Proposition :
x1 y1 x1 + y1 αx1
. . . .
Si −
→
x . et −
→
y . alors (−→
x + −
→
y ) . et ∀α ∈ K, (α−
→
x)= .
. . . .
xn yn x n + yn αxn
Soit E un K−espace vectoriel de dimension finie, L une famille libre G une famille génératrice. On peut
former une base de E en complétant la famille libre L par des vecteurs bien choisis dans la famille G.
Un K−espace vectoriel E est dit de dimension finie ssi il possède une famille génératrice finie. Sinon, il
est dit de dimension infinie.
24
Théorème :
Proposition
12.2 Dimension
Théorème :
Les bases d’un K-espace vectoriel E de dimension finie sont toute constituées de même nombre de vecteurs.
Définition :
Convention :
Proposition :
Proposition :
25
2. Toute famille génératrice a au moins n éléments.
3. Toute base a exactement n éléments.
Théorème :
Soit F et G deux sous-espaces vectoriels supplémentaires d’un K-espace vectoriel de dimension finie E.
On a dimE = dimF + dimG.
Définition :
Toute base de E obtenue en concaténant une base de F et une base de G est dite adaptée à la supplémentarité
de F et G .
26
Théorème :
Définition :
Une telle base est dite adaptée à F .
Si F et G sont deux sous-espaces vectoriels de dimension finie d’un K-espace vectoriel E alors F + G et
F ∩ G sont de dimensions finies et dim(E + G) = dimF + dimG − dim(F ∩ G).
Théorème :
Soit F et G deux sous-espaces vectoriels d’un K-espace vectoriel E de dimension finie. On suppose que
dimF + dimG = dimE.
On a équivalence entre :
– F et G sont supplémentaires dans E ,
– F + G = E,
→
−
– F ∩ G = { 0 }.
27
c) détermination d’un supplémentaire d’un sous-espace vectoriel
Si F est un sous-espace vectoriel non trivial d’un K -espace vectoriel E de dimension finie, on peut déter-
miner un supplémentaire de F en complétant une base de F en une base de E car on sait que les vecteurs
complétant génèrent un supplémentaire de F dans E.
Définition :
On appelle rang de la famille F la dimension du sous-espace vectoriel engendré par F. On le note rg(F)
ou rg(−
→e1 , −
→
e2 , ..., →
−
ep ).
Ainsi rg(F) = rg(→ −e1 , −
→
e2 , ..., −
→
ep ) = dimV ect(−
→e1 , −
→
e2 , ..., −
→
ep ).
Exemple
on pose →−
e1 = (1, 1, 0, 1), − →
e2 = (1, −1, 1, 0), −
→e3 = (2, 0, 1, 1), − →
e4 = (0, 2, −1, 1) on a −
→
e3 = −
→
e1 + −
→
e2 , −
→
e4 =
−
→ →
− →
− −
→ −
→ −
→ →
− →
− −
→ −
→ →
− −
→
e1 − e2 donc V ect( e1 , e2 , e3 , e4 ) = V ect( e1 , e2 ) alors rg( e1 , e2 , e3 , e4 ) = 4.
Proposition
On a rg(−
→
e1 , −
→
e2 , ..., →
−
ep ) ≤ p, dimE.
Théorème :
Définition :
28
– Si B est une base et f est isomorphisme alors f (B) est une base.
Corollaire
Si V est un sous-espace vectoriel de E alors dimf (V ) ≤ dimV avec égalité lorsque f est injective.
Corollaire
Exemples :
Soit f : R3 −→ R3 définie par : f (x,y, z) = (y − z, z − x, x − y) . Soit (y1 , y2 , y3 ) ∈ Imf alors ∃(x, y, z)R3
y1 = y − z
telque f (x, y, z) = (y1 , y2 , y3 ) =⇒ y2 = z − x =⇒ y2 = −y1 − y3
y3 = x − y
=⇒ Imf = {(y1 , −y1 − y3 , y3 )/y1 , y3 ∈ R} =⇒ rg(f ) = dimImf = 2.
Proposition
Théorème :
Soit f ∈ L(E, F ).
1. f réalise un isomorphisme de tout supplémentaire de kerf dans E vers Imf .
2. rg(f ) + dimKer(f ) = dimE.
29
14.4 Théorème d’isomorphisme
Proposition
Soit f ∈ L(E, F ).
⋆ f est injective ⇔ rg(f ) = dimE,
⋆ f est surjective ⇔ rg(f ) = dimF ,
⋆ f est isomorphisme ⇔ rg(f ) = dimE = dimF.
Théorème : (d’isomorphisme)
Soient E et F deux K-espaces vectoriels de dimensions finies tels que : dimE = dimF = n.
Soit f ∈ L(E, F ). On a équivalence entre :
1. f est un isomorphisme,
2. f est injective,
3. f est surjective,
4. rg(f ) = n,
5. ∃g ∈ L(F, E), g ◦ f = IdE ,
6. ∃h ∈ L(F, E), f ◦ h = IdF .
De plus si tel est le cas : g = h = f −1 .
Corollaire
⋆ f est injective ⇔ rg(f ) = dimE ⇔ f (B) est libre.
30
Corollaire
Soient E et F deux K-espaces vectoriels de dimensions finies sont isomorphes ssi ils ont même dimension.
Proposition
Proposition
Tout hyperplan peut se voir comme noyau d’une forme linéaire non nulle.
On suppose que E muni d’une base B = (→ −
e1 , −
→
e2 , ..., −
→
ep ).
−
→
Pour tout x ∈ E, notons x1 , ..., xn ses composantes dans B.
Théorème :
Définition
31
Calcul matriciel
K désigne R ou{C, m, n, p, q, r sont des entiers naturels.
0 si i ̸= j
On note δi,j = (symbole de Kronecker).
1 si i = j
ai,j est appelé coefficient d’indice (i, j) de la matrice A, il est positionné à la i ème ligne et j ème colonne
de A. On note Mn,p (K) l’ensemble des matrices de type (n, p) à coefficients dans K.
Convention :
Le 1er indice est l’indice de ligne (souvent noté i).
Le 2nd indice est l’indice de colonne (souvent noté j).
Cas particuliers :
Pour n = p = 1 : les matrices de M1,1 (K) sont appelées matrices (uni-)coefficient. Elles sont de la forme (x).
Il est usuel d’identifier ces matrices avec l’élément x de K qui leur correspond.
Pour n quelconque et p = 1 :
Les matrices de Mn,1 (K) sont
appelées matrices (uni-)colonnes.
a1
.
Elles sont de la forme : .
. .
an
Il est usuel d’identifier cette matrice colonne avec le n uplet (a1 , . . . , an ).
Pour n = 1 et p quelconque : les matrices de M1,p (K) sont appelées matrices (uni-)lignes.
Elles sont de la forme : ( a1 · · · ap ).
an,j
32
Pour 1 ≤ i ≤ n, la matrice Li = ( ai,1 · · · ai,p ) est appelée i ème ligne de A.
Déf : Soit A = (ai,j ) ∈ Mn (K). Les coefficients d’indice (i, i) de A sont appelées coefficients diagonaux de
A. La famille (a1,1 , a2,2 , . . . , an,n ) = (ai,i )1≤i≤n est appelée diagonale de la matrice A.
Déf : Une matrice A ∈ Mn (K) est dite diagonale ssi tous ses coefficients hors de la diagonale sont nuls.
On note Dn (K) l’ensemble de ces matrices.
λ1 0
Déf : On note diag(λ1 , . . . , λn ) la matrice diagonale dont la diagonale est (λ1 , . . . , λn ) i.e.
..
. .
0 λn
Déf : Une matrice A ∈ Mn (K) est dite triangulaire supérieure (resp. inférieure) ssi tous les coefficients en
dessous (resp. au dessus) de la diagonale sont nuls.
On note Tn+ (K) (resp. Tn− (K)) l’ensemble de ces matrices.
Déf : Soit 1 ≤ k ≤ n et 1 ≤ l ≤ p. On appelle matrice élémentaire d’indice (k, l) de Mn,p (K) la matrice Ek,l
dont tous les coefficients sont nuls sauf celui d’indice (k, l) qui est égal à 1. Ainsi
0 0
Ek,l = 1 ∈ Mn,p (K).
0 0
33
Théorème :
La famille B = (Ek,l )1≤k≤n,1≤l≤p forme une base de Mn,p (K) appelée base canonique.
Proposition : Tn+ (K) et Tn− (K) sont des sous-espaces vectoriels de Mn (K) de dimension n(n+1)
2 .
Théorème :
(Mn (K), +, ×) est un anneau, généralement non commutatif, d’élément nul O = On et d’élément unité I = In .
De plus, ∀λ ∈ K, ∀A, B ∈ Mn (K) : (λ.A)B = λ.(AB) = A(λ.B).
34
Si A et B commutent alors pour tout m ∈ N :
m ( )
∑ ∑ k m−1−k
m−1
m k m−k et Am − B m = (A − B)
(AB)m = Am B m , (A + B)m = k A B A B .
k=0 k=0
Exemple :
1 1 1
Soit A = 0 1 1 et on pose B = A − I3 , calculer B n et en déduire An .
0 0 1
0 1 1 0 0 1
B = 0 0 1 , B 2 = 0 0 0 , B n = O3 ∀n ≥ 3.
0 0 0 0 0 0
An = (I3 + B)n = I3 + nB + n(n−1) 2 B2.
Définition : Soit A ∈ Mn (K).
On dit que A est idempotente ssi A2 = A.
On dit que A est une matrice nilpotente ssi ∃m ∈ N, Am = 0.
Définition : Une matrice A ∈ Mn (K) est dite inversible ssi ∃B ∈ Mn (K), AB = BA = In . On note alors
B = A−1 .
Exemple :
1 0 1 0 1 1
Soit A = 2 −1 1 , A−1 = 1 0 1
−1 1 −1 1 −1 −1
Proposition : Soit A, B ∈ Mn (K)
Si A et B sont inversibles alors AB l’est aussi et (AB)−1 = B −1 A−1 .
Si A est inversible alors A−1 l’est aussi et (A−1 )−1 = A.
Théorème d’inversibilité :
Soit A ∈ Mn (K). On a équivalence entre
(i) A est inversible
(ii) A est inversible à droite i.e. ∃B ∈ Mn (K), AB = In
(iii) A est inversible à gauche i.e. ∃C ∈ Mn (K), CA = In .
De plus si tel est le cas A−1 = B = C.
35
(i) A est inversible.
(ii) ∀1 ≤ i ≤ n, ai ̸= 0.
1
a1
De plus si tel est le cas : A−1 =
..
. .
1
an
15.7 Transposition
15.7.1 définition
′
Définition : Soit A = (ai,j ) ∈ Mn,p (K). On appelle matrice transposée de A la matrice t A = (aj,i ) ∈ Mp,n (K)
′
définie par ∀1 ≤ i ≤ n, 1 ≤ j ≤ p, aj,i = ai,j .
Ainsi le coefficient d’indice (j, i) de t A est égal au coefficient d’indice (i, j) de A.
a11 · · · a1p a11 · · · an1
. .. . ..
Concrètement : Pour A =
.
. .
t .
, A = . .
.
an1 · · · anp a1p · · · anp
36
a11 a12 ··· a1n
..
a ..
12 a22 . .
Proposition : Les matrices de Sn (K) sont de la forme : A = . .
.. .. ..
. an−1,n .
a1n · · · an−1,n an,n
n(n+1)
Par suite Sn (K) est un sous-espace vectoriel de dimension 2 de Mn (K).
0 a12 ··· a1n
..
−a ..
12 0 . .
Proposition : Les matrices de An (K) sont de la forme : A = . .
.. . .. ..
. an−1,n
−a1n · · · −an−1,n 0
Théorème :
Sn (K) et An (K) sont deux sous-espaces vectoriels supplémentaires de Mn (K).
Proposition : L’application x 7→ M atB (x) est un isomorphisme entre les K-espaces vectoriels E et Mn,1 (K).
Soit F = (x1 , x2 , . . . , xn ) une famille de vecteurs de E. Pour tout 1 ≤ j ≤ p, posons Cj = M atB (xj ).
Définition : On appelle matrice représentative de la famille F dans B la matrice A dont les colonnes sont les
C1 , C 2 , . . . , Cp .
On note A = M atB (F) = M atB (x1 , x2 , . . . , xp ) ∈ Mn,p (K).
x1 xp
. ..
Ainsi M atB (F) = .. . composantes dans B.
37
16.2 Matrice d’une application linéaire
Définition : Soit E et F des K-espaces vectoriels de dimension p et n et munis de bases B = (e1 , . . . , ep ) et
C = (f1 , . . . , fn ). Soit u ∈ L(E, F ), on appelle matrice représentative de u relativement aux bases B et C la
matrice :
M atB,C (u) = M atC (u(B)) = M atC (u(e1 ), . . . , u(ep )) ∈ Mn,p (K).
u(e1 ) u(ep )
.. ..
M atB,C (u) = . . composantes dans C.
Théorème :
Soit E et F des K-espaces vectoriels munis de bases B = (e1 , . . . , ep ) et C = (f1 , . . . , fn ).
L’application M : L(E, F ) → Mn,p (K) définie par M (u) = M atB,C (u) est un isomorphisme de K-espace
vectoriel.
Corollaire : Lorsque deux K-espaces vectoriels E et F sont munis de bases B et C, il est équivalent de se
donner u ∈ L(E, F ) ou de se donner A = M atB,C (u) ∈ Mn,p (K).
Théorème :
Soit E et F des K-espaces vectoriels munis de bases B = (e1 , . . . , ep ) et C = (f1 , . . . , fn ).
Soit u ∈ L(E, F ), x ∈ E et y ∈ F .
Notons A = M atB,C (u), X = M atB (x) et Y = M atC (y).
On a : y = u(x) ⇔ Y = AX.
Ainsi : M atC (u(x)) = M atB,C (u) × M atB (x).
En Particulier : Les formes linéaires.
38
Si F = K muni de sa base canonique (1) et f ∈ E ∗ alors la matrice de f est une matrice ligne L est y =
f (x) ⇔ y = LX.
Théorème :
Soit E, F , G trois K-espaces vectoriels munis de bases B = (e1 , . . . , ep ), C = (f1 , . . . , fn ), D = (g1 , . . . , gm ).
Pour u ∈ L(E, F ) et v ∈ L(F, G) on a :
M atB,D (v ◦ u) = M atC,D (v) × M atB,C (u).
Théorème :
Soit E et F deux K-espaces vectoriels de même dimension n munis de bases B = (e1 , . . . , en ) et C =
(e1 , . . . , en ). Soit u ∈ L(E, F ) et A = M atB,C (u)
On a équivalence entre :
(i) u est un isomorphisme
(ii) A est inversible.
De plus si tel est le cas M atC,B (u−1 ) = A−1 .
En Particulier : (Les automorphismes)
Soit E un K-espace vectoriel muni d’une base B = (e1 , . . . , en ). Soit f ∈ L(E) et A = M atB (f ).
f ∈ GL(E) ⇔ A ∈ GLn (K)
De plus, si tel est le cas : M atB (f −1 ) = A−1 .
39
16.5 Formules de changement de bases.
16.5.1 Matrice de passage
′
Soit E un K-espace vectoriel de dimension n muni de deux bases B = (e1 , . . . , en ) et B = (ε1 , . . . , εn ).
′
Définition : On appelle matrice de passage de B à B la matrice
′
P = M atB (B ) = M atB (ε1 , . . . , εn ).
′
Proposition : Soit P la matrice de passage de B à B . On a P = M atB′ ,B (IdE ).
′
Proposition : Soit P la matrice de passage de B à B .
′
P est inversible et P −1 est la matrice de passage de B à B.
Théorème :
′
Soit B et B deux bases d’un K-espace vectoriel E.
′
Soit f ∈ L(E). Posons A = M atB (f ) et A = M atB′ (f ).
′ ′
En notant P = M atB B . On a : A = P −1 AP .
′ ′
Ainsi A = M atB′ (f ) = M atB′ B.M atB (f ).M atB B .
16.6 Traces
16.6.1 Trace d’une matrice carrée
40
16.6.2 Trace d’un endomorphisme
Définition : Cette quantité est appelée trace de l’endomorphisme f et est notée tr(f ).
Définition : On appelle rang de la matrice A, noté rg(A), le rang de la famille des colonnes de A, ainsi
rg(A) = rg(C1 , C2 , . . . , Cp ).
Proposition : Soit F = (x1 , x2 , . . . , xp ) une famille de vecteurs de d’un K-espace vectoriel E muni d’une
base B.
En notant A = M atB (x1 , x2 , . . . , xp ), on a rg(x1 , x2 , . . . , xp ) = rg(A).
Théorème :
Soit A ∈ Mn (K). On a équivalence entre :
(i) A est inversible
(ii) rg(A) = n.
41
17.3 Caractérisation théorique du rang
Soit 0 ≤ r ≤ min(n, p).
1 0
..
. 0
On note Jr la matrice de Mn,p (K) définie par Jr = .
0 1
0 0
Proposition : rg(Jr ) = r.
Théorème :
Soit A ∈ Mn,p (K) et r ∈ N tel que 0 ≤ r ≤ min(n, p).
On a équivalence entre :
(i) rg(A) = r
(ii) ∃P ∈ GLp (K), ∃Q ∈ GLn (K) telles que A = QJr P .
Corollaire : ∀A ∈ Mn,p (K), rg(t A) = rgA.
42