Coursm2 2008

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 215

Master de sciences, mention mathématiques

Année 2008–2009

INTRODUCTION À LA THÉORIE
DES REPRÉSENTATIONS

UFR de mathématique et d’informatique — Université Louis Pasteur


7, rue René Descartes — 67084 Strasbourg Cedex
Table des matières

Introduction 1

1 Modules sur un anneau 3


1.1 Le langage des modules . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.1 Rappels sur les anneaux . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.2 Définition d’un module . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.3 Constructions catégoriques . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.4 Le (bi)foncteur Hom . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.1.5 Le (bi)foncteur Ext1A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.1.6 Modules injectifs et projectifs . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2 Dévissage des modules . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.2.1 Conditions de finitude . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.2.2 Théorème de Krull-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.2.3 Modules de type fini sur un anneau principal . . . . . . . . . . . . . . . 28
1.2.4 Théorème de Jordan-Hölder . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.2.5 Groupe de Grothendieck . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.3 Modules complètement réductibles, radical, socle . . . . . . . . . . . . . . . . . 38
1.3.1 Modules complètement réductibles . . . . . . . . . . . . . . . . . . . . . 39
1.3.2 Théorème de densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.3.3 Radical, tête et socle d’un module . . . . . . . . . . . . . . . . . . . . . 43
1.3.4 Sous-modules superflus et essentiels . . . . . . . . . . . . . . . . . . . . . 44
1.4 Produit tensoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
1.4.1 Produit tensoriel de modules . . . . . . . . . . . . . . . . . . . . . . . . 45
1.4.2 Produit tensoriel d’anneaux . . . . . . . . . . . . . . . . . . . . . . . . . 52
1.4.3 Bimodules . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
1.4.4 Changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
1.4.5 Structure des modules complètement réductibles . . . . . . . . . . . . . 56

i
2 Théorie élémentaire des anneaux 61
2.1 Anneaux simples et semi-simples artiniens . . . . . . . . . . . . . . . . . . . . . 62
2.1.1 Théorème de Wedderburn-Artin . . . . . . . . . . . . . . . . . . . . . . 62
2.1.2 Anneaux semi-simples artiniens . . . . . . . . . . . . . . . . . . . . . . . 64
2.2 Radical de Jacobson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
2.2.1 Définition du radical de Jacobson . . . . . . . . . . . . . . . . . . . . . . 66
2.2.2 Cas d’un anneau artinien . . . . . . . . . . . . . . . . . . . . . . . . . . 70
2.3 Quelques résultats concernant les modules projectifs et injectifs . . . . . . . . . 74
2.3.1 Cas d’un anneau local . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
2.3.2 Idempotents . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
2.3.3 Modules principaux indécomposables . . . . . . . . . . . . . . . . . . . . 78
2.3.4 Couvertures projectives et enveloppes injectives . . . . . . . . . . . . . . 81
2.4 Blocs d’un anneau artinien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
2.4.1 Idempotents centraux . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
2.4.2 Classes de liaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

3 Algèbres 91
3.1 k-linéarité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
3.1.1 Préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
3.1.2 Algèbres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.1.3 Changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.1.4 Algèbres symétriques et extérieures . . . . . . . . . . . . . . . . . . . . . 96
3.2 Résultats classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
3.2.1 Représentations d’une algèbre . . . . . . . . . . . . . . . . . . . . . . . . 102
3.2.2 Quelques faits sur les algèbres de dimension finie . . . . . . . . . . . . . 104
3.2.3 Représentations et changement de base . . . . . . . . . . . . . . . . . . . 106
3.2.4 Théorèmes de Burnside et de Frobenius-Schur . . . . . . . . . . . . . . . 107
3.2.5 Caractère d’une représentation . . . . . . . . . . . . . . . . . . . . . . . 109
3.2.6 Représentations absolument irréducibles . . . . . . . . . . . . . . . . . . 110
3.2.7 Caractères linéaires d’une algèbre, caractère central d’une représentation 113
3.3 Algèbres séparables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

ii
3.3.1 Complète réductibilité et changement de base . . . . . . . . . . . . . . . 115
3.3.2 Cohomologie de Hochschild . . . . . . . . . . . . . . . . . . . . . . . . . 119
3.3.3 Théorème de Wedderburn-Malcev . . . . . . . . . . . . . . . . . . . . . . 123
3.3.4 Le théorème de réciprocité de Brauer . . . . . . . . . . . . . . . . . . . . 124

4 Représentations des groupes 129


4.1 Définition, premiers exemples et constructions . . . . . . . . . . . . . . . . . . . 129
4.1.1 k-algèbre d’un groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
4.1.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
4.1.3 Opérations sur les représentations . . . . . . . . . . . . . . . . . . . . . 133
4.1.4 Fonctions centrales et caractères . . . . . . . . . . . . . . . . . . . . . . 135
4.1.5 Anneau de Grothendieck . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
4.2 Représentations ordinaires des groupes finis . . . . . . . . . . . . . . . . . . . . 142
4.2.1 Séparabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
4.2.2 Caractères irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
4.2.3 Un peu d’analyse hilbertienne . . . . . . . . . . . . . . . . . . . . . . . . 149
4.2.4 Cas particulier des groupes abéliens . . . . . . . . . . . . . . . . . . . . 151
4.2.5 Centre de l’algèbre du groupe . . . . . . . . . . . . . . . . . . . . . . . . 153
4.2.6 Théorème pa q b de Burnside . . . . . . . . . . . . . . . . . . . . . . . . . 155
4.3 Représentations et caractères induits . . . . . . . . . . . . . . . . . . . . . . . . 157
4.3.1 Restriction, induction, coinduction . . . . . . . . . . . . . . . . . . . . . 157
4.3.2 Propriétés de l’induction . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
4.3.3 Trois théorèmes de Brauer . . . . . . . . . . . . . . . . . . . . . . . . . . 163
4.4 Représentations continues des groupes compacts . . . . . . . . . . . . . . . . . . 164
4.4.1 Groupes topologiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
4.4.2 Coefficients d’une représentation . . . . . . . . . . . . . . . . . . . . . . 165
4.4.3 Mesure invariante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
4.4.4 Théorème de Maschke et relations d’orthogonalité . . . . . . . . . . . . 168
4.4.5 Le théorème de Peter-Weyl . . . . . . . . . . . . . . . . . . . . . . . . . 171
4.4.6 Représentations unitaires . . . . . . . . . . . . . . . . . . . . . . . . . . 173

iii
5 Représentations du groupe symétrique et du groupe unitaire 177
5.1 L’anneau des fonctions symétriques . . . . . . . . . . . . . . . . . . . . . . . . . 177
5.1.1 Partitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
5.1.2 Sommes d’orbites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
5.1.3 Fonctions élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
5.1.4 Action par multiplication sur les fonctions de Schur . . . . . . . . . . . . 181
5.1.5 L’anneau Λ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
5.1.6 Tableaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
5.2 Représentations du groupe symétrique . . . . . . . . . . . . . . . . . . . . . . . 189
5.2.1 Classes de conjugaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
5.2.2 Sous-groupes de Young . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
5.2.3 L’application caractéristique de Frobenius . . . . . . . . . . . . . . . . . 190
5.2.4 Caractères irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
5.2.5 Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
5.3 Représentations du groupe unitaire . . . . . . . . . . . . . . . . . . . . . . . . . 196
5.3.1 Rappels sur les groupes compacts et sur le groupe unitaire . . . . . . . . 196
5.3.2 Restriction au tore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
5.3.3 Les caractères du tore . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
5.3.4 Les caractères irréductibles de U(n) . . . . . . . . . . . . . . . . . . . . 202
5.3.5 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
5.4 Application : symétrie des tenseurs . . . . . . . . . . . . . . . . . . . . . . . . . 205
5.4.1 Tenseurs symétriques, tenseurs antisymétriques . . . . . . . . . . . . . . 205
5.4.2 Dualité de Schur-Weyl . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206

Références 209

iv
Introduction

Ce cours fondamental commence par présenter le langage des modules sur un anneau. Cette
notion se retrouve partout en algèbre moderne, de la géométrie algébrique à la topologie
algébrique, en passant naturellement par la théorie des représentations. Pour simplifier, disons
que les modules sont aux anneaux ce que les actions sont aux groupes. Après un aperçu
des définitions et des constructions de base, nous étudions la structure des modules en les
découpant en morceaux plus ou moins petits. Puis nous regardons une classe particulière de
modules, les modules complètement réductibles, qui sont ceux qui peuvent être reconstitués
à partir de leurs plus petits constituants. Enfin nous définissons le produit tensoriel de deux
modules.
Dans le deuxième chapitre, nous introduisons des outils d’étude des anneaux : radical de
Jacobson et idempotents. Ensuite nous nous lançons dans l’étude d’une classe particulière
d’anneaux, les anneaux semi-simples artiniens. Ils sont caractérisés par le fait que tous leurs
modules sont complètement réductibles. Le théorème de Wedderburn-Artin décrit complète-
ment leur structure : ce sont des produits d’anneaux de matrice à coefficients dans un anneau à
division. (« Anneau à division » est l’appellation officielle pour « corps non-commutatif ».) En-
suite, nous étudions des anneaux artiniens généraux. Cette partie du cours est assez abstraite,
faute de temps pour en développer les applications.
Le troisième chapitre concerne les algèbres. Essentiellement, une algèbre est un anneau conte-
nant un corps, comme par exemple l’anneau des matrices à coefficients dans un corps k. On
peut alors faire varier ce corps, par exemple passer des matrices n × n à coefficients dans R
aux matrices n × n à coefficients dans C. Le point culminant de ce chapitre est le théorème de
Wedderburn-Malcev, qui dit que si A est une algèbre de dimension finie sur un corps k parfait
(disons, de caractéristique nulle), alors on peut casser A en deux morceaux A = B ⊕ J(A),
où B est une sous-algèbre semi-simple de A (un morceau à priori sympathique) et où J(A)
est un idéal nilpotent de A. Cette décomposition généralise la décomposition de Dunford des
endomorphismes d’un espace vectoriel en partie semi-simple plus partie nilpotente.
Avec le quatrième chapitre, nous en arrivons enfin à des problèmes concrets, avec la notion
de représentation de groupes. Notre exposé est assez classique, si ce n’est que nous tirons
partie du vocabulaire mis en place jusque là. Au programme : les représentations des groupes
finis, avec la théorie classique des caractères de Frobenius, Schur et Burnside, et la preuve
du théorème de Burnside qui affirme que tout groupe d’ordre pa q b est résoluble. Puis vient la
notion de représentation induite, un procédé important de construction de représentations. Le
chapitre se clôt sur la théorie de Peter-Weyl, qui affirme que si G est un groupe compact, alors
les coefficients des représentations complexes continues de dimension finie de G fournissent
une base hilbertienne de l’espace L2 (G) des fonctions de carré intégrable sur G pour la mesure
invariante (mesure de Haar).
Nous illustrons toute cette théorie dans le cinquième chapitre sur les exemples classiques du
groupe symétrique et du groupe unitaire. De façon peut-être surprenante de prime abord,
les deux cas peuvent être étudiés à l’aide d’une même combinatoire, celle des partitions, des
tableaux et des fonctions symétriques. Une autre relation entre les représentations du groupe
unitaire et celles du groupe symétrique, sans doute plus directe mais moins explicite, est
apportée par la dualité de Schur-Weyl, dont l’exposé conclut ce cours.

1
1 Modules sur un anneau

Introduction

Un groupe n’existe que quand il agit : ce leitmotiv de tout enseignement de théorie des
groupes résume d’une part les applications de la théorie, d’autre part les deux principales
méthodes d’études des groupes, à savoir les opérations d’un groupe sur un ensemble ou sur
un espace vectoriel. L’idée est d’obtenir des renseignements sur un groupe abstrait à partir
des groupes symétriques et des groupes linéaires, qui sont concrets et prétendument bien
connus. De façon analogue, une méthode fructueuse d’étude d’un anneau, commutatif ou non,
consiste à examiner ses actions sur un groupe abélien. Une telle action s’appelle un module
sur l’anneau. La pertinence de cette méthode vient de ce qu’on remplace un objet quadratique
(la multiplication dans un anneau est bilinéaire) par des objets linéaires.
L’algèbre linéaire, vue comme l’étude des espaces vectoriels, est le cas particulier de la théo-
rie des modules quand l’anneau est un corps. Nous retrouverons du reste quelques outils et
concepts de l’algèbre linéaire dans la théorie des modules. Mieux : la donnée d’un espace vec-
toriel de dimension finie sur un corps k muni d’un endomorphisme est équivalente à la donnée
d’un k[X]-module artinien et noethérien. Toute la théorie de la réduction des endomorphismes
se trouve ainsi englobée dans l’étude des k[X]-modules, ce qui explique à posteriori l’impor-
tance donnée aux sous-espaces stables et aux polynômes d’endomorphismes. Continuant ainsi,
on peut ramener la réduction simultanée d’une famille d’endomorphismes sur un espace vec-
toriel à l’étude des modules sur une algèbre. Un cas particulier de ceci est l’action d’un groupe
sur un espace vectoriel, appelée représentation linéaire du groupe.
L’ensemble des modules sur un anneau et des homomorphismes de modules forme ce qu’on
appelle une catégorie abélienne. C’est là le domaine des suites exactes courtes et longues,
de la chasse au diagramme et de l’abstract nonsense, des résolutions et de l’algèbre homolo-
gique, de la théorie basculante et des équivalences de catégories dérivées. Ces outils, parmi les
plus puissants en algèbre aujourd’hui, n’ont malheureusement pas leur place dans un cours
d’introduction.

1.1 Le langage des modules

1.1.1 Rappels sur les anneaux

Par convention, un anneau a toujours un neutre multiplicatif, et un homomorphisme d’anneaux


préserve toujours le neutre multiplicatif. On note A× l’ensemble des éléments inversibles de
l’anneau A : c’est un groupe. Un homomorphisme d’anneaux de A dans B induit un homo-
morphisme de groupes de A× dans B × .

Exemple. Si M et N sont deux groupes abéliens, alors l’ensemble des homomorphismes de


groupes de M dans N est un groupe abélien, qu’on note HomZ (M, N ). Pour M = N , on parle
d’endomorphismes et on note EndZ (M ) plutôt que HomZ (M, M ). Le produit de composition
munit EndZ (M ) d’une structure d’anneau, le neutre multiplicatif étant l’application identité.

3
Anneau opposé : soit A un anneau. On désigne par Aop l’anneau opposé à A : il a le même
groupe additif sous-jacent que A, mais le produit ab dans Aop de deux éléments a et b est égal
au produit ba calculé dans A.
Idempotent : un élément e d’un anneau A est appelé idempotent s’il est non-nul et si e2 = e.
Alors eAe = {x ∈ A | x = xe = ex} est un anneau, de neutre e.
Anneau à division : un anneau A est dit à division si A× est l’ensemble des éléments non-nuls
de A. On parlait jadis de « corps non-commutatif ».
Anneau local : un anneau A est dit local si l’ensemble A \ A× des éléments non-inversibles est
un idéal bilatère.
L’anneau nul, réduit au seul élément 0, n’est ni local, ni un anneau à division. C’est le seul
anneau dans lequel 0 est inversible.
Anneau de matrices : soit A un anneau et n un entier strictement positif. L’ensemble des
matrices carrées n × n à coefficients dans A est un anneau, noté Matn (A). Attention : les trois
anneaux Matn (Aop ), Matn (A) et Matn (A)op ont même groupe additif sous-jacent mais ont
des produits différents.
La définition d’anneau local adoptée ci-dessus est commode pour la preuve du théorème de
Krull-Schmidt 1.2.2.6. La notion peut cependant être présentée de façon différente ; d’autres
caractérisations sont ainsi données dans la proposition 2.3.1.1.

Exercices.
(1) Soit e un idempotent d’un anneau A, de sorte que eAe est un anneau de neutre multi-
plicatif e. Alors pour tout idéal bilatère I de A, l’ensemble eIe est un idéal bilatère de
eAe et eIe = I ∩ eAe. Tout idéal bilatère de eAe est de cette forme.
(2) Soient A un anneau et n un entier strictement positif. Les idéaux bilatères de Matn (A)
sont de la forme Matn (I), où I est un idéal bilatère de A.

1.1.2 Définition d’un module

La tâche d’insérer la phrase « Soit A un anneau » devant la plupart des énoncés suivants est
laissée au lecteur.
A-module : un A-module à gauche est un groupe abélien M muni d’une opération externe de
A de sorte que pour tous a, b ∈ A et tous m, n ∈ M , on ait

a(m + n) = am + an, (a + b)m = am + bm, (ab)m = a(bm), 1m = m.

En d’autres termes, on demande la donnée d’un homomorphisme d’anneaux de A dans


End(M ). Pour alléger les énoncés, la précision « à gauche » sera parfois omise des énoncés.
Pour indiquer que M est un A-module à gauche, on écrit parfois A M .
Homomorphismes de A-modules : soient M et N deux A-modules. Un homomorphisme de A-
modules de M dans N est un homomorphisme de groupes abéliens f : M → N qui commute
à l’action de A : pour tout a ∈ A et tout m ∈ M , on doit avoir f (am) = af (m).

4
On note HomA (M, N ) l’ensemble des homomorphismes de A-modules de M dans N ; c’est
un sous-groupe de HomZ (M, N ). Pour M = N , on note EndA (M ) = HomA (M, M ) ; c’est un
sous-anneau de EndZ (M ).

Exemples.
(1) A = Z. Un groupe abélien est un Z-module, et réciproquement. La notation HomZ (M, N )
n’est pas ambiguë.
(2) A est un corps k. Un A-module est la même chose qu’un k-espace vectoriel.
(3) A = k[X], où k est un corps. Un A-module est la donnée d’un k-espace vectoriel E
muni d’un endomorphisme u : l’action d’un polynôme P ∈ k[X] sur un vecteur x ∈ E
est P (u)(x). Un homomorphisme du k[X]-module donné par le couple (E, u) dans le
k[X]-module donné par le couple (F, v) est une application k-linéaire f : E → F telle
que v ◦ f = f ◦ u.

Annulateur d’un A-module : l’annulateur d’un A-module M est le noyau de l’homomorphisme


d’anneaux de A dans EndZ (M ) définissant la structure de A-modules sur M . C’est un idéal
bilatère de A noté ann M .
Deux modules importants sur un anneau A quelconque :
(1) Le A-module à gauche régulier est le groupe abélien (A, +), sur lequel les éléments de
A agissent par multiplication à gauche. Pour distinguer le A-régulier de l’anneau A,
on note celui-là A A. Pour tout A-module à gauche M , l’application f 7→ f (1) est un
isomorphisme de groupes abéliens de HomA (A A, M ) sur M . L’application f 7→ f (1)
est un isomorphisme d’anneaux de EndA (A A) sur Aop , de réciproque a 7→ (b 7→ ba).
(2) Soit I un ensemble. Le A-module A(I) (ou A A(I) ) est l’ensemble de toutes les familles
(ai )i∈I d’éléments de A n’ayant qu’un nombre fini d’éléments non-nuls. La somme et
l’action de A par multiplication à gauche se font composante par composante. À chaque
i ∈ I correspond un élement ei ∈ A(I) ; c’est la famille formée de zéros, avec juste un
1 en position i. Alors pour tout A-module M , l’application f 7→ (f (ei ))i∈I est un
isomorphisme de groupes abéliens de HomA (A(I) , M ) sur M I .
Soit M un A-module. Une famille (mi )i∈I d’éléments P de M est dite génératrice si chaque
élément m ∈ M s’écrit comme combinaison linéaire i∈I ai mi des éléments de cette famille,
avec (ai ) ∈ A(I) . On dit que c’est une base si pour tout m, il y a existence et unicité de (ai )i∈I .
Autrement dit, l’homomorphisme de A-modules f ∈ HomA (A(I) , M ) tel que f (ei ) = mi est
surjectif si (mi )i∈I est génératrice, et est un isomorphisme si (mi )i∈I est une base. Un A-
module qui possède une base est dit libre. Évidemment, tout module possède une famille
génératrice (la façon la plus brutale de voir cela est de prendre tous les éléments du module),
donc tout module est l’image d’un module libre par un homomorphisme surjectif.

Exercice. Soit A un anneau commutatif non-nul et M un A-module libre. Montrer que


toutes les bases de M ont même cardinal. (Indication : en rang fini, on peut procéder avec
des matrices et des déterminants de la façon suivante. Soit P(e1 , . . . , en ) une P
base de M et
(f1 , . . . , fm ) une famille génératrice de M . Écrivons ei = j aij fj et fj = i bji ei . Alors
AB = In . La formule de Binet-Cauchy sur les déterminants de matrices interdit alors m < n.

5
En rang infini, le plus simple est de considérer un idéal maximal m de A. Si I et J sont
deux ensembles, un isomorphisme de A-modules entre A(I) et A(J) induit un isomorphisme
de A/m-espaces vectoriels entre A(I) /mA(I) ∼= (A/m)(I) et A(J) /mA(J) ∼
= (A/m)(J) . On s’est
alors ramené au cas des espaces vectoriels sur un corps.)

1.1.3 Constructions catégoriques

Module 0.
Y
Produit Mt et coproduit (somme directe externe)
t∈T
( )
a Y
Mt = (mt ) ∈ Mt mt = 0 sauf pour un nombre fini d’indices
t∈T t∈T

d’une famille (Mt )t∈T de modules. La somme de deux éléments et l’action d’un élément de
Yse calculent composante para
A composante. On dispose d’homomorphismes canoniques pu :
Mt → Mu et iu : Mu → Mt pour u ∈ T ; pu donne la u-ième composante d’un T -
t∈T t∈T
uplet appartenant au produit, iu envoie un élément m de Mu sur le T -uplet comportant des
0 partout, sauf à la position u où on trouve m. Les applications
 !   ! 
' '
Y Y a Y
HomA N, Mt → HomA (N, Mt ) HomA Mt , N → HomA (Mt , N )
  et  
 t∈T t∈T   t∈T t∈T 
f 7→ (pt ◦ f )t∈T g 7→ (g ◦ it )t∈T
sont des isomorphismes de groupes abéliens ; de fait, on vérifie sansQpeine que ces homo-
morphismes Q admettent des bijections réciproques, qui à (ft )t∈T ∈ t∈T HomA (N, Mt ) et
(gt )t∈T ∈ t∈T HomA (Mt , N ), associent respectivement
! ! !
  Y X a
n 7→ (ft (n))t∈T ∈ HomA N, Mt et (mt )t∈T 7→ gt (mt ) ∈ HomA Mt , N .
t∈T t∈T t∈T

Remarques.
(1) Il est fréquent d’écrire plutôt que . Cet abus de notation ne prête quasiment jamais
L `
à confusion.
(2) Le module A(I) du paragraphe précédent est le coproduit i∈I A A d’une famille de
`
copies du module à gauche régulier. Dans ce cadre, le second isomorphisme de groupes
abéliens ci-dessus redonne l’isomorphisme HomA (A(I) , M ) ∼
= M I du paragraphe précé-
dent.

Sous-module : un sous-module N d’un A-module M est un sous-groupe additif stable par


l’action de A. Le groupe quotient M/N devient un A-module si l’on pose a(m + N ) = am + N ,
pour a ∈ A et m + N ∈ M/N . (On vérifie facilement que cela est bien défini.) L’injection de
N dans M et la surjection canonique de M sur M/N sont évidemment des homomorphismes
de A-modules. Un sous-module N d’un A-module M est dit maximal si N ( M et s’il n’existe
pas de sous-module P coincé strictement entre N et M .

6
Exemples.
(1) Les sous-modules du A-module à gauche régulier A A sont les idéaux à gauche de A.
(2) Soit E un espace vectoriel sur un corps k. La donnée d’un endomorphisme u de E définit
une structure de k[X]-module sur E. Un sous-k[X]-module de E est un sous-espace de
E stable par u ; la structure de k[X]-module sur E/F est définie par l’endomorphisme
que u induit sur E/F .
(3) Combinant les deux exemples précédents, considérons un corps k et un polynôme uni-
taire P = a0 + a1 X + · · · + an−1 X n−1 + X n de degré n à coefficients dans k. Le k[X]-
module E = k[X]/(P ), quotient du module régulier, est le k-espace vectoriel E muni de
l’endomorphisme u donné par la multiplication par X. Dans la base (1, X, . . . , X n−1 ),
la matrice de u est la matrice compagnon de P
 
0 . . . . . . 0 −a0
 .. ..
. .

1 −a1 
 . . . . .. ..  .
 
0 . . . . 
 .. . . . .
 
. . . 0 −an−2 

0 . . . 0 1 −an−1

(4) Soient A un anneau, I un idéal bilatère de A, M un A-module. Alors

IM = {a1 m1 + · · · + an mn | n ∈ N, (ai ) ∈ I n , (mi ) ∈ M n }

est un sous-module de M . De plus, l’idéal I est inclus dans le noyau de l’homomorphisme


d’anneaux de A dans End(M/IM ). Ce dernier se factorise donc à travers le quotient
A/I, ce qui permet de dire que M/IM est un A/I-module.

Soit f : M → N un homomorphisme de A-modules. L’image par f d’un sous-module de M


est un sous-module de N ; la préimage par f d’un sous-module de N est un sous-module de
M . On définit ainsi deux sous-modules ker f = {x ∈ M | f (x) = 0} et im f = {f (x) | x ∈ M }
de M et N , respectivement, appelés noyau et image de f . Le conoyau de f est le module
N/ im f . Un homomorphisme est injectif si et seulement si son noyau est nul ; on dit alors que
f est un monomorphisme. Un homomorphisme est surjectif si et seulement si son conoyau est
nul ; on dit alors que f est un épimorphisme 1 .
Soit M un A-module et P un sous-module. Les sous-modules de M/P sont de la forme
N/P avec N sous-module de M contenant P . (Pour voir cela, examiner la préimage par
l’homomorphisme canonique de M sur M/N .) Un module comme N/P peut ainsi être vu soit
comme quotient du sous-module N de M , soit comme sous-module du quotient M/P de M ;
pour cette raison, on dit que N/P est un sous-quotient de M .
1. Les notions de mono- et d’épimorphisme peuvent être définies dans un cadre catégorique général, où
injectivité et surjectivité n’ont plus de signification. Les équivalences « monomorphisme si seulement si le
noyau est nul » et « épimorphisme si et seulement si le conoyau est nul » restent toutefois valables dans les
catégories abéliennes.

7
Soit M un A-module, soit (Mi )i∈I une famille de sous-modules de M . On dispose alors d’ho-
momorphismes canoniques
 a   Y 
Mi → M M→ M/Mi
 et .
   
 i∈I  i∈I
P
(mi )i∈I 7→ i∈I mi m 7→ (m + Mi )i∈I

La somme des Mi , notée i∈I Mi est l’image du premier homomorphisme ; l’intersection des
P
Mi est le noyau du second ; la somme et l’intersection des Mi sont donc des sous-modules de
M . OnLdit que les Mi sont P en somme directe si le premier homomorphisme est injectif ; on écrit
alors i∈I Mi plutôt que i∈I Mi . Pour que M soit la somme directe de deux sous-modules
M 0 et M 00 , il faut et il suffit que M 0 ∩ M 00 = 0 et que M 0 + M 00 = M ; on dit alors que M 0
et M 00 sont supplémentaires l’un de l’autre. Un sous-module possédant un supplémentaire est
appelé facteur direct (direct summand en anglais).
Théorème de factorisation : un homomorphisme f : M → N de A-modules se factorise en

f
M / N.
=

$
M/ ker f
' / im f

Isomorphismes canoniques : si N , N 0 et P sont des sous-modules d’un A-module M tels que


P ⊆ N , alors (N + N 0 )/N 0 ∼
= N/(N ∩ N 0 ) et (M/P )/(N/P ) ∼
= M/N .
Suite exacte : une suite d’homomorphismes
f1 f2 fn
M0 −→ M1 −→ · · · −→ Mn

est dite exacte en Mi si im fi = ker fi+1 . On a alors fi+1 ◦ fi = 0. Elle est dite exacte si elle
est exacte en M1 , en M2 , ..., et en Mn−1 .

Exemple. Soit f : M → N un homomorphisme de A-modules. Alors on dispose d’une suite


exacte
f
0 → ker f → M −
→ N → coker f → 0.

f g
Suite exacte courte : une suite exacte courte est une suite exacte de la forme 0 → L −
→M →

N → 0. On a ainsi f injective, g surjective, L ∼
= ker g, N ∼= coker f , im f = ker g.

f g
1.1.3.1 Proposition. Étant donnée une suite exacte courte 0 → L −
→M →
− N → 0, les
trois conditions suivantes sont équivalentes :
(i) im f (= ker g) possède un supplémentaire.
(ii) Il existe h ∈ HomA (M, L) tel que h ◦ f = idL .
(iii) Il existe k ∈ HomA (N, M ) tel que g ◦ k = idN .

8
Preuve. Montrons d’abord que (i) entraîne (ii) et (iii)). Supposons (i). Il existe donc un sous-
module X dans M tel que M = X ⊕ im f . Alors la restriction de g à X est un isomorphisme
de X sur N . La composée k de l’inverse de cet isomorphisme avec l’injection de X dans M
vérifie g ◦ k = idN . Cela montre (iii). Par ailleurs, f induit un isomorphisme entre L et im f .
En composant l’inverse de celui-ci par la projection de M sur im f parallèlement à X, on
obtient un homomorphisme h de M sur L tel que h ◦ f = idL . Cela montre (ii).
Réciproquement, supposons (ii). Il existe donc h ∈ HomA (M, L) tel que h ◦ f = idL . Je dis
qu’alors M = ker h ⊕ im f . L’égalité ker h ∩ im f = 0 vient du fait que tout élément x dans
cette intersection s’écrit f (y) avec y ∈ L, puis alors que 0 = h(x) = h ◦ f (y) = y, de sorte
que x = f (0) = 0. L’égalité M = ker h + im f vient de ce que tout élément x de M s’écrit
x = f ◦ h(x) + (x − f ◦ h(x)), avec x − f ◦ h(x) ∈ ker h. Bref on a bien M = ker h ⊕ im f , ce
qui entraîne (i).
Il reste à montrer que (iii) entraîne (i), autrement dit que l’existence d’un k ∈ HomA (N, M )
tel que g ◦ k = idN entraîne celle d’un supplémentaire X de ker g dans M . Pour voir cela, on
constatera qu’avec les notations ainsi mises en place, on a M = ker g ⊕ im k. 

Une suite exacte courte qui satisfait les hypothèses de la proposition est dite scindée.
Toute suite exacte se casse en suites exactes courtes. La méthode pour le faire est d’introduire
f N
les noyaux et les conoyaux des homomorphismes de la suite exacte L −
→ M −→ de départ,
comme sur le diagramme suivant :

f g
L / 9/ N
9M
% % L/ ker f ∼
= im f = ker g
L/ ker f M/ ker g avec
9 8 M/ ker g = coker f ∼
= im g.
% %
0 0 0

On voit alors apparaître la suite exacte courte

0 → L/ ker f → M → M/ ker g → 0,

que l’on peut compléter aux bords par les deux suites

0 → ker f → L → L/ ker f → 0
0 → M/ ker g → N → coker g → 0.

En partant d’une suite exacte comportant n + 2 modules, le même procédé fournit n suites
exactes courtes, plus toujours les deux au bord.

Exercices.
(1) Soit (Mt )t∈T une famille finie de modules sur un anneau A. Appelons M la somme di-
recte externe des (Mt ) ; elle vient avec des homomorphismes it : Mt → M de A-modules.
Comme M est aussi le produit des (Mt )t∈T , on dispose également d’homomorphismes
canoniques pt : M → Mt .

9
(i) Vérifier les relations pt ◦ it = idMt , pt ◦ iu = 0 si t 6= u, ◦ pt = idM .
P
t∈T it
(ii) Montrer que réciproquement, si M 0 est un A-module, s’il existe des homomorphismes
i0t : Mt → M 0 et p0t : M 0 → Mt vérifiant les mêmes relations entre eux que les it et les
pt du (a), alors il existe un unique isomorphisme θ : M → M 0 rendant commutatif
pour tout t le diagramme

it 5M pt
)
Mt θ
 5 Mt .
i0t
( p0t
M0

(2) Soit M un A-module. Supposons que M soit la somme directe d’une famille finie (Mi )i∈I
de sous-modules de M . Pour i ∈ I, notons ei : M → Mi la projection sur Mi parallè-
lement à j6=i Mj ; autrement dit ei (m) est nul si m appartient à un Mj avec j 6= i et
P

est m si m ∈ Mi . Montrer que e2i = ei , que ei ◦ ej = 0 si i 6= j, et que i∈I ei = idM .


P

(3) (Lemme des cinq court) On considère un diagramme commutatif d’homomorphismes


de A-modules de la forme suivante, où les deux lignes forment des suites exactes :

0 /L /M /N /0

f g h
  
0 / L0 / M0 / N0 /0

Montrer que si, parmi les trois homomorphismes f , g et h, deux sont des isomorphismes,
alors le troisième est aussi un isomorphisme.
(4) (Lemme du serpent) On considère un diagramme commutatif d’homomorphismes de
A-modules de la forme suivante, où les deux lignes forment des suites exactes :

L
u /M v /N /0

f g h
  
0 / L0 / M0 / N 0.
u0 v0

Montrer qu’il existe une suite exacte canonique


δ
ker f → ker g → ker h →
− coker f → coker g → coker h.

(Indication : les deux premières flèches sont induites par u et v ; les deux dernières par
u0 et v 0 . Soit x ∈ ker h ; on peut écrire x = v(y), avec y ∈ M ; il existe alors un unique
z ∈ L0 tel que u0 (z) = g(y). On vérifie que la classe z + im f ne dépend que de x et pas
du choix de y, ce qui autorise à poser δ(x) = z. L’homomorphisme δ étant ainsi défini,
il faut vérifier que la suite obtenue est exacte. C’est longuet, mais ne présente pas de
difficulté particulière. Note : δ est appelé homomorphisme de liaison.)
(5) Soient deux homomorphismes g : M → N  et g : M0 → N de A-modules. Appelons
0 0

L le noyau de l’homomorphisme g −g : M ⊕ M → N , où la notation matricielle


0

par blocs reflète la décomposition en somme directe du module de gauche. Autrement


dit, L est le sous-module {(n, n0 ) | g(n) = g(n0 )} de M ⊕ M 0 . On dispose alors d’ho-
momorphismes f : L → M et f 0 : L → M 0 obtenus en composant l’injection de L

10
dans M ⊕ M 0 avec les surjections de ce dernier sur M et M 0 , et ainsi d’un diagramme
commutatif appelé « pullback »
f
L /M

f0 g
 
M0 / N.
g0

(i) Pour tout diagramme commutatif

X
h /M

h0 g
 
M0 /N
g0

d’homomorphismes de A-modules, il existe un unique homomorphisme de X dans


L rendant le diagramme suivant commutatif :

X
h
!
L /( M
h0 f
f0
  
M0 / N.

(ii) Montrer que f 0 induit un isomorphisme de ker f sur ker g 0 et que si g 0 est surjectif,
alors f est surjectif.
(6) Soient deux homomorphismes f : L→ M  et f : L → M de A-modules. Appelons
0 0

f
N le conoyau de l’homomorphisme : L → M ⊕ M 0 , où la notation matricielle
−f 0
par blocs reflète la décomposition en somme directe du module de droite. Autrement
dit, N est le quotient de M ⊕ M 0 par le sous-module {(f (m), −f 0 (m)) | m ∈ L}. On
dispose alors d’homomorphismes g : M → N et g 0 : M 0 → N obtenus en composant les
injections de M et M 0 dans M ⊕ M 0 avec l’homomorphisme canonique de ce dernier
sur N , et ainsi d’un diagramme commutatif appelé « pushout »
f
L /M

f0 g
 
M0 / N.
g0

(i) Pour tout diagramme commutatif


f
L /M

f0 h
 
M0 /X
h0

11
d’homomorphismes de A-modules, il existe un unique homomorphisme de N dans
X rendant le diagramme suivant commutatif :

L /M
g
 g0 
M0 /N h

(! 
h0
X.

(ii) Montrer que g induit un isomorphisme de coker f sur coker g 0 et que si f est injectif,
alors g 0 est injectif.

1.1.4 Le (bi)foncteur Hom

Dans ce paragraphe, A et B sont des anneaux.


Commençons par motiver notre étude. Soit f : L → M un homomorphisme de A-modules.
Alors pour tous A-modules X et Y , on dispose d’homomorphismes de groupes abéliens
! !
HomA (X, L) → HomA (X, M ) Hom A (M, Y ) → Hom A (L, Y )
f∗ : et f ∗ :
h 7→ f ◦ h h 7→ f ◦ h.

Si en outre f 0 : L → M et g : M → N sont des homomorphismes de A-modules, alors

(f + f 0 )∗ = f∗ + f∗0 , (f + f 0 )∗ = f ∗ + f 0∗ , (g ◦ f )∗ = g∗ ◦ f∗ et (g ◦ f )∗ = f ∗ ◦ g ∗ .

Foncteur : un foncteur covariant de la catégorie des A-modules dans la catégorie des B-modules
est une règle F attribuant un B-module F (M ) à tout A-module M , et un homomorphisme
F (f ) : F (M ) → F (N ) à tout homomorphisme f : M → N . On demande que F (idM ) = idF (M )
pour tout A-module M , et que pour f et g des homomorphismes, F (g ◦ f ) = F (g) ◦ F (f )
chaque fois que cela a un sens 2 .
Un foncteur contravariant est défini de façon analogue, à ceci près qu’il renverse les flèches. Si
G est un foncteur contravariant, alors l’image par G d’un homomorphisme f ∈ HomA (M, N )
appartient à HomB (G(N ), G(M )). Si la composée g ◦ f de deux homomorphismes f et g a un
sens, alors on demande que G(g ◦ f ) = G(f ) ◦ G(g).
Un foncteur F de la catégorie des A-modules dans la catégorie des B-modules est dit additif
si les applications F : HomA (M, N ) → HomB (F (M ), F (N )) sont des homomorphismes de
groupes. Un foncteur additif envoie le module 0 sur le module 0 (car 0 est le seul module M
pour lequel idM = 0). On montre qu’un foncteur additif respecte les sommes directes (utiliser
l’exercice (1) du paragraphe 1.1.3).
2. La notion de foncteur et de catégorie est bien plus générale que celle exposée ici dans le cadre des modules
sur un anneau. Néanmoins la définition que nous verrons bientôt de foncteur additif n’a de sens que pour des
foncteurs entre des catégories additives, et la notion de foncteur exact est réservée aux foncteurs entre deux
catégories abéliennes. La catégorie des modules sur un anneau A est l’exemple prototypique d’une catégorie
abélienne.

12
Un foncteur additif F est dit exact s’il envoie chaque suite exacte de A-modules sur une suite
exacte de B-modules.
Un foncteur covariant F est dit exact à gauche si l’exactitude de 0 → L → M → N entraîne
celle de 0 → F (L) → F (M ) → F (N ). Un foncteur contravariant G est dit exact à gauche si
l’exactitude de L → M → N → 0 entraîne celle de 0 → G(N ) → G(M ) → G(L). On définit
de façon analogue la notion de foncteur exact à droite.

Exemple. HomA (X, ?) est un foncteur additif covariant de la catégorie des A-modules dans
la catégorie des Z-modules ; notre application f∗ du début du paragraphe doit donc être notée
HomA (X, f ). De manière analogue, HomA (?, Y ) est un foncteur additif contravariant entre les
mêmes catégories ; notre application f ∗ du début du paragraphe doit être notée HomA (f, Y ).

1.1.4.1 Proposition. Soient X et Y deux A-modules. Alors les foncteurs HomA (X, ?) et
HomA (?, Y ) sont exacts à gauche.

f g
Preuve. Partons d’une suite exacte 0 → L − − N . En appliquant le foncteur HomA (X, ?),
→M →
nous obtenons une suite de groupes abéliens
f∗ g∗
0 → HomA (X, L) −→ HomA (X, M ) −→ HomA (X, M )
dont nous voulons voir qu’elle est exacte. L’injectivité de f entraîne celle de f∗ : la vérification
de cette assertion facile est omise. L’égalité g ◦ f = 0 implique que g∗ ◦ f∗ = (g ◦ f )∗ = 0,
d’où im f∗ ⊆ ker g∗ . Il nous reste à montrer l’inclusion opposée. Prenons h ∈ ker g∗ . Dans le
diagramme
X
k
h
 f  g
0 /L /M / N,

la composée g ◦ h est nulle. Ainsi im h ⊆ ker g = im f . Puisque f réalise une bijection entre
L et im f , il existe pour chaque x ∈ X un unique élément k(x) ∈ L tel que f (k(x)) = h(x).
L’application k, obtenue en composant h avec l’inverse de la restriction de f à son image, est
un homomorphisme de A-modules, et on a h = f∗ (k) ∈ im f∗ . Ceci achève notre preuve de
l’exactitude à gauche de HomA (X, ?). La preuve de l’exactitude à gauche de HomA (?, Y ) est
analogue. 

Les foncteurs HomA (X, ?) et HomA (?, Y ) ne sont pas exacts ; on peut le voir en examinant
leur comportement sur la suite exacte courte 0 → Z → Z → Z/mZ → 0 avec A = Z et
X = Y = Z/mZ (la flèche de Z dans lui-même est la multiplication par m).

Exercices.
(1) Soit A un anneau, soit F un foncteur additif covariant de la catégorie des A-modules
vers la catégorie des Z-modules, et soit M un A-module. Montrer que l’application
F : EndA (M ) → EndZ (F (M )) est un homomorphisme d’anneaux et que F (M ) est
muni d’une structure naturelle de EndA (M )-module à gauche.

13
(2) Soient A et B deux anneaux et F un foncteur covariant de la catégorie des A-modules
vers la catégorie des B-modules.
(i) Pour que F soit exact à gauche, il faut et il suffit que pour chaque suite exacte
courte 0 → L → M → N → 0, la suite 0 → F (L) → F (M ) → F (N ) soit exacte.
(ii) Pour que F soit exact à droite, il faut et il suffit que pour chaque suite exacte courte
0 → L → M → N → 0, la suite F (L) → F (M ) → F (N ) → 0 soit exacte.
(iii) Montrer que les conditions suivantes sont équivalentes :
— F est exact.
— F est exact à gauche et exact à droite.
— F envoie toute suite exacte courte sur une suite exacte courte.
(3) Soient A un anneau et L, M , N , P quatre A-modules. Soient f ∈ HomA (L, M ) et
g ∈ HomA (N, P ). Montrer que le diagramme suivant commute

HomA (M,g)
HomA (M, N ) / HomA (M, P )

HomA (f,N ) HomA (f,P )


 
HomA (L, N ) / HomA (L, P ).
HomA (L,g)

(Note : on note habituellement HomA (f, g) : HomA (M, N ) → HomA (L, P ) l’application
composée.)

1.1.5 Le (bi)foncteur Ext1A

Donnons-nous deux A-modules M et N . On note Ext 1A (M, N ) la classe des suites exactes
courtes de premier et dernier termes N et M , respectivement. Étant donnés deux élements
f g f0 g0
ξ: 0→N − − M → 0 et ξ 0 : 0 → N −→ E 0 −
→E→ →M →0

de Ext 1A (M, N ), on écrit ξ ∼ ξ 0 si on peut inclure ξ et ξ 0 dans un diagramme commutatif

6E
/N ( / 0.
0 θ 6M

(
E0

La situation impose en fait à l’homomorphisme θ : E → E 0 d’être un isomorphisme. Ainsi ∼ est


une relation d’équivalence sur Ext 1A (M, N ) ; on peut montrer que le quotient Ext1A (M, N ) =
Ext 1A (M, N )/ ∼ est un ensemble 3 . Pour ξ ∈ Ext 1A (M, N ), on note [ξ] ∈ Ext1A (M, N ) sa classe
d’équivalence.
3. On peut trouver un A-module libre F et un épimorphisme h : F → M . Pour toute suite exacte ξ, cet
épimorphisme h se factorise à travers E et s’écrit donc g ◦ k, avec k : F → E. Alors f k : N ⊕ F → E est
encore un épimorphisme, de noyau disons K. L’extension ξ est alors équivalente à une extension de la forme
0 → N → (N ⊕ F )/K → M → 0. On se ramène ainsi à une description à l’intérieur d’ensembles : ensemble
des sous-modules de N ⊕ F , groupes d’homomorphisme.

14
On munit Ext1A (M, N ) d’une structure de groupe abélien de la façon suivante. Prenons deux
extensions
f g f0 g0
ξ: 0→N − →E→ − M → 0 et ξ 0 : 0 → N −→ E 0 − → M → 0.
Définissons deux sous-modules de E ⊕ E 0 par

K = {(e, e0 ) | g(e) = g 0 (e0 )} et L = {(f (n), −f 0 (n)) | n ∈ N }.

Alors K contient L. On pose E 00 = K/L et on contemple les homomorphismes


! !
00 00
N → E E → M
f 00 : et g 00 : .
n 7→ (f (n), 0) + L (e, e0 ) + L 7→ g(e)

Alors la suite
f 00 g 00
ξ 00 : 0 → N −→ E 00 −→ M → 0
est exacte et sa classe d’équivalence ne dépend que des classes d’équivalence de ξ et ξ 0 . Ceci
nous autorise à définir [ξ] + [ξ 0 ] = [ξ 00 ]. On montre aisément que cette opération + (appelée
somme de Baer) est associative et commutative. Il est clair par ailleurs que les suites exactes
courtes scindées forment une classe d’équivalence dans Ext 1A (M, N ), c’est-à-dire un élément
de Ext1A (M, N ) ; cet élément est en fait l’élément neutre pour la structure de groupe abélien
sur Ext1A (M, N ). Enfin l’opposé de [ξ] est la classe de la suite exacte
−f g
0 → N −−→ E →
− M → 0.

Prenons à présent des homomorphismes f : M 0 → M et g : N → N 0 de A-modules. À une


classe [ξ] ∈ Ext1A (M, N ) représentée par la suite exacte courte

ξ : 0 → N → E → M → 0,

on associe les suites exactes f ∗ ξ et g∗ ξ obtenues par des diagrammes pullback et pushout (voir
les exercices (5) et (6) du paragraphe 1.1.3 ) :

f ∗ξ : 0 /N /P / M0 /0

f
 
ξ: 0 /N /E /M /0

g
 
g∗ ξ : 0 / N0 /Q /M / 0.

Les classes d’équivalence de f ∗ ξ et de g∗ ξ ne dépendent pas du choix de ξ dans sa classe.


On obtient ainsi deux foncteurs Ext1A (?, N ) et Ext1A (M, ?) en posant Ext1A (f, N )[ξ] = [f ∗ ξ]
et Ext1A (M, g)[ξ] = [g∗ ξ] ; ces foncteurs vont de la catégorie des A-modules vers celle des
groupes abéliens ; le premier est contravariant et le second covariant. (Il faut vérifier l’axiome
concernant la composition des homomorphismes, mais cela n’est pas difficile.) Ces foncteurs
sont additifs. On montre aussi l’égalité Ext1A (f, N 0 ) ◦ Ext1A (M, g) = Ext1A (M 0 , g) ◦ Ext1A (f, N ),
en tant qu’homomorphismes de groupes de Ext1A (M, N ) dans Ext1A (M 0 , N 0 ) ; l’application
composée est généralement notée Ext1 (f, g).

15
Pour finir, considérons une suite exacte courte de A-modules
f g
ξ: 0→L−
→M →
− N →0

et un A-module X. Alors on a une suite exacte longue de groupes abéliens


HomA (X,f ) HomA (X,g)
0 / HomA (X, L) / HomA (X, M ) / HomA (X, N )

Ext1A (X,f ) Ext1A (X,g)


/ Ext1 (X, L) / Ext1 (X, M ) / Ext1 (X, N )
A A A

dans laquelle l’homomorphisme de HomA (X, N ) dans Ext1A (X, L) (appelé « homomorphisme
de liaison ») est h 7→ Ext1A (h, L)[ξ].
Soit de même Y un A-module. Alors on a une suite exacte longue de groupes abéliens

0 / HomA (N, Y ) HomA (g,Y ) / HomA (M, Y ) HomA (f,Y ) / HomA (L, Y )

Ext1A (g,Y ) Ext1A (f,Y )


/ Ext1 (N, Y ) / Ext1 (M, Y ) / Ext1 (L, Y )
A A A

dans laquelle l’homomorphisme de HomA (L, Y ) dans Ext1A (N, Y ) est k 7→ Ext1A (N, k)[ξ].
Il serait ici logique d’écrire Ext0 au lieu de Hom. On pourrait alors poursuivre indéfiniment
vers la droite les suites exactes ci-dessus en introduisant des foncteurs additifs ExtiA (X, ?) et
ExtiA (?, Y ) de la catégorie des A-modules vers celle des Z-modules pour i > 1. La construction
la plus simple de ces foncteurs consiste à définir ExtiA (M, N ) comme un ensemble de classes
d’équivalence de suites exactes de la forme

0 → N → Ei → Ei−1 → · · · → E2 → E1 → M → 0 ;

la relation d’équivalence est toutefois un peu plus compliquée à décrire que dans le cas i = 1.
Une seconde méthode, plus commune mais moins concrète, consiste à se placer dans le cadre
général de l’algèbre homologique. On peut vérifier que toutes ces constructions donnent la
même chose, mais c’est assez fastidieux.
Signalons enfin que si L, M et N sont trois A-modules et si i et j sont deux entiers naturels,
alors on dispose d’un « produit de Yoneda » de ExtjA (M, N )×ExtiA (L, M ) dans ExtA i+j
(L, N ).
Concrètement, pour i = j = 0, ce produit est le produit de composition ◦ des homomor-
phismes. Si i et j sont strictement positifs, le produit des classes des deux suites exactes

0 → M → Ei → · · · → E1 → L → 0
0 → N → Fj → · · · → F1 → M → 0

est la classe de la suite exacte figurant en première ligne du diagramme

0 /N / Fj / ··· / F1 / Ei / ··· / E1 /L / 0.
>
!
<M
"
0 0

16
(En comparant cette définition avec le diagramme présenté à la fin du paragraphe 1.1.3, on
voit ici que chaque élément de ExtiA (M, N ) s’écrit comme produit d’éléments appartenant à
des Ext1A (X, Y ).) Si i = 0 et j > 0, le produit de [ξ] ∈ ExtjA (M, N ) par f ∈ HomA (L, M )
coïncide avec ExtjA (f, N )[ξ] et est donné par une construction de type pullback. Pour i > 0
et j = 0, le produit de f ∈ HomA (M, N ) par [ξ] ∈ ExtiA (L, M ) coïncide avec ExtiA (L, f )[ξ]
et est donné par une construction de type pushout. Notons L enfin que pour L = M = N , le
produit de Yoneda munit le groupe additif Ext•A (M, M ) = i∈N ExtiA (M, M ) d’une structure
d’anneau N-gradué, le neutre multiplicatif étant idM .

Exercice. On considère la situation donnée par le diagramme suivant dans la catégorie des
A-modules.
X
h
f g 
ξ: 0 /L /M /N /0

k

Y
(i) Prouver que Ext1A (h, L)[ξ] = 0 dans Ext1A (X, L) si et seulement s’il existe un homo-
morphisme s : X → M tel que h = gs.
(ii) Prouver que Ext1A (N, k)[ξ] = 0 dans Ext1A (N, Y ) si et seulement s’il existe un homo-
morphisme t : M → Y tel que k = tf .
(Cet exercice demande de vérifier que les suites longues indiquées plus haut sont exactes en
HomA (X, N ) et HomA (L, Y ), respectivement.)

1.1.6 Modules injectifs et projectifs

L’intérêt premier de ces notions réside dans leur rôle en algèbre homologique. Je n’aborderai
pas cet aspect des choses.
Modules projectifs : Un A-module P est dit projectif si le foncteur HomA (P, ?) est exact.

`
1.1.6.1 Proposition. Pour qu’un coproduit i∈I Pi de A-modules soit projectif, il faut et
il suffit que chaque facteur Pi soit projectif.

f g
Preuve. Soit L − − N une suite exacte de A-modules. Son image par le foncteur
→M →
!
Pi , ? ∼
a Y
HomA = HomA (Pi , ?)
i∈I i∈I

est de la forme
Q Q
Y i∈I HomA (Pi ,f ) Y i∈I HomA (Pi ,g) Y
HomA (Pi , L) −−−−−−−−−−−→ HomA (Pi , M ) −−−−−−−−−−−→ HomA (Pi , N ).
i∈I i∈I i∈I

17
Pour que cette suite de groupes abéliens soit exacte, il faut et il suffit que chacune des suites
HomA (Pi ,f ) HomA (Pi ,g)
HomA (Pi , L) −−−−−−−→ HomA (Pi , M ) −−−−−−−→ HomA (Pi , N )

soit exacte. Autrement dit, pour que le A-module i∈I Pi soit projectif, il faut et il suffit que
`
chacun des A-modules Pi soit projectif. 

Scolie. Le A-module à gauche régulier A A est projectif, puisque qu’on a un isomorphisme


HomA (A A, M ) ∼ = M naturel en M . La proposition ci-dessus entraîne alors qu’un A-module
libre est projectif. On en déduit qu’un module facteur direct d’un module libre est projectif :
si deux modules P et P 0 sont tels que P ⊕ P 0 est libre, alors P et P 0 sont projectifs.

1.1.6.2 Proposition. Soit P un A-module. Les cinq assertions suivantes sont équiva-
lentes.
(i) P est un A-module projectif.
(ii) Pour tout épimorphisme g : M → N de A-modules et tout homomorphisme h : P → N ,
il existe k ∈ HomA (P, M ) faisant commuter le diagramme

P
k
h
~ 
M /N / 0.
g

(iii) Toute suite exacte courte 0 → L → M → P → 0 est scindée.


(iv) Pour tout A-module L, Ext1A (P, L) = 0.
(v) P est un facteur direct d’un A-module libre.

g
Preuve. Supposons (i) vraie. Dans la situation de (ii), la suite M →
− N → 0 est exacte.
HomA (P,g)
L’assertion (i) dit alors que la suite HomA (P, M ) −−−−−−−→ HomA (P, N ) → 0 est elle aussi
exacte. Ainsi HomA (P, g) est surjectif. L’homomorphisme h est donc l’image par HomA (P, g)
d’un certain homomorphisme k. Cela établit (ii).
Réciproquement, supposons (ii). Pour montrer que le foncteur HomA (P, ?) est exact, il suffit
f g
de montrer que l’image qu’il donne d’une suite exacte courte 0 → L − − N → 0 est une
→M →
suite exacte courte. On sait déjà que
HomA (P,f ) HomA (P,g)
0 → HomA (P, L) −−−−−−−→ HomA (P, M ) −−−−−−−→ HomA (P, N )

est exacte. (ii) donne alors la surjectivité de HomA (P, g) et c’est gagné.
g
Supposons (ii) et considérons une suite exacte courte 0 → L → M → − P → 0. En prenant
N = P et h = idP , le (ii) donne k : P → M tel que g ◦ k = h = idP . C’est une des conditions
qui assure que notre suite exacte courte est scindée. Cela montre (iii).

18
Réciproquement, supposons (iii) vraie et prenons un épimorphisme g : M → N et un homo-
morphisme h : P → N . Nous pouvons introduire le noyau de g et construire le pullback

g0
L /P

h0 h
 
0 / ker g /M / N.
g

On peut identifier le noyau de g 0 avec celui de g. La surjectivité de g entraîne celle de g 0 . On


g0
obtient ainsi une suite exacte courte 0 → ker g → L − → P → 0. L’assertion (iii), supposée
vraie, dit que cette suite est scindée, d’où l’existence d’un homomorphisme f : P → L tel que
g 0 ◦ f = idP . L’homomorphisme k = h0 ◦ f de P dans M vérifie g ◦ k = h. (ii) est donc vérifiée.
L’équivalence des assertions (iii) et (iv) provient de la définition de Ext1A .
Nous avons déjà vu que (v) implique (i). Montrons que (iii) implique (v). Il existe un homo-
morphisme surjectif g d’un module libre, disons F , sur P . On dispose ainsi d’une suite exacte
g
courte 0 → ker g → F →− P → 0. D’après (iii), cette suite est scindée, de sorte qu’il existe un
sous-module P 0 de F tel que F = ker g ⊕ P 0 . Ce module P 0 , qui est isomorphe à P , est facteur
direct du module libre F . Ceci établit (v). 

L’intérêt des modules projectifs est qu’ils offrent les mêmes facilités que les modules libres, avec
en outre la propriété d’être stables par passage aux facteurs directs. La proposition suivante
dit que dans un module projectif, il est parfois possible de raisonner comme s’il y avait un
système de coordonnées.

1.1.6.3 Lemme de la base duale. Un A-module à gauche est projectif si et seulement


s’il existe deux familles d’éléments (ei ) ∈ P I et (ei ) ∈P HomA (P, A)I telles que pour chaque
x ∈ P , l’ensemble {i ∈ I | ei (x) 6= 0} soit fini et x = i∈I ei (x)ei . De plus, chaque famille
génératrice peut être utilisée pour jouer le rôle de (ei ) ; réciproquement, chaque famille jouant
le rôle de (ei ) est génératrice.

Preuve. Supposons que P soit projectif. Soit (ei )i∈I une famille génératrice du A-module P .
L’homomorphisme g : (ai )i∈I 7→ i∈I i ei de A
(I) dans P est surjectif. La condition (iii)
P
a
g
de la proposition 1.1.6.2 dit que la suite 0 → ker g → A(I) → − P → 0 est scindée, d’où un
homomorphisme k : P → A(I) tel que g ◦ k = idP . Les homomorphismes ei : P → A définis
par l’égalité k(x) = (ei (x))i∈I pour tout x ∈ P vérifient les conditions requises.
Réciproquement, supposons avoir deux familles (ei ) et (ei ) comme dans l’énoncé. On définit
deux homomorphismes g : A(I) → P et k : P → A(I) de la façon suivante : on pose g (ai )i∈I =


i∈I ai ei , de sorte que g envoie la base canonique du module libre A


(I) sur la famille (e )
i i∈I ;
P
on pose k(x) = (e (x))i∈I pour tout x ∈ P . Alors g ◦ k = idP , ce qui implique que la suite
i
g
0 → ker g → A(I) → − P → 0 est exacte et scindée. Ainsi A(I) ∼= P ⊕ ker g, de sorte que la
condition (v) de la proposition 1.1.6.2 est vérifiée. Le A-module P est donc projectif. 

19
Signalons enfin qu’il y a des anneaux sur lesquels tout module projectif de type fini est libre :
c’est le cas des anneaux locaux (voir le paragraphe 2.3.1) ou des anneaux de polynômes en un
nombre fini d’indéterminées à coefficients dans un corps (théorème de Quillen-Suslin).
Modules injectifs : Un A-module Q est dit injectif si le foncteur HomA (?, Q) est exact.

Q
1.1.6.4 Proposition. Pour qu’un produit i∈I Qi de A-modules soit injectif, il faut et il
suffit que chaque facteur Qi soit injectif.

Preuve. La preuve est identique à celle de la proposition correspondante pour les modules
projectifs, à ceci près qu’on remplace coproduit par produit et qu’on utilise l’isomorphisme de
foncteurs !
Qi ∼
Y Y
HomA ?, = HomA (?, Qi ).
i∈I i∈I


1.1.6.5 Proposition. Soit Q un A-module. Les cinq assertions suivantes sont équiva-
lentes.
(i) Q est un A-module injectif.
(ii) Pour tout monomorphisme f : L → M de A-modules et tout homomorphisme h : L →
Q, il existe k ∈ HomA (M, Q) faisant commuter le diagramme

f
0 /L /M

h
 ~ k
Q.

(iii) Toute suite exacte courte 0 → Q → M → N → 0 est scindée.


(iv) Pour tout A-module N , Ext1A (N, Q) = 0.
(v) Pour chaque idéal à gauche I de A et chaque h ∈ HomA (I, Q), il existe k ∈ HomA (A, Q)
tel que h = k I .

Preuve. La preuve de l’équivalence des assertions (i), (ii), (iii) et (iv) est semblable à ce qui a
été vu plus haut pour les modules projectifs et est omise.
(v) est le cas particulier de (ii) quand f est l’injection de l’idéal à gauche I dans A ; donc (ii)
implique (v). Réciproquement, supposons (v) et montrons (ii). Plaçons-nous dans la situation
de (ii), à ceci près qu’on identifie L au sous-module f (L) de M . Soit M l’ensemble des couples
(N, k) où N est un sous-module de M contenant L et k : N → Q est un homomorphisme
prolongeant h. On écrit (N, k) 4 (N 0 , k 0 ) si N ⊆ N 0 et si k 0 prolonge k ; ainsi 4 est un ordre
partiel sur M . Certainement M est non-vide car il contient (L, h).
L’ensemble ordonné M S est inductif. De fait, si N est une partie non-vide totalement ordonnée
de M , on pose P = (N,k)∈N N et on définit q : P → Q en recollant les homomorphismes
k : N → Q. On vérifie sans difficulté que (P, q) est un majorant de N dans M .

20
D’après le lemme de Zorn, M admet donc un élément maximal, disons (N, k). Soit x ∈ M .
L’ensemble I = {a ∈ A | ax ∈ N } est un idéal à gauche de A. L’homomorphisme de A-modules
ñ : a 7→ k(ax) de I dans Q se prolonge en un homomorphisme k̃ de A dans Q. En combinant
k et k̃, on obtient un prolongement k 0 de k au sous-module N 0 = N + Ax de M . (Chaque
élément n0 ∈ N 0 s’écrit n + ax avec n ∈ N et a ∈ A ; l’élément k 0 (n0 ) = k(n) + k̃(a) est alors
indépendant du choix de la décomposition n0 = n + ax utilisée.) L’inégalité (N, k) 4 (N 0 , k 0 )
et la maximalité de (N, k) conduisent alors à N = N 0 , donc à x ∈ N . Ainsi N = M , ce qui
établit (ii). 

Exemple. Soit A un anneau principal. Le (v) de la proposition dit qu’un A-module Q est
injectif si et seulement si il est divisible, c’est-à-dire si et seulement si pour tout a ∈ A et
x ∈ Q, il existe y ∈ Q tel que x = ay. Ainsi les Z-modules Q et Q/Z sont injectifs.

1.1.6.6 Proposition. Tout A-module peut être plongé dans un A-module injectif.

Preuve. Regardons d’abord le cas particulier A = Z. Un Z-module M quelconque est toujours


isomorphe à un quotient Z(I) /K d’un module libre. Maintenant Z(I) /K est un sous-module
de Q(I) /K, et ce dernier est un Z-module divisible. L’exemple ci-dessus nous dit donc que
nous avons réussi à plonger M dans un Z-module injectif.
Venons-en au cas général. Soit M un A-module. Il existe un monomorphisme de Z-modules i
de M dans un Z-module injectif E. On munit HomZ (A, E) d’une structure de A-module en
posant af = (b 7→ f (ba)), pour a ∈ A et f ∈ HomZ (A, E). Les deux foncteurs HomZ (?, E)
et HomA (?, HomZ (A, E)) de la catégorie des A-modules dans la catégorie des Z-modules sont
canoniquement isomorphes 4 . Le foncteur HomZ (?, E) étant exact 5 , il en est de même de
HomA (?, HomZ (A, E)). Ainsi HomZ (A, E) est un A-module injectif. 

Exercice. (Lemme de Schanuel) Étant données deux suites exactes de A-modules

0 → L → P → X → 0 et 0 → L0 → P 0 → X → 0
4. Au niveau des objets, l’isomorphisme s’obtient ainsi, pour tout A-module M : à f dans HomZ (M, E),
on associe m 7→ (a 7→ f (am)) dans HomA (M, HomZ (A, E)) ; à g dans HomA (M, HomZ (A, E)), on associe
m 7→ g(m)(1) dans HomZ (M, E). Cet isomorphisme se comprend mieux en termes de produit tensoriel :

HomA (?, HomZ (A, E)) ∼


= HomZ (A⊗A ?, E) ∼
= HomZ (?, E),

voir à ce sujet le corollaire 1.4.1.2.


5. Le lecteur attentif aura remarqué un petit raccourci dans la preuve. Le foncteur HomZ (?, E) va a priori
de la catégorie des Z-module dans elle-même. Ici, je regarde sa restriction à la catégorie des A-modules.
La restriction est encore un foncteur exact, car toute suite exacte de A-modules est une suite exacte de Z-
modules. Le point est que le noyau et l’image d’un homomorphisme ne changent pas, qu’on le regarde comme
un homomorphisme de A-modules ou de Z-modules.

21
avec P et P 0 projectifs, il existe un isomorphisme L0 ⊕ P ∼
= L ⊕ P 0.
(Indication : introduire le diagramme pullback

Y /P

 
P0 / X,

et en utilisant l’exercice (4) du paragraphe 1.1.3, montrer l’existence de deux suites exactes
0 → L0 → Y → P → 0 et 0 → L → Y → P 0 → 0.)

1.2 Dévissage des modules

1.2.1 Conditions de finitude

Module de type fini : un A-module est dit de type fini s’il est engendré par un nombre fini
d’éléments.
Tout quotient d’un module de type fini est de type fini.

1.2.1.1 Proposition. Soit M un A-module de type fini et L ( M un sous-module strict


de M . Alors il existe un sous-module N contenant L et maximal.

Preuve. Soit S ⊆ M une partie finie et génératrice. Certainement L ne contient pas S. Appe-
lons M l’ensemble des sous-modules de M contenant L et ne contenant pas S, et ordonnons
M par la relation usuelle d’inclusion. Alors M est non-vide (il contient L) et inductif.
En effet,
S soit N une partie non-vide totalement ordonnée de M . On vérifie sans difficulté que
P = N ∈N N est un sous-module de M . Si S était inclus dans P , alors chaque élément de
S appartiendrait à un N ∈ N ; puisque S est fini et N totalement ordonnée, on trouverait
alors un N ∈ N contenant tous les éléments de S, en contradiction avec la définition de M .
Ainsi P appartient à M , et il majore évidemment N .
Ayant établi que M est un ensemble ordonné non-vide et inductif, nous pouvons appliquer le
lemme de Zorn et obtenir l’existence d’un élément maximal dans M , autrement dit l’existence
d’un élément maximal parmi les sous-modules stricts de M contenant L. 

Module noethérien : un A-module M est dit noethérien si toute suite croissante de sous-
modules de M stationne à partir d’un certain rang.

1.2.1.2 Proposition. Soit A un anneau.


(i) Étant donné un A-module M , les trois assertions suivantes sont équivalentes :
(a) M est noethérien.
(b) Tout ensemble non-vide de sous-modules de M possède un élément maximal pour
l’inclusion.
(c) Tout sous-module de M est de type fini.

22
(ii) Soit N un sous-module d’un A-module M . Alors M est noethérien si et seulement si
N et M/N sont noethériens.
(iii) Soit M un A-module et n ∈ N. Si M est noethérien, alors M n est noethérien.

Preuve. (i) Supposons que (b) soit fausse et montrons que (a) l’est aussi. Puisque (b) n’est pas
vraie, il existe un ensemble non-vide N de sous-modules de M n’ayant pas d’élément maximal.
Nous pouvons alors construire par récurrence une suite strictement croissante d’éléments de
N : on prend N0 ∈ N , et supposant N0 , ..., Nn construits, on choisit Nn+1 ∈ N contenant
strictement Nn (cela est possible car Nn n’est pas un élément maximal de N ). Ainsi (a) n’est
pas vraie.
Montrons maintenant que (b) implique (c). Soit N un sous-module de M . Notons N l’en-
semble des sous-modules de N qui sont de type fini. Certainement N est non-vide ; d’après
l’hypothèse (b), il contient donc un élément maximal, disons L. Soit x ∈ N . Le module L étant
de type fini, il en est de même du sous-module L + Ax ; ainsi L + Ax ∈ N . Comme L + Ax
contient L, la maximalité de L dans N force L = L + Ax, et donc x ∈ L. Ceci étant vrai pour
tout x ∈ N , les sous-modules L et N sont égaux. Ainsi N est de type fini. L’assertion (c) est
donc vraie.
Montrons maintenant que (c) entraîne (a). S On suppose (c) vraie. Soit (Nn )n∈N une suite
croissante de sous-modules de M . Alors N = n∈N Nn est un sous-module de M . D’après (c),
N est engendré par un ensemble fini S d’éléments. Chaque élément de S appartient à un Nn ,
et puisque la suite de sous-modules est croissante et que S est fini, il existe un rang n pour
lequel tous les éléments de S appartiennent à Nn . Alors le sous-module N est inclus dans Nn .
Pour p ≥ n, on a alors N ⊆ Nn ⊆ Np ⊆ N . La suite (Nn )n∈N stationne donc à partir du rang
n. L’assertion (a) est établie.
On aurait pu prouver que (b) impliquait (a) directement, sans passer par (c), de la façon
suivante. Supposons (b). Soit (Nn )n∈N une suite croissante de sous-modules de M . L’ensemble
N des sous-modules Nn est non-vide ; il admet donc un élément maximal, disons Nn . Pour
p ≥ n, on a Nn ⊆ Np car la suite est croissante. Comme Nn est un élément maximal de N ,
ceci force Nn = Np . Ainsi la suite (Nn )n∈N stationne à partir du rang n.
(ii) Soit N un sous-module d’un A-module M . Supposons que N et M/N soient noethériens
et montrons que M est noethérien. Soit (Ln )n∈N une suite croissante de sous-modules de
M . Alors (Ln ∩ N )n∈N est une suite croissante de sous-modules de N , donc elle stationne
à partir d’un certain rang. De même, ((Ln + N )/N )n∈N est une suite croissante de sous-
modules de M/N , donc elle stationne à partir d’un certain rang. Pour n assez grand, on a
donc Ln ∩ N = Ln+1 ∩ N et Ln + N = Ln+1 + N . Cela entraîne que l’inclusion Ln ⊆ Ln+1 est
une égalité. (C’est un exercice facile et standard : chaque x ∈ Ln+1 s’écrit y + n avec y ∈ Ln et
n ∈ N ; alors n = x − y ∈ Ln+1 ∩ N , donc n ∈ Ln et finalement x = y + n ∈ Ln .) Bref (Ln )n∈N
stationne à partir d’un certain rang. Nous avons établi que M est noethérien. La preuve de
l’implication inverse (si M est noethérien, alors N et M/N sont noethériens) découle presque
directement des définitions ; la rédaction des détails est laissée au lecteur.
(iii) Pour chaque entier naturel n, on dispose d’une suite exacte courte (et même scindée)
f g
0→M − − M n → 0, où f (m) = (m, 0, . . . , 0) et g(m0 , m1 , . . . , mn ) = (m1 , . . . , mn ).
→ M n+1 →
Un raisonnement par récurrence basé sur l’assertion (ii) permet alors d’établir (iii). 

23
Module artinien : un A-module M est dit artinien si toute suite décroissante de sous-modules
de M stationne à partir d’un certain rang.

1.2.1.3 Proposition. Soit A un anneau.


(i) Un A-module M est artinien si et seulement si tout ensemble non-vide de sous-modules
de M possède un élément minimal pour l’inclusion.
(ii) Soit N un sous-module d’un A-module M . Alors M est artinien si et seulement si N
et M/N sont artiniens.
(iii) Soit M un A-module et n ∈ N. Si M est artinien, alors M n est artinien.

Module de présentation finie : un A-module M est dit de présentation finie s’il existe une
suite exacte de A-modules de la forme Am → An → M → 0. En d’autres termes, on demande
l’existence d’un système fini de générateurs (mi )1≤i≤n de M pour lequel le sous-module des
relations (c’est-à-dire le noyau de l’homomorphisme An → M qui envoie le i-ème élément de
la base canonique de An sur mi ) est de type fini.

Exemples.
(1) Le Z-module régulier est noethérien mais pas artinien.
(2) Si p est un nombre premier, alors le Z-module Z[ p1 ]/Z est artinien mais pas noethérien.
(Les sous-modules propres de Z[ p1 ]/Z sont les {a/pn + Z | a ∈ Z}, pour n ∈ N ; ils
forment une suite strictement croissante pour l’inclusion.)

Exercices.
(1) Si M est un A-module de type fini, une décomposition en somme directe M =
L
i∈I Mi
n’a qu’un nombre fini de termes non-nuls 6 .
(2) Soient M un A-module et f ∈ EndA (M ). Montrer que si M est noethérien et f est
surjective, alors f est injective. Montrer que si M est artinien et f est injective, alors
f est surjective. (Indication : mimer la preuve du lemme de Fitting ci-dessous.)

1.2.2 Théorème de Krull-Schmidt

1.2.2.1 Lemme de Fitting. Soit f un endomorphisme d’un A-module M artinien et


noethérien. Alors il existe une décomposition M = f ∞ (M )⊕f −∞ (0) en somme directe de deux
sous-modules stables par f , de sorte que la restriction de f à f ∞ (M ) soit un automorphisme
et que la restriction de f à f −∞ (0) soit nilpotente.
6. Cet exercice montre en particulier que si A est un anneau non réduit à {0}, alors un A-module libre
M∼
= A(I) est de type fini si et seulement si I est un ensemble fini.

24
Preuve. Puisque M est noethérien, la suite croissante de sous-modules (ker f n )n∈N stationne
à partir d’un certain rang. Puisque M est artinien, la suite décroissante de sous-modules
(im f n )n∈N stationne à partir d’un certain rang. Il existe donc deux sous-modules f −∞ (0) et
f ∞ (M ) de M et un entier naturel n tels que ker f p = f −∞ (0) et im f p = f ∞ (M ) pour p ≥ n.
En particulier f −∞ (0) = ker f n = ker f 2n et f ∞ (M ) = im f n = im f 2n .
Montrons que f −∞ (0) ∩ f ∞ (M ) = 0 : si x appartient à l’intersection, alors x s’écrit f n (y), et
l’égalité f n (x) = 0 entraîne que y ∈ ker f 2n = ker f n . Il vient ainsi x = 0.
Montrons que f −∞ (0) + f ∞ (M ) = M : si x appartient à M , alors f n (x) ∈ im f n = im f 2n ,
d’où l’existence d’un y tel que f n (x) = f 2n (y). Ainsi x est la somme d’un élément de ker f n =
f −∞ (0) et de f n (y) ∈ im f n = f ∞ (M ).
La restriction de f à f −∞ (0) est nilpotente puisque f −∞ (0) = ker f n . La restriction de f à
f ∞ (M ) est injective puisque ker f ⊆ f −∞ (0) intersecte trivialement f ∞(M ) ; la restriction de
f à f ∞ (M ) est surjective puisque f n f ∞ (M ) = f n ker f n + f ∞ (M ) = f n (M ) = f ∞ (M ).


Module indécomposable : on dit qu’un A-module M est indécomposable si M 6= 0 et s’il


n’existe pas de décomposition de M en somme directe M 0 ⊕ M 00 de deux sous-modules non-
nuls.

1.2.2.2 Corollaire. L’anneau des endomorphismes d’un module indécomposable artinien


et noethérien est local.

Preuve. Donnons-nous un module indécomposable artinien et noethérien, notons B son an-


neau d’endomorphismes, et posons J = B \ B × . D’après le lemme de Fitting, un élément de
B est soit nilpotent, soit inversible (et il ne peut pas être les deux à la fois car B n’est pas
le module nul) ; autrement dit, J est l’ensemble des éléments nilpotents de B. Nous voulons
montrer que J est un idéal bilatère de B.
Soit x ∈ J. Puisque x est nilpotent, ker x 6= 0 et coker x 6= 0. Alors pour chaque a ∈ B, nous
avons ker ax 6= 0 et coker xa 6= 0, ce qui interdit à ax et à xa d’être inversible, et impose donc
ax ∈ J et xa ∈ J. Ainsi J est stable par multiplication par les éléments de B.
Il nous reste à montrer que J est un sous-groupe additif de B. Soient x, y ∈ J. Si x + y
n’appartenait pas à J, il serait inversible, d’inverse disons b. Alors bx et by appartiendraient à
J et bx + by = 1. La nilpotence de by entraînerait alors l’inversibilité de bx = 1 − by (substituer
by à z dans la série (1 − z)−1 = 1 + z + z 2 + · · · ), ce qui est exclus. Bref x + y doit appartenir
à J. Ainsi J est stable par somme. D’après l’alinéa précédent, J contient 0 et est stable par
passage à l’opposé : J est donc bien un sous-groupe. 

1.2.2.3 Proposition. Soit M un A-module artinien ou noethérien. Alors M s’écrit


comme somme directe finie M = M1 ⊕ · · · ⊕ Mm de sous-modules indécomposables.

Preuve. Pour cette preuve, convenons de dire qu’un module est complètement décomposable
s’il peut s’écrire comme somme directe finie de sous-modules indécomposables.

25
Supposons d’abord M artinien et notons M l’ensemble des sous-modules de M qui ne sont
pas complètement décomposables. Si M est non-vide, il possède un élément minimal N .
Certainement N n’est ni nul, ni indécomposable : on peut donc écrire N = N1 ⊕ N2 , avec N1
et N2 non-nuls. Par minimalité de N dans M , ni N1 ni N2 n’appartiennent à M . Ainsi N1 et
N2 sont complètement décomposables, de sorte que N l’est : contradiction. Ainsi M est vide.
En particulier M est complètement décomposable.
La preuve du cas où M est noethérien est analogue, à ceci près qu’on introduit l’ensemble M
des sous-modules N de M tels que M/N ne soit pas complètement décomposable et qu’on
raisonne en supposant l’existence d’un élément maximal dans M . 

1.2.2.4 Lemme. Soient M = M 0 ⊕ M 00 = N1 ⊕ N2 ⊕ · · · ⊕ Nn deux décompositions d’un


A-module en somme directe de sous-modules. On suppose que l’anneau des endomorphismes de
M 0 est local et que les Ni sont indécomposables. Alors il existe s ∈ {1, . . . , n} tel que M 0 ∼
= Ns
et M = Ns ⊕ M . 00

Preuve. Notons

ϕ0 : M 0 → M, ϕ00 : M 00 → M, ψ0 : M → M 0, ψ 00 : M → M 00

les inclusions et projections définies par la somme directe M = M 0 ⊕ M 00 ; ainsi


 ψ0
   0  
ψ idM 0 0
0 00 = (idM ) et 0 00 (∗)

ϕ ϕ ϕ ϕ = .
ψ 00 ψ 00 0 idM 00

Pour t ∈ {1, . . . , n}, appelons it : Nt → N et pt : M → Nt les inclusions et projections définies


par la somme directe M = N1 ⊕ N2 ⊕ · · · ⊕ Nn .
Alors idM 0 = ψ 0 ◦ ϕ0 = nt=1 ψ 0 ◦ it ◦ pt ◦ ϕ0 . Comme EndA (M 0 ) est un anneau local, un des
P
termes de cette somme est inversible : disons ψ 0 ◦ is ◦ ps ◦ ϕ0 . Ce fait entraîne certainement
que ps ◦ ϕ est une injection de M 0 dans Ns et que ψ ◦ is est une surjection de Ns sur M 0 ; il
entraîne également que Ns = im(ps ◦ ϕ0 ) ⊕ ker(ψ 0 ◦ is ). L’indécomposabilité de Ns nous dit
alors que le premier terme est Ns et que le second est 0 ; autrement dit, ps ◦ ϕ0 est surjectif et
ψ 0 ◦ is est injectif. Nous avons ainsi deux isomorphismes en sens opposés entre M 0 et Ns .
Appelons χ l’inverse de la composée ψ 0 ◦ is ◦ ps ◦ ϕ0 ; ainsi

ψ 0 ◦ is ◦ ps ◦ ϕ0 ◦ χ = idM et ps ◦ ϕ0 ◦ χ ◦ ψ 0 ◦ is = idNs .

Définissons pes : M → Ns et ψe00 : M → M 00 par

pes = ps ◦ ϕ0 ◦ χ ◦ ψ 0 et ψe00 = ψ 00 ◦ (idM − is ◦ ps ◦ ϕ0 ◦ χ ◦ ψ 0 ).

Utilisant les égalités précédentes et les relations (∗), on vérifie que


     
 pes pes idNs 0
00 = (idM ) et 00

is ϕ is ϕ = .
ψe00 ψe00 0 idM 00

Ainsi M = Ns ⊕ M 00 , les homomorphismes pes et ψe00 étant les projections définies par cette
décomposition. 

26
1.2.2.5 Proposition. Soient M = M1 ⊕· · ·⊕Mm = N1 ⊕· · ·⊕Nn deux décompositions d’un
A-module en somme directe de sous-modules. On suppose que l’anneau des endomorphismes
de chaque Mi est local et que tous les Ni sont indécomposables. Alors m = n et il existe une
permutation σ de l’ensemble {1, . . . , n} telle que pour chaque i ∈ {1, . . . , n}, on ait Mi ∼
= Nσ(i)
et
M = Nσ(1) ⊕ · · · ⊕ Nσ(i) ⊕ Mi+1 ⊕ · · · ⊕ Mm .

Preuve. La preuve consiste à construire, par récurrence sur ` ∈ {0, . . . , m}, une application
injective σ : {1, . . . , `} → {1, . . . , n} telle que pour chaque i ∈ {1, . . . , `} on ait Mi ∼
= Nσ(i) et

M = Nσ(1) ⊕ · · · ⊕ Nσ(i) ⊕ Mi+1 ⊕ · · · ⊕ Mn .

L’initialisation de la récurrence est banale. Prenons ` ∈ {1, . . . , m} et supposons les valeurs


σ(1), . . ., σ(` − 1) construites. Appliquant le lemme 1.2.2.4 aux deux décompositions

M = M` ⊕ Nσ(1) ⊕ · · · ⊕ Nσ(`−1) ⊕ M`+1 ⊕ · · · ⊕ Mn = N1 ⊕ · · · ⊕ Nn

on trouve s ∈ {1, . . . n} tel que M` ∼


= Ns et

M = Ns ⊕ Nσ(1) ⊕ · · · ⊕ Nσ(`−1) ⊕ M` ⊕ · · · ⊕ Mm .

Ceci implique que s ∈


/ {σ(1), . . . , σ(` − 1)}, et il suffit de définir σ(`) = s pour pouvoir passer
au cran suivant.
Une fois la construction achevée, on obtient

M = Nσ(1) ⊕ · · · ⊕ Nσ(m) = N1 ⊕ · · · ⊕ Nn .

La comparaison prescrit la bijectivité de σ et l’égalité m = n. 

Compte tenu du corollaire 1.2.2.2 et de la proposition 1.2.2.3, nous obtenons finalement :

1.2.2.6 Théorème de Krull-Schmidt. Soit M un A-module artinien et noethérien.


Alors M peut être décomposé en somme directe finie de sous-modules indécomposables. Le
nombre et les classes d’isomorphisme des sous-modules apparaissant dans une telle décompo-
sition sont indépendants des choix opérés.

Le théorème de Krull-Schmidt est rudimentaire : il affirme que les modules indécomposables


sont les « blocs de base » des modules artiniens et noethériens, mais ne livre aucune in-
formation sur la manière de les trouver. Les anneaux pour lesquels on connaît les modules
indécomposables sont peu nombreux : il y a essentiellement les anneaux semi-simples (voir le
paragraphe 2.1.2), les anneaux de Dedekind (voir le paragraphe suivant), et les algèbres de
type de représentation fini (l’exemple standard est l’algèbre des chemins d’un carquois de type
Dynkin).

27
Exercices.
(1) Montrer qu’un A-module M dont l’anneau des endomorphismes est local est indécom-
posable. (Indication : supposons que M soit décomposable. L’anneau B = EndA (M )
contient alors un idempotent e 6= 1. Comme e et 1 − e sont tous deux non-nuls, l’équa-
tion e(1 − e) = 0 exclut que e ou 1 − e soit inversible dans B. Ainsi B possède deux
éléments non-inversibles dont la somme est inversible.)
(2) Montrer que tout A-module noethérien peut s’écrire comme somme directe finie de
sous-modules indécomposables. (Compléter la preuve de la proposition 1.2.2.3.)
(3) Soit F un corps fini, de cardinal disons q. On rappelle que pour chaque entier naturel
n, le groupe GLn (F) est d’ordre αn = (q n − 1)(q n − q) · · · (q n − q n−1 ).
(i) Soient k ≤ n deux entiers naturels. Montrer qu’il y a exactement αn /αk αn−k paires
(X, Y ) formées de deux sous-espaces vectoriels supplémentaires de Fn , tels que
dim X = k et dim Y = n − k.
(ii) Pour chaque entier naturel n, on note βn le nombre de matrices nilpotentes dans
Matn (F) (on convient que β0 = 1). Montrer que
n
2
X
βk /αk = q n /αn .
k=0

(Indication : regardons les éléments de Matn (F) comme des endomorphismes de


l’espace vectoriel V = Fn . D’après le lemme de Fitting, chaque élément u ∈
Matn (F) détermine une unique décomposition V = u∞ (V ) ⊕ u−∞ (0) en somme
directe de deux sous-espaces, sur lesquels u agit de façon respectivement inversible
et nilpotente. Ainsi on atteint chaque élément u ∈ Matn (F) une et une seule fois
en prenant une décomposition V = X ⊕ Y , un endomorphisme nilpotent de X, et
un élément de GL(Y ).)
(iii) En déduire que βn = q n(n−1) .

1.2.3 Modules de type fini sur un anneau principal

Dans ce paragraphe, A est un anneau commutatif intègre principal. Soit M un A-module. Un


élément x de M est dit de torsion s’il existe un élément a 6= 0 de A tel que ax = 0. On note
tor M l’ensemble des éléments de torsion de M ; c’est un sous-module de M . On dit que M
est de torsion si M = tor M ; on dit que M est sans torsion si tor M = 0.

1.2.3.1 Proposition. Un A-module de type fini est noethérien. Un A-module de type fini
et de torsion est artinien et noethérien.

Preuve. Le A-module régulier A A est noethérien, puisque ses sous-modules, autrement dit les
idéaux de A, sont engendrés par un élément, donc sont de type fini. Il s’ensuit que si n est un
entier naturel, le module libre An est noethérien. Un A-module M de type fini est un quotient
d’un An ; c’est donc un module noethérien.
Soit a un élément non-nul de A. Les sous-modules du A-module A/(a) sont en bijection avec
les idéaux de A contenant (a), donc avec les diviseurs de a, à association près. L’anneau A

28
étant factoriel, a n’a qu’un nombre fini de diviseurs à association près. Ainsi le A-module
A/(a) n’a qu’un nombre fini de sous-modules, ce qui implique qu’il est artinien et noethérien.
Pour tout entier naturel n, le A-module An /aAn , égal au produit de n copies de A/(a), est
donc artinien et noethérien.
Soit M un A-module de type fini et de torsion. Soit (m1 , . . . , mn ) une famille génératrice
finie de M . Pour chaque i ∈ {1, . . . , n} existe un élément non-nul ai ∈ A tel que ai mi = 0.
Alors a = a1 · · · an annule chaque mi , donc annule tous les éléments de M . (Attention : on se
sert ici de la commutativité de A.) L’épimorphisme de A-modules f : An → M qui envoie la
base canonique de An sur (m1 , . . . , mn ) se factorise par An /aAn . Ainsi M est un quotient du
module artinien et noethérien An /aAn ; c’est donc un module artinien et noethérien. 

1.2.3.2 Proposition. Un A-module sans torsion de type fini est isomorphe à un sous-
module d’un module libre de type fini.

Preuve. Soit M un A-module de type fini sans torsion. Soit (mi )i∈I une famille génératrice
finie de M . Soit (mj )j∈J avec J ⊆ I une sous-famille libre maximale : on demande que cette
sous-famille soit une base du sous-module N qu’elle engendre, et que pour chaque mi avec
i 6∈ J, il existe un élément non-nul ai ∈ A tel que ai mi ∈ N . Soit a le produit des ai pour
i ∈ I \ J. Alors l’application m 7→ am est un endomorphisme du A-module M (car A est
commutatif), injectif (puisque M est sans torsion) et à valeurs dans N (par construction).
Ainsi M se trouve réalisé comme sous-module du module libre N . 

Sur un anneau non-nul B, un module libre M = ∼ B (I) est de type fini si et seulement si I est
un ensemble fini, d’après l’exercice (1) du paragraphe 1.2.1. Si en outre B est commutatif,
alors l’exercice du paragraphe 1.1.2 montre que le cardinal de I ne dépend que de M , et même
que de la classe d’isomorphisme de M . Ce cardinal s’appelle le rang de M . Deux B-modules
libres sont donc isomorphes si et seulement si ils ont même rang, et un B-module libre est de
type fini si et seulement si son rang est fini.

1.2.3.3 Proposition. Un sous-module d’un A-module libre de rang fini n est libre de rang
fini au plus égal à n 7 .

Preuve. Nous montrons par récurrence sur n que tout sous-module M de An est libre de
rang au plus n. L’assertion est évidemment vraie pour n = 0. Admettons-la pour n − 1 et
montrons-la pour n. Soit M un sous-module de An . Appelons f : An → A l’application n-
ième coordonnée. Alors ker f est un module libre de rang n − 1 ; par hypothèse de récurrence,
ker f ∩ M est donc un module libre de rang au plus n − 1. Par ailleurs, f (M ) est un sous-
module de A, donc est de la forme Aa puisque A est principal ; selon que a est nul ou non,
Aa est libre de rang 0 ou 1. Dans tous les cas, le troisième terme de la suite exacte courte
0 → (M ∩ ker f ) → M → f (M ) → 0 est libre, donc projectif. Cette suite exacte est donc
scindée, de sorte que M = (M ∩ ker f ) ⊕ f (M ) est somme directe de deux modules libres de
rangs au plus n − 1 et 1 : il s’ensuit que M est libre de rang au plus n. 
7. On peut en fait montrer que si M est un A-module libre, alors chaque sous-module de M est libre, sans
avoir besoin de l’hypothèse que M est de type fini. Voir par exemple le lemme 15 p. 44 du livre Infinite abelian
groups par Irving Kaplansky, The University of Michigan Press, 1969.

29
Soit M un A-module de type fini. Le module M/ tor M est sans torsion et de type fini. Les deux
propositions précédentes montrent qu’il est libre ; il est donc projectif, ce qui impose à la suite
exacte 0 → tor M → M → M/ tor M → 0 d’être scindée. Ainsi M ∼ = tor M ⊕ (M/ tor M ). Le
problème de la classification des A-modules de type fini à isomorphisme près se subdivise ainsi
en deux études : la classification à isomorphisme près des A-modules de type fini de torsion
et celle des A-modules de type fini sans torsion.
Nous avons vu qu’un A-module de type fini sans torsion est libre ; un tel module est donc
caractérisé à isomorphisme près par son rang. Il nous faut maintenant étudier les A-modules
de type fini de torsion ; le résultat de classification est la proposition 1.2.3.6 à venir.

1.2.3.4 Lemme. Soit I un idéal non-nul de A et B l’anneau A/I. Alors le B-module


régulier B B est injectif.

Preuve. Appelons a un générateur de l’idéal I et notons x 7→ x l’application de A dans B


(réduction modulo I). Soit J un idéal de B et h ∈ HomB (J, B B). On écrit J = (b)/(a), où (b)
est un idéal de A contenant (a) ; ainsi b divise a, d’où c tel que  L’homomorphisme h est
 a = bc.
déterminé par l’élément t = h b de B. De plus, ct = ch b = h cb = h(a) = h(0) = 0. Cela
signifie que a divise ct, d’où
 b divise t. Soit u ∈ A tel que t = bu et soit k l’endomorphisme
x 7→ xu de B ; ainsi h b = t = bu = k b . Il s’ensuit que h et k coïncident sur le sous-B-
module de B engendré par b ; en d’autres termes, h est la restriction de k à J. Vu le critère (v)
de la proposition 1.1.6.5, nous avons démontré que B B était injectif. 

Dans un anneau principal A, les idéaux premiers non-nuls coïncident avec les idéaux maxi-
maux ; un élément p ∈ A est irréductible si et seulement si l’idéal (p) qu’il engendre est premier
et non-nul.

1.2.3.5 Proposition. Soit M un module de torsion, de type fini et indécomposable. Alors


il existe un unique idéal premier non-nul p de A et un unique entier n ≥ 1 tels que M ∼
= A/pn .
Réciproquement, tout tel module A/pn est de torsion, de type fini et indécomposable.

Preuve. Rappelons que l’annulateur d’un A-module M est l’idéal

ann M = {a ∈ A | ∀m ∈ M, am = 0}

de A. Pour chaque m ∈ M , notons µm un générateur de l’idéal {a ∈ A | am = 0}.


À présent, soit M un A-module de type fini et de torsion. Notre premier souci est de trouver
un élément m ∈ M tel que (µm ) = ann M .
Montrons d’abord que pour toute paire {m0 , m00 } d’éléments de M , il existe m ∈ M tel que
µm soit un ppcm de µm0 et µm00 . Pour cela, on utilise la décomposition en produit d’éléments
irréductibles de µm0 et de µm00 pour trouver des factorisations µm0 = c0 d0 et µm00 = c00 d00 de
sorte que c0 et c00 soient premiers entre eux et que leur produit soit un ppcm de µm0 et µm00 .
Écrivons une égalité de Bézout b0 c0 + b00 c00 = 1 et posons m = d0 m0 + d00 m00 . Certainement,

30
tout multiple commun de µm0 et de µm00 annule m. Dans l’autre sens, si a annule m, alors
ad0 m0 = −ad00 m00 , et donc
ad0 m0 = (b0 c0 + b00 c00 )ad0 m0 = b0 c0 ad0 m0 − b00 c00 ad00 m00 = ab0 µm0 m0 − ab00 µm00 m00 = 0,
ce qui montre que ad0 est un multiple de µm0 et que ad00 est un multiple de µm00 . Ainsi a est
un multiple commun de c0 et c00 , donc est un multiple de leur produit, lequel est un ppcm de
µm0 et µm00 par construction. Les éléments de A annulant m sont donc les multiples communs
de µm0 et de µm00 : nous avons bien µm = ppcm (µm0 , µm00 ).
Nous pouvons trouver une famille finie (m1 , . . . , mn ) de générateurs de M . Par une récurrence
immédiate, la propriété que nous venons de prouver entraîne l’existence d’un m ∈ M tel que
(µm ) = (µm1 ) ∩ · · · ∩ (µmn ). Le membre de droite de cette égalité est l’ensemble des a ∈ A qui
annulent tous les mi , donc qui annulent tous les éléments de M . Ainsi (µm ) = ann M .
Regardons maintenant l’homomorphisme a 7→ am du A-module à gauche régulier dans M . Son
image est le sous-module Am engendré par m, son noyau est (µm ) = ann M . Nous disposons
ainsi d’une suite exacte courte
0 → A A/ ann M → M → M/am → 0.
Appelons B l’anneau quotient A/ ann M . Le A-module M peut être vu comme un B-module,
car l’homomorphisme de A dans EndZ (M ) définissant la structure de A-module de M se
factorise à travers B ; le sous-module de M engendré par m est le même, qu’on regarde M
comme un module sur A ou sur B. Notre suite exacte peut donc être vue comme une suite
exacte de B-modules
0 → B B → M → M/Bm → 0.
Le lemme 1.2.3.4 entraîne que cette suite est scindée. Donc en tant que B-module, M ∼ =
B B ⊕ (M/Bm), et en tant que A-module, M ∼
=A A/ ann M ⊕ (M/Am). Cela montre que si

M est un A-module indécomposable, alors M = A A/ ann M .
Bref nous avons montré qu’un A-module M de type fini, de torsion et indécomposable est
nécessairement isomorphe à un module A/I, où I est un idéal non-nul de A. De plus, la
donnée de M détermine I, car I = ann M . Il nous reste à vérifier que A/I est indécomposable
si et seulement si I est une puissance strictement positive d’un idéal premier.
La condition est nécessaire. En effet, une variante du théorème des restes chinois dit que si
a = upα1 1 · · · pαnn est la décomposition d’un élément non-nul a ∈ A en produit d’un élément
inversible u et de puissances pαi i d’éléments irréductibles distincts, alors il y a un isomorphisme
de A-modules
A/(a) ∼= A/(pα1 1 ) ⊕ · · · ⊕ A/(pαnn ).
Pour que A/(a) soit un A-module indécomposable, il est donc nécessaire que la décomposition
de a en produit de puissances d’éléments irréductibles fasse intervenir exactement un facteur.
La condition est suffisante. De fait, soit p un idéal premier et n ≥ 1 un entier. Soit B l’an-
neau A/pn . C’est un anneau local, car il possède un unique idéal maximal, à savoir p/pn 8 .
Identifiant le A-module A/pn au B-module régulier, nous obtenons l’égalité EndA (A/pn ) =
EndB (B B) ∼ = B. L’anneau des endomorphismes du module A/pn est donc local : le module
est indécomposable (voir au besoin l’exercice (1) du paragraphe 1.2.2). 
8. Un anneau commutatif B est local si et seulement s’il possède un unique idéal maximal. De fait, un
élément b ∈ B est inversible si et seulement si l’idéal (b) est B tout entier, c’est-à-dire n’est contenu dans

31
1.2.3.6 Proposition. Pour chaque A-module M de type fini et de torsion, il existe une
unique suite finie décroissante d’idéaux A 6= I1 ⊇ I2 ⊇ · · · ⊇ In 6= 0 telle que

M∼
= A/I1 ⊕ A/I2 ⊕ · · · ⊕ A/In .

Preuve. Soit M un A-module de type fini et de torsion. On peut utiliser le théorème de


Krull-Schmidt, car M est artinien et noethérien : M s’écrit comme somme de modules in-
décomposables, et les termes de la somme sont uniques à isomorphisme près. La proposition
précédente dit que les modules indécomposables pouvant intervenir dans la décomposition de
M sont isomorphes à des A/(pα ), où p est un élément irréductible de A et α ≥ 1 est un entier.
Nous écrivons ainsi
m ni
!
 αij 
M∼
M M
= A p , i
i=1 j=1

avec p1 , . . . , pm des éléments irréductibles deux à deux non-associés et pour chaque i, αi1 ≥
αi2 ≥ · · · ≥ αini > 0. On convient d’écrire αij = 0 pour j > nij . On pose n = max(n1 , . . . , nm )
α α
et an+1−j = p1 1j · · · pmmj pour 1 ≤ j ≤ n. Alors a1 | a2 | · · · | an , et le théorème des restes
chinois donne
n m n
!
M∼ ∼
M M  α  M
= A p ij = A/(an+1−j ) = A/(a1 ) ⊕ A/(a2 ) ⊕ · · · A/(an ).
j=1 i=1 j=1

En reprenant ce raisonnement dans l’autre sens, on constate que l’unicité dans la décomposi-
tion de Krull-Schmidt impose l’unicité des idéaux (a1 ), ..., (an ). 

1.2.3.7 Exemple. Cette proposition, appliquée au cas A = Z, entraîne aisément le théorème


de classification des groupes abéliens finis :
Soit G un groupe abélien fini. Alors il existe une unique suite finie (a1 , a2 , . . . , an ) d’entiers
supérieurs à deux telle que G ∼
= Z/a1 Z × Z/a2 Z × · · · × Z/an Z et a1 | a2 | · · · | an .

1.2.3.8 Remarques.
(1) La voie habituelle pour prouver le théorème de classification des A-modules de type
fini est de passer par l’étude des matrices équivalentes à coefficients dans A ; voir par
exemple le chapitre 3 du livre Basic Algebra I de N. Jacobson. Outre sa simplicité
conceptuelle, cette méthode présente l’avantage d’être algorithmique quand A est un
anneau euclidien. La méthode exposée ci-dessus est inspirée des livres de Curtis et
Reiner ([6], p. 403 ; [7], p. 39).
(2) Un anneau de Dedekind est un anneau commutatif intègre A tel que chaque idéal I de
A est un A-module projectif (utiliser le lemme de la base duale 1.1.6.3 pour voir que
cette condition est équivalente à la définition usuelle : tout idéal fractionnaire de A est
aucun idéal maximal de B. Ceci montre que B × est le complémentaire de l’union des idéaux maximaux de B.
Si B n’a qu’un seul idéal maximal, alors B \ B × est précisément cet idéal maximal, de sorte que B est bien
un anneau local. Réciproquement, supposons B local : alors B \ B × est un idéal qui contient tous les idéaux
maximaux de B ; c’est donc l’unique idéal maximal de B.

32
inversible). Tout anneau principal est un anneau de Dedekind. Les résultats exposés
dans ce paragraphe quand A est un anneau principal restent encore valables quand A est
un anneau de Dedekind, à l’exception de la proposition 1.2.3.3, qui doit être remplacée
par : un sous-module d’un module projectif de type fini est projectif. En combinant
cette assertion avec la proposition 1.2.3.2, on voit qu’un A-module de type fini est
sans torsion si et seulement s’il est projectif. De plus, on montre sans grande difficulté
que tout module projectif de type fini est isomorphe à une somme directe d’idéaux
I1 ⊕ · · · ⊕ Im non-nuls de A, et qu’il existe un isomorphisme I1 ⊕ · · · ⊕ Im ∼
= J1 ⊕ · · · ⊕ Jn
entre deux telles sommes si et seulement si m = n et I1 · · · Im = J1 · · · Jn . Ainsi les
classes d’isomorphisme de A-modules projectifs de type fini sont classifiées par la donnée
d’un entier naturel et d’une classe d’idéaux.
(3) Le théorème appelé parfois « décomposition de Frobenius » dans les cours sur la réduc-
tion des endomorphismes n’est autre que notre proposition 1.2.3.6 appliquée à l’anneau
A = k[X], où k est un corps. Outre la démonstration évoquée dans la remarque (1) ci-
dessus, on trouve souvent dans les manuels une démonstration de l’assertion d’existence
basée sur la dualité des k-espaces vectoriels. Cette approche est en fait équivalente à
celle que nous avons suivie. De fait, prenons un polynôme P ∈ k[X] de degré n et
regardons la k-algèbre B = k[X]/(P ). Appelons λ la forme linéaire sur B qui, à un
élément Q de B, associe le coefficient de X n−1 du reste de la division euclidienne de
Q par P . Alors la forme bilinéaire (f, g) 7→ λ(f g) de B × B dans k est non-dégénérée
(on s’en convainc aisément en examinant sa matrice dans la base (1, X, . . . , X n−1 )).
On peut ainsi identifier B à son dual. La forme particulière (f, g) 7→ λ(f g) de notre
forme bilinéaire montre que la dualité D introduite dans la remarque 3.2.1.1 envoie le
B-module à droite régulier sur le B-module à gauche régulier. Le premier étant projec-
tif, le second est injectif : c’est notre lemme 1.2.3.4, prouvé ici sans utiliser le critère (v)
de la proposition 1.1.6.5.

Exercice. Soit A un anneau commutatif intègre principal. Montrer qu’un A-module de type
fini M est indécomposable si et seulement s’il est isomorphe au A-module régulier ou à un
module de la forme A/pn , où p est un idéal premier et n ≥ 1 est un entier. (Indication : M
est soit de torsion, soit sans torsion, puisque M ∼
= tor M ⊕ (M/ tor M ). Pour montrer que le
A-module régulier est indécomposable, on pourra observer que son anneau d’endomorphismes
EndA (A A) ∼= A ne contient pas d’idempotent autre que 1.)

1.2.4 Théorème de Jordan-Hölder

Nous allons maintenant casser un module en morceaux plus petits que dans le paragraphe 1.2.2,
dans l’espoir que ceux-ci soient plus faciles à classifier que les modules indécomposables. L’in-
convénient est que la connaissance de ces petits morceaux ne suffit en général pas à reconstruire
le module de départ.
Module simple : M est dit simple s’il a exactement deux sous-modules : 0 et lui-même. Ainsi
un sous-module N d’un module M est maximal si et seulement si le quotient M/N est simple.
Un module simple est artinien et noethérien.

33
Soient M un A-module simple et x ∈ M un élément non-nul. Alors l’homomorphisme a 7→ ax
de A sur M est surjectif de noyau un idéal à gauche maximal m de A. Ainsi M ∼
= A/m.

1.2.4.1 Exemples.
(1) Les Z-modules simples sont les groupes abéliens isomorphes à Z/pZ, où p est un nombre
premier.
(2) Plus généralement, si A est un anneau principal, alors les A-modules simples sont les
modules isomorphes à A/p, où p est un idéal premier non-nul de A. (Autrement dit, p
est l’idéal engendré par un élément irréductible de A.) Ces modules sont deux à deux
non-isomorphes (même preuve que pour l’assertion d’unicité de la proposition 1.2.3.5 :
l’idéal p est l’idéal annulateur de tout module isomorphe à A/p).
(3) En particulier, prenons A = k[X], avec k un corps algébriquement clos. Chaque k[X]-
module simple est isomorphe à un module k[X]/(X − a), avec a uniquement déterminé.
Autrement dit, chaque k[X]-module simple est la donnée d’un k-espace vectoriel de
dimension 1 muni d’une homothétie, et le rapport de cette homothétie détermine la
classe d’isomorphisme du k[X]-module.

1.2.4.2 Lemme (Schur). Un homomorphisme entre deux modules simples est soit nul,
soit un isomorphisme. L’anneau des endomorphismes d’un module simple est un anneau à
division.

Preuve. Soit f : M → N un homomorphisme non-nul entre deux modules simples. Alors le


noyau de f est un sous-module de M différent de M ; il est donc réduit à 0 puisque M est
simple. L’image de f est un sous-module de N différent de 0 ; elle est égale à N tout entier
puisque N est simple. Ainsi f est injective et surjective ; c’est donc un isomorphisme. Dans le
cas M = N , ce que nous venons de montrer s’énonce ainsi : tout endomorphisme non-nul est
un automorphisme. 

1.2.4.3 Lemme du papillon (ou de Zassenhaus). Dans un A-module L, on se donne


des sous-modules M , M 0 , N , N 0 tels que M 0 ⊆ M et N 0 ⊆ N . Alors
(M ∩ N ) + M 0 ∼ (M ∩ N ) + N 0
= .
(M ∩ N 0 ) + M 0 (M 0 ∩ N ) + N 0

Preuve. Soit f la restriction à M ∩N de la surjection canonique de M sur M/((M ∩N 0 )+M 0 ).


Le noyau de f est (M ∩ N ) ∩ ((M ∩ N 0 ) + M 0 ) = (M ∩ N 0 ) + (M 0 ∩ N ) ; l’image de f est
(M ∩ N ) + ((M ∩ N 0 ) + M 0 ) (M ∩ N ) + M 0
= .
(M ∩ N 0 ) + M 0 (M ∩ N 0 ) + M 0
Ainsi f induit un isomorphisme entre ce dernier module et
M ∩N
.
(M ∩ N 0 ) + (M 0 ∩ N )
Pour conclure, il suffit d’observer que la situation est symétrique en (M, M 0 ) et (N, N 0 ). 

34
Filtration : une filtration croissante d’un module M est une suite croissante (Mn )n∈Z de sous-
modules de M . On demande que l’union n∈Z Mn soit M tout entier et que l’intersection
S

n soit réduite à 0. On demande parfois que la suite soit en fait finie. Les modules
T
n∈Z M
Mn+1 /Mn sont appelés les facteurs ou les quotients successifs de la filtration.
Gradué associé
L : soit M un module muni d’une filtration (Mn )n∈Z . Le module gradué associé
est gr M = n∈Z Mn /Mn−1 .
Soit N un sous-module d’un module M . Une filtration (Mn )n∈Z de M induit une filtration
(N ∩ Mn )n∈Z sur N et une filtration ((Mn + N )/N )n∈Z sur M/N . On a alors une suite exacte
courte de modules gradués 0 → gr N → gr M → gr(M/N ) → 0 (la preuve de cette assertion
est laissée en exercice).
Raffinement : on dit qu’une filtration (Mn )n∈Z d’un module M raffine une autre filtration
(Nn )n∈Z du même module M s’il existe une application strictement croissante ϕ de Z dans
lui-même telle que Nn = Mϕ(n) pour tout n.

1.2.4.4 Théorème de raffinement de Schreier. On peut toujours raffiner deux filtra-


tions finies d’un A-module de façon à avoir la même suite de facteurs, à permutation et à
isomorphisme près.

Preuve. Soient (Ms )0≤s≤m et (Nt )0≤t≤n deux filtrations finies d’un même module M . Posons
Ms,t = (Ms ∩ Nt ) + Ms−1 et Nt,s = (Ms ∩ Nt ) + Nt−1 . À s fixé, lorsque t croît de 0 à n, le
sous-module Ms,t croît de Ms−1 à Ms . Ainsi

0 = M1,0 ⊆ M1,1 ⊆ M1,2 ⊆ · · · ⊆ M1,n


= M2,0 ⊆ M2,1 ⊆ M2,2 ⊆ · · · ⊆ M2,n
= M3,0 ⊆ M3,1 ⊆ M3,2 ⊆ · · ·
··· ⊆ Mm−1,n
= Mm,0 ⊆ Mm,1 ⊆ Mm,2 ⊆ · · · ⊆ Mm,n = M

est un filtration de M qui raffine

0 = M0 ⊆ M1 ⊆ M2 ⊆ · · · ⊆ Mm−1 ⊆ Mm = M.

De même, les Nt,s , convenablement ordonnés, sont les termes d’une filtration de M qui raffine
(Nt )0≤t≤n .
Le lemme du papillon dit que pour Ms,t /Ms,t−1 ∼ = Nt,s /Nt,s−1 pour tous entiers strictement
positifs s et t. À réindexation près, nos deux filtrations ont donc même suite de quotients
successifs. 

Série de composition : une filtration d’un module dont tous les quotients successifs sont simples
(en particulier, non-nuls) est appelée une série de composition ; une série de composition
n’admet pas de raffinement sans répétition.

35
1.2.4.5 Théorème de Jordan-Hölder. Soit M un A-module artinien et noethérien.
Alors M possède une série de composition. Deux séries de composition de M ont même suite
de facteurs, à permutation et à isomorphisme près.

Preuve. La seule chose qui nous reste à montrer est l’existence d’une série de composition
dans M . Appelons M l’ensemble des sous-modules de M possédant une série de composition.
Cet ensemble est non-vide puisque le sous-module nul appartient à M . Il possède donc un
élément maximal, disons N . Supposons que N 6= M . Alors l’ensemble N des sous-modules
de M contenant strictement N est non-vide puisqu’il contient M . Il possède donc un élément
minimal, disons L. Alors L/N est simple ; comme N possède une série de composition, L en
possède une. Ainsi L ∈ M , ce qui contredit la maximalité de N . Cette contradiction montre
qu’on avait en fait N = M . 

Exemple. Soit k un corps algébriquement clos. Un k[X]-module artinien et noethérien est


la même chose que la donnée d’un k-espace vectoriel E de dimension finie muni d’un endo-
morphisme u. D’après l’exemple 1.2.4.1 (3), une série de composition de ce k[X]-module est
la même chose qu’une suite finie 0 = E0 ⊆ E1 ⊆ · · · ⊆ En = E de sous-espaces stables par
u vérifiant dim Ei /Ei−1 = 1, autrement dit qu’un drapeau complet stable par u. Dans une
base de E adaptée à un tel drapeau, la matrice de u est triangulaire. La suite des coefficients
diagonaux de cette matrice indique la suite des classes d’isomorphismes des k[X]-modules
Ei /Ei−1 . À permutation près, elle ne dépend pas du choix du drapeau.

Soit M un A-module artinien et noethérien. On note `(M ) le nombre de quotients successifs


d’une série de composition de M . Pour tout A-module simple S, on note (M : S) le nombre
de quotients isomorphes à S dans une série de composition de M . L’entier `(M ) s’appelle
la longueur du module M ; les entiers (M : S) s’appellent les multiplicités de Jordan-Hölder
de M .

Remarque. Certains auteurs parlent de module de longueur finie au lieu de module artinien
et noethérien. On trouvera une preuve du théorème de Jordan-Hölder assez différente de celle
donnée ici dans le chapitre I.1 du livre d’Auslander, Reiten et Smalø [2].

Exercices.
(1) Montrer que les Z-modules artiniens et noethériens sont les groupes abéliens finis.
Montrer que quand k est un corps, les k[X]-modules artiniens et noethériens sont les
k-espaces vectoriels de dimension finie munis d’un endomorphisme.
(2) On dit qu’un A-module artinien et noethérien est unisériel s’il possède une seule série
de composition. Supposons que A soit un anneau principal. Montrer que chaque A-
module artinien, noethérien et indécomposable est unisériel. (Indication : un A-module
artinien et noethérien est de type fini et de torsion ; s’il est de surcroît indécomposable,
il est isomorphe à un A/pn , avec p idéal premier non-nul de A et n ≥ 1 entier. Les
sous-modules de A/pn sont de la forme q/pn , où q est un idéal de A contenant pn .
La décomposition des idéaux de A en produit d’idéaux premiers montre que q est

36
nécessairement de la forme pm , avec 0 ≤ m ≤ n. Ainsi les sous-modules de A/pn
forment un ensemble totalement ordonné pour l’inclusion, ce qui montre que le module
A/pn ne possède qu’une seule série de composition, à savoir

pn /pn ⊆ pn−1 /pn ⊆ pn−2 /pn ⊆ · · · ⊆ p/pn ⊆ A/pn .

On pourra en outre observer que les quotients successifs de cette série de composition
sont tous isomorphes à A/p, et que l’énoncé de l’exercice est encore vrai si A est un
anneau de Dedekind.)

1.2.5 Groupe de Grothendieck

Les multiplicités de Jordan-Hölder d’un module M ne déterminent en général pas ce dernier,


même à isomorphisme près. Le groupe de Grothendieck que nous introduisons dans ce pa-
ragraphe est le cadre abstrait adéquat pour étudier les propriétés qui ne dépendent que des
multiplicités de Jordan-Hölder d’un module. Soit A un anneau.

1.2.5.1 Proposition. Soit 0 → L → M → N → 0 une suite exacte courte de A-modules.


On suppose que M est artinien et noethérien, de sorte que L et N sont aussi artiniens et
noethériens. Alors `(M ) = `(L) + `(N ), et pour tout A-module simple S, on a (M : S) = (L :
S) + (N : S).

Preuve. À isomorphisme près, on peut voir L comme un sous-module de M et N comme le


quotient M/L. La proposition vient du théorème de Jordan-Hölder, une fois observé qu’on
peut fabriquer une série de composition de M en raboutant une série de composition de L
avec une série de composition de N = M/L. 

Il est licite de parler de l’ensemble I des classes d’isomorphisme de A-modules artiniens


et noethériens. Le groupe abélien libre Z(I ) possède une base naturelle, en bijection avec
I : à la classe d’isomorphisme d’un A-module M correspond un élément (M ) de la base de
Z(I ) . Les éléments de Z(I ) sont les combinaisons Z-linéaires des symboles (M ), où il y a un
symbole par classe d’isomorphisme de A-module noethérien et artinien. On définit le groupe
de Grothendieck G0 (A) comme étant le quotient de Z(I ) par le sous-groupe engendré par
tous les éléments de la forme (M ) − (L) − (N ), chaque fois qu’existe une suite exacte courte
0 → L → M → N → 0 9 . On note [M ] l’image de (M ) dans G0 (A). Notons enfin S l’ensemble
des classes d’isomorphisme de A-modules simples.
9. Le même procédé permet de définir le groupe de Grothendieck K0 (C ) d’une catégorie additive exacte
C , c’est-à-dire d’une catégorie additive pour laquelle les notions de monomorphisme, d’épimorphisme et de
suite exacte courte sont définies. Étant donné un anneau A, les trois catégories fréquemment étudiées par
cette approche sont la catégorie A-modlf des A-modules artiniens et noethériens (l’indice « lf » signifie « de
longueur finie »), la catégorie A-mod des A-modules de type fini, et la catégorie P(A) des A-modules projectifs
de type fini. Signalons que notre définition G0 (A) = K0 (A-modlf ) s’éloigne de la convention habituelle, qui est
G0 (A) = K0 (A-mod) ; la différence s’estompe toutefois lorsque A est un anneau artinien.

37
1.2.5.2 Proposition. Les éléments [M ], pour M ∈ S , forment une base du Z-module
G0 (A). Il existe un isomorphisme de groupes abéliens d : G0 (A) → Z(S ) tel que d [M ] =


((M : S))S∈S pour tout A-module artinien et noethérien M .

Preuve. Désignons par p : Z(I ) → G0 (A) la surjection canonique et par i : Z(S ) → Z(I )
l’homomorphisme injectif de groupes abéliens induit par l’inclusion S ⊆ I . D’après la pro-
position 1.2.5.1, l’homomorphisme de groupes abéliens de Z(I ) dans Z(S ) qui envoie (M ) sur
((M : S))S∈S se factorise à travers p, définissant d : G0 (A) → Z(S ) . Nous obtenons ainsi un
diagramme
p
Z(I c) / G0 (A),

i z d
Z(S )
dans lequel d ◦ p ◦ i = idZ(S ) .
Maintenant, un raisonnement par récurrence sur la longueur de M montre que le symbole
[M ] appartient à l’image de p ◦ i. C’est évidemment le cas quand M = 0 ou quand M est
simple, c’est-à-dire quand `(M ) ≤ 1. Supposant `(M ) ≥ 2, il existe une suite exacte courte
0 → L → M → N → 0, avec L et N de longueurs strictement inférieures à `(M ) ; alors les
symboles [L] et [N ] appartiennent à l’image de p ◦ i, donc [M ] = [L] + [N ] aussi. Ceci montre
donc que p ◦ i est surjectif.
On déduit de ce qui précède que d et p ◦ i sont des isomorphismes de groupes abéliens,
réciproques l’un de l’autre. Cela entraîne la proposition. 

Exercices.
(1) Montrer qu’il existe un homomorphisme de groupes abéliens de G0 (A) dans Z envoyant
[M ] sur `(M ) pour tout A-module artinien et noethérien.
(2) Soit 0 → M0 → M1 → · · · → Mn → 0 une suite exacte Pnd’homomorphismes entre des
A-modules artiniens et noethériens. Montrer l’égalité i=0 (−1)i [M ] = 0 dans G (A).
i 0
En déduire que ni=0 (−1)i `(Mi ) = 0.
P

(3) Soient M et N deux A-modules artiniens et noethériens. Montrer que pour tout ho-
momorphisme f ∈ HomA (M, N ), on a `(ker f ) − `(coker f ) = `(M ) − `(N ). En
déduire que dans le cas `(M ) = `(N ), un tel homomorphisme f est injectif si et
seulement s’il est surjectif. (Indication : utiliser l’exercice précédent et la suite exacte
0 → ker f → M → N → coker f → 0.)

1.3 Modules complètement réductibles, radical, socle

Nous nous donnons un anneau A quelconque pour toute cette section. Soit M un A-module
artinien et noethérien. Le théorème de Krull-Schmidt dit que quand on casse M en somme
directe de sous-modules indécomposables, les morceaux sont parfaitement déterminés, avec
multiplicité, à l’ordre et à isomorphisme près ; la connaissance de ces morceaux permet de
reconstituer M à isomorphisme près. Le théorème de Jordan-Hölder casse M en morceaux
encore plus petits ; là encore les morceaux sont parfaitement déterminés, avec multiplicité ;

38
mais leur connaissance ne permet en général pas de reconstituer M . Le cas sympathique est
quand ces deux décompositions coïncident, autrement dit, quand les termes indécomposables
de la décomposition de Krull-Schmidt sont des modules simples. On dit alors que le module
M est complètement réductible. Il se trouve qu’on peut faire une étude complète de cette
situation sans même nos hypothèses de finitude habituelles.

1.3.1 Modules complètement réductibles

1.3.1.1 Théorème. Pour un module M sur un anneau A, les trois conditions suivantes
sont équivalentes :
(i) Le module M est la somme de ses sous-modules simples.
(ii) Il existe une famille de sous-modules simples Mi de M dont M est la somme directe.
(iii) Tout sous-module N de M admet un supplémentaire : il existe un sous-module N 0 de
M tel que M = N ⊕ N 0 .

Preuve. Admettons (i). Soit N un sous-module de M , soit L l’ensemble des sous-modules


simples de M , et soit X l’ensemble des parties X de L tel que la somme N + L∈X L soit
P
directe. Muni de l’ordre d’inclusion, l’ensemble X est inductif.
En effet, soit Y ⊆ X une partie totalement ordonnée de X et posons Y ∈Y Y . Une
S
X =
relation de la forme n + L∈X mL = 0, avec n ∈ N et mL ∈ L, ne peut comporter qu’un
P
nombre fini de termes non-nuls ; les L pour lesquels mL 6= 0 sont donc en nombre fini, ils
appartiennent chacun à un Y ∈ Y , et comme Y est totalement ordonné, ils P appartiennent
tous à un même Y . Notre relation peut donc se voir comme étant de la forme n+ L∈Y mL = 0
pour un certain
P Y ∈ Y . En particulier Y ∈ X , et donc n et tous les mL sont nuls. Bref la
somme N + L∈X L est directe, donc X ∈ X , et Y est bien majorée dans X .
Ayant montré L que X est inductif, nous pouvons en prendre un élément maximal, disons X.
Soit P = N ⊕ L∈X L. Si L0 est un sous-module simple de M , alors la somme P + L0 ne peut
pas être directe, par maximalité de X. Donc P ∩ L0 6= 0. Comme L0 est simple, cela signifie
L0 ⊆ P . Le sous-module P contient donc tous les sous-modules simples de M L. D’après (i),
P = M . Nous avons ainsi fabriqué un supplémentaire de N dans M , à savoir L∈X L : cela
montre (iii). Par ailleurs, ce raisonnement appliqué au sous module N = 0 montre qu’on peut
écrire M comme somme directe d’une famille de sous-modules simples : cela montre (ii).
Il nous reste à montrer que (iii) entraîne (i). Supposons donc (iii), et appelons N la somme des
sous-modules simples de M . Supposons que N 6= M . On peut alors trouver un sous-module
de type fini P de M tel que N ∩ P = 0. (Prendre par exemple P = Ax, avec x non-nul
appartenant à un supplémentaire de N dans M .) Soit Q un sous-module maximal de P , soit
R un supplémentaire de Q dans M . Alors P ∩ R est un supplémentaire de Q dans P . Comme
Q est maximal, P ∩ R ∼ = P/Q est simple. Par définition, P ∩ R ⊆ N . Cela contredit N ∩ P = 0.
Bref N = M , ce qui établit (i). 

Un module est dit complètement réductible s’il vérifie les trois propriétés équivalentes de la
proposition ci-dessus.

39
1.3.1.2 Remarque. Pour un module M complètement réductible, il est équivalent d’être
artinien, d’être noethérien, ou d’avoir un nombre fini de termes dans une décomposition en
somme directe de sous-modules simples. De fait, si l’écriture de M en somme directe de sous-
modules simples fait apparaître un nombre infini de termes, alors M n’est ni noethérien, ni
artinien ; si elle ne comporte qu’un nombre fini n de termes, alors une récurrence sur n montre
que M est noethérien et artinien.

Nous verrons dans la section 2.1 des généralisations du résultat suivant.

1.3.1.3 Proposition. Soit ∆ un anneau à division. À isomorphisme près, il n’y a qu’un ∆-


module simple, à savoir le module régulier. Tout ∆-module est libre et complètement réductible.

Preuve. Observons d’abord que le module régulier ∆ ∆ est simple, car ∆ n’a pas d’idéal à
gauche non-banal. Soit M un ∆-module simple. Prenant un élément non-nul x ∈ M , l’homo-
morphisme a 7→ ax de ∆ ∆ dans M est un isomorphisme d’après le lemme de Schur. Ainsi tout
∆-module simple est isomorphe au module régulier.
Soit M un ∆-module. Pour tout élément non-nul x ∈ M , l’homomorphisme a 7→ ax de ∆ ∆
dans M est non-nul, donc est injectif (puisque ∆ ∆ est simple). Son image, qui est le sous-
module ∆x engendré par x, est donc un module simple. La somme des sous-modules simples
de M est donc M tout entier. Ainsi M est complètement réductible.
Nous pouvons donc écrire M comme somme directe de sous-modules simples. Chacun d’entre
eux étant isomorphe au module régulier, cela signifie que M est libre. 

1.3.1.4 Proposition. Un sous-module ou un quotient d’un module complètement réduc-


tible est complètement réductible.

Preuve. Soit M un module complètement réductible, soit N un sous-module de M .


Soit L un sous-module de N . Alors L possède un supplémentaire dans M , disons P , et P ∩ N
est un supplémentaire de L dans N . Tout sous-module de N possède donc un supplémentaire
dans N . Ainsi N est complètement réductible.
Par ailleurs, l’image dans M/N d’un sous-module simple de M est soit simple, soit réduite
à 0. Le fait que M soit somme de ses sous-modules simples entraîne donc que M/N est somme
de sous-modules simples. Ainsi M/N est complètement réductible. 

Étant donnés un A-module complètement réductible M et un A-module simple S, on note


M(S) la somme dans M des sous-modules isomorphes à S. Les sous-modules M(S) s’appellent
les composantes isotypiques de M . L’ensemble des composantes isotypiques de M est donc
indexé par l’ensemble S des classes d’isomorphisme de A-modules simples, et chaque sous-
module simple de M est inclus dans une composante isotypique.

40
1.3.1.5 Proposition. Un module complètement réductible est la somme directe de ses com-
posantes isotypiques.

Preuve. Partons d’un module complètement réductible M et d’une écriture comme somme
directe de sous-modules simples M = L∈X L. Cette décomposition fournit une projection
L
pL : M → L pour chaque L ∈ X. D’après le lemme de Schur, la restriction de pL à un
sous-module simple T de M ne peut être non-nulle que si L et T sont isomorphes. Autrement
dit, T est inclus dans la somme des L ∈ X qui lui sont isomorphes. Ceci entraîne que pour
chaque A-module simple S, la composante isotypique M(S) est la somme des L ∈ X dans cette
classe d’isomorphisme que Le résultat (S)∈S M(S) découle alors immédiatement de
L
S. M =
l’écriture M = L∈X L. 
L

Exercices.
(1) Soit M un A-module complètement réductible et N un sous-module de M ; ainsi N et
M/N sont complètement réductibles. Pour chaque A-module simple S, notons M(S) ,
N(S) et (M/N )(S) les composantes S-isotypiques de M , N et M/N , respectivement.
Montrer l’inclusion N(S) ⊆ N ∩ M(S) . En comparant les décompositions
M M
M= M(S) (∗) et N= N(S) ,
(S)∈S (S)∈S

où S est l’ensemble des classes d’isomorphisme de A-modules simples, montrer qu’il


y a en fait égalité N(S) = N L∩ M(S) . Ainsi, N est compatible avec la décomposition
(∗) de M , au sens où N = (S)∈S N ∩ M(S) . Montrer également que (M/N )(S) =
N + M(S) /N ∼ = M(S) /N(S) .


(2) Soit f : M → N un homomorphisme entre deux A-modules complètement réductibles.


Montrer l’inclusion f (M(S) ) ⊆ N(S) , pour A-module simple S. (Indication : l’homomor-
phisme f envoie un sous-module simple de M soit sur 0, soit sur un sous-module qui
lui est isomorphe.)
(3) Soient k un corps, E un k-espace vectoriel de dimension finie, u un endomorphisme de
E, µ le polynôme minimal de u. On munit E de la structure de k[X]-module définie
par u.
(i) Supposons que µ soit le produit P1 · · · Pk de polynômes irréductibles unitaires dis-
tincts. Le lemme des noyaux dit qu’alors E = ker P1 (u)⊕· · ·⊕ker Pk (u). Montrer que
le k[X]-module E est complètement réductible et que ses composantes isotypiques
sont les ker Pi (u).
(ii) Réciproquement, montrer que si le k[X]-module E est complètement réductible,
alors µ est produit de polynômes irréductibles unitaires distincts.
(Note : cet exercice se généralise sans peine aux modules sur les anneaux principaux ;
voir par exemple l’exercice (7) du paragraphe 2.2.2, ou bien [7], p. 72, exerc. 17.)

1.3.2 Théorème de densité

Un exemple de module complètement réductible est le suivant. On se donne un corps k (un


anneau à division marcherait tout aussi bien) et deux entiers naturels m et n. On prend

41
A = Matm (k) et M = Matm,n (k). On fait agir A sur M par le produit usuel des matrices.
Il y a un seul A-module simple à isomorphisme près, à savoir k m (nous montrerons cela au
chapitre 2), et M est somme directe de n copies de ce module simple ; la décomposition
consiste évidemment à voir une matrice m × n comme une collection de n vecteurs colonnes.
Dans ce contexte, B = EndA (M ) s’identifie à l’anneau Matn (k)op , agissant par multiplication
matricielle à droite. Alors M est un B-module, et par symétrie, EndB (M ) s’identifie à l’anneau
A. Ainsi A et B sont le commutant l’un de l’autre dans l’anneau EndZ (M ). Ce phénomène
est général dans le contexte des modules complètement réductibles.

1.3.2.1 Théorème (Jacobson, Chevalley). Soit M un module complètement réductible


sur un anneau A. Soit f ∈ EndZ (M ) qui commute à tous les endomorphismes du A-module
M . Alors pour toute famille finie (x1 , . . . , xn ) d’éléments de M , il existe a ∈ A tel que
(f (x1 ), . . . , f (xn )) = (ax1 , . . . , axn ).

Preuve. Considérons l’application f (n) : (y1 , . . . , yn ) 7→ (f (y1 ), . . . , f (yn )) de M n dans M n .


Alors f (n) commute à tous les endomorphismes du A-module M n . En effet, un endomorphisme
g de M n s’écrit sous forme d’une matrice (gij )1≤i,j≤n d’éléments de EndA (M ), et pour tout
élément m = (mi )1≤i≤n de M n , on calcule
  
(n)
 (n)
Pn
f ◦ g (m) = f j=1 gij mj
1≤i≤n
   
Pn
= f j=1 gij mj
1≤i≤n
 
Pn
= j=1 gij f (mj )
1≤i≤n
(n)

= g◦f (m),

en utilisant que f (n) (m) est le n-uplet f (mi ) 1≤i≤n et que f commute à tout élément de


EndA (M ).
Considérons à présent le n-uplet (x1 , . . . , xn ) de l’énoncé et le sous-module

A(x1 , . . . , xn ) = {(ax1 , . . . , axn ) | a ∈ A}

qu’il engendre dans M n . Comme M n est un A-module complètement réductible, on peut


trouver un supplémentaire de A(x1 , . . . , xn ) dans M n , d’où un projecteur p ∈ EndA (M n )
d’image A(x1 , . . . , xn ). Il s’ensuit que le n-uplet (f (x1 ), . . . , f (xn )) = f (n) ◦ p (x1 , . . . , xn )
appartient à

im f (n) ◦ p = im p ◦ f (n) ⊆ im p = {(ax1 , . . . , axn ) | a ∈ A}.


 

Remarque. Soit k un corps, E un k-espace vectoriel de dimension finie et u un endomor-


phisme de E. Ainsi E est muni d’une structure de k[X]-module. Il est bien connu qu’un
endomorphisme v ∈ Endk (E) est un polynôme en u si et seulement s’il commute avec tous

42
les endomorphismes qui commutent avec u (c’est un résultat dû à Wedderburn). Ceci signifie
que l’image de k[X] dans Endk (E) (ou dans EndZ (E)) est égale à son bicommutant. Il n’y a
ici pas besoin de supposer que le k[X]-module E est complètement réductible. On voit ainsi
que la réciproque naïve du théorème de densité serait fausse.

1.3.3 Radical, tête et socle d’un module

Soit M un A-module.
Le radical de M est l’intersection des sous-modules maximaux de M ; c’est un sous-module
de M noté rad M .
La tête de M est le quotient hd M = M/ rad M (parfois notée top M ).
Le socle de M est la somme des sous-modules simples de M ; c’est un sous-module de M noté
soc M .

1.3.3.1 Propriétés.
(i) La tête d’un module est le plus grand de ses quotients de radical 0.
(ii) Le socle d’un module est le plus grand de ses sous-modules complètement réductibles.
(iii) Un module est complètement réductible si et seulement s’il est égal à son socle ; son
radical est alors réduit à 0.

Preuve. Ces propriétés sont faciles à vérifier. À titre d’exemple, donnons la preuve détaillée de
(i). Soit M un A-module. Les sous-modules maximaux de hd M sont les modules de la forme
L/ rad M , où L est un sous-module maximal de M contenant rad M . La dernière condition
est en fait redondante, chaque sous-module maximal de M contenant rad M . Le radical de
hd M est l’intersection de ces sous-modules L/ rad M ; c’est donc 0, puisque l’intersection des
modules L est rad M . Ainsi la tête de M est bien un quotient de M de radical 0.
Soit maintenant M/N un quotient de M . Si M/N est de radical 0, alors l’intersection des
sous-modules maximaux de M contenant N est égale à N . L’intersection rad M de tous
les sous-modules maximaux de M est donc incluse dans N . Ainsi M/N apparaît comme le
quotient de hd M par N/ rad M . Tout quotient de M de radical 0 est donc un quotient de
hd M : ce dernier est donc le plus grand des quotients de M de radical 0. 

La proposition suivante est plus substantielle.

1.3.3.2 Proposition.
(i) Si M est un A-module de type fini, alors M = rad M si et seulement si M = 0.
(ii) Si M est un module artinien, alors soc M = 0 si et seulement si M = 0.
(iii) Un module artinien est complètement réductible si et seulement si son radical est 0.

43
Preuve. Soit M un A-module non-réduit à 0. La proposition 1.2.1.1 affirme que si M est de
type fini, alors il existe au moins un sous-module maximal de M , et donc rad M ( M . Cela
prouve (i). La proposition 1.2.1.3 (i) entraîne que si M est artinien non-nul, alors M contient
un sous-module minimal non-nul, lequel est alors simple ; et ainsi soc M 6= 0. Cela prouve (ii).
Il nous reste à prouver (iii). Soit M un module artinien de radical 0. Appelons M l’ensemble
des sous-modules N qui s’écrivent comme intersection finie de sous-modules maximaux de M .
Alors M possède un élément minimal, disons N . Par minimalité, l’intersection de N avec tout
sous-module maximal de M ne peut être strictement incluse dans N . Donc N est inclus dans
chaque sous-module maximal, d’où N ⊆ rad T M = 0. Conclusion : il existe un ensemble fini X
de sous-modules maximaux de M tel que L∈X L = 0.
L’homomorphisme L canonique de M dans L∈X M/L est alors injectif. Puisque X est fini,
Q

L∈X M/L est complètement réductible. Ainsi M est isomorphe à un sous-


Q
L∈X M/L =
module d’un module complètement réductible : il est donc complètement réductible. Récipro-
quement, un module complètement réductible est de radical 0 : c’est la dernière des proprié-
tés 1.3.3.1. L’assertion (iii) est prouvée. 

Contre-exemple. Le Z-module Z est de radical nul mais n’est pas complètement réductible.

1.3.3.3 Exemple. Soit f : M → N est un homomorphisme de modules. Si N est complète-


ment réductible, alors M/ ker f ∼
= im f est complètement réductible, donc est de radical 0, et
par conséquent ker f ⊇ rad M . Si M est complètement réductible, alors im f ∼= M/ ker f est
complètement réductible, ce qui implique que im f ⊆ soc N .

Exercices.
(1) Soient M et N deux modules sur un anneau A. Montrer les égalités rad(M ⊕ N ) =
(rad M ) ⊕ (rad N ) et soc(M ⊕ N ) = (soc M ) ⊕ (soc N ).
(2) Soit M un module artinien. Pour tout sous-module N de M , le quotient M/N est
complètement réductible si et seulement si rad M ⊆ N . Ainsi hd M est le plus grand
quotient complètement réductible de M . (Indication : une des implications est facile ;
pour l’autre, utiliser qu’un quotient d’un module complètement réductible est complè-
tement réductible.)

1.3.4 Sous-modules superflus et essentiels

Un sous-module N de M est dit superflu (ou petit) si pour tout sous-module X ( M , on a


N + X ( M.
On dit qu’un épimorphisme de A-modules f : M → N est essentiel (certains auteurs, non des
moindres, préfèrent dire « superflu ») si tout homomorphisme g : L → M tel que f ◦ g soit
surjectif est surjectif ; cela équivaut à demander que ker f soit superflu.

44
Un sous-module N de M est dit essentiel (ou grand) si pour tout sous-module X 6= 0, on a
N ∩ X 6= 0.
On dit qu’un monomorphisme de A-modules f : N → M est essentiel si tout homomorphisme
g : M → L tel que g ◦ f est injectif est injectif ; cela équivaut à demander que im f soit
essentiel.

1.3.4.1 Proposition. Soient A un anneau et M un A-module.


(i) Un sous-module superflu de M est nécessairement inclus dans le radical de M .
(ii) Un sous-module essentiel de M contient nécessairement le socle de M .

Preuve. Soit N un sous-module superflu de M . Si L est un sous-module maximal de M , alors


L ( X, donc L ⊆ L + N ( X. Par maximalité de L, cela impose L = L + N , donc N ⊆ L.
Ceci étant vrai pour tout L maximal, N est inclus dans le radical de M .
Soit N un sous-module essentiel de M . Si L est un sous-module simple de M , alors L ⊇
L ∩ N 6= 0. Par minimalité de L, cela impose L = L ∩ N , donc L ⊆ N . Ceci étant vrai pour
tout L simple, N contient le socle de M . 

Dans certaines circonstances, les conditions nécessaires données dans la proposition sont suf-
fisantes.

Exercice. Soient A un anneau et M un A-module. Montrer les deux énoncés suivants :


(i) Si M est de type fini, alors un sous-module N de M est superflu si et seulement s’il est
inclus dans rad M .
(ii) Si M est artinien, alors un sous-module N de M est essentiel si et seulement s’il contient
soc M .
(Indication pour le premier énoncé : supposons N ⊆ rad M . Chaque sous-module X ( M est
inclus dans un sous-module maximal L de M d’après la proposition 1.2.1.1 ; de rad M ⊆ L
découle alors N + X ⊆ L ( M .)

1.4 Produit tensoriel

1.4.1 Produit tensoriel de modules

Motivation : soient k un corps, E, F et G trois k-espaces vectoriels. L’espace Bilk (E × F, G)


des applications bilinéaires de E × F dans G est isomorphe à Homk (E, Homk (F, G)) : à une
application bilinéaire B : E × F → G, on associe l’application linéaire x 7→ B(x, ?) de E
dans Homk (F, G). On sait qu’on peut construire de façon canonique un espace vectoriel noté
E ⊗k F tel qu’il existe des isomorphismes naturels

Bilk (E × F, G) ∼
= Homk (E, Homk (F, G)) ∼
= Homk (E ⊗k F, G).

45
De plus, il y a des isomorphismes naturels
(E ⊗k F ) ⊗k G ∼
= E ⊗k (F ⊗k G),
(E ⊕ F ) ⊗k G ∼
= (E ⊗k G) ⊕ (F ⊗k G),
E ⊗k (F ⊕ G) ∼
= (E ⊗k F ) ⊕ (E ⊗k G).
Enfin si E 0 et F 0 sont deux autres k-espace vectoriels et si f : E → E 0 et g : F → F 0 sont deux
applications linéaires, on dispose d’une application linéaire f ⊗ g de E ⊗k F dans E 0 ⊗k F 0 .
Nous allons étendre ces résultats au cadre des modules sur un anneau A, fixé pour tout ce
paragraphe. Pour cela, il est agréable d’introduire une dissymétrie.
Module à droite : un A-module à droite est la donnée d’un groupe abélien M et d’un ho-
momorphisme d’anneaux de Aop dans End(M ). On dispose alors d’une opération de A sur
M , qu’on note comme un produit ma, avec m ∈ M et a ∈ A ; pour le produit dans A, on
a alors m(ab) = (ma)b. Un homomorphisme entre deux A-modules à droite M et N est un
homomorphisme de groupes abéliens f : M → N tel que f (ma) = f (m)a pour tout m ∈ M
et tout a ∈ A. Un exemple de A-module à droite est le module régulier AA : c’est le groupe
abélien (A, +) sur lequel les éléments de A agissent par multiplication à droite.
Soit L un A-module à droite et M un A-module à gauche. Soit F le groupe abélien libre
Z(L×M ) . Pour abréger, l’élément e(l,m) de la base naturelle de F correspondant à un couple
(l, m) ∈ L × M sera noté simplement (l, m). Soit F0 le sous-groupe de F engendré par les
éléments de la forme
0 0

 (l + l , m) − (l, m) − (l , m),

(l, m + m0 ) − (l, m) − (l, m0 ),

(la, m) − (l, am),

pour (l, l0 ) ∈ L2 , (m, m0 ) ∈ M 2 , a ∈ A. Le Z-module quotient F/F0 est appelé produit tensoriel
de L et M au dessus de A et est noté L ⊗A M . Il vient avec une application (l, m) 7→ l ⊗ m
de L × M dans L ⊗A M , où l ⊗ m est l’image de (l, m) ∈ F dans le quotient F/F0 = L ⊗A M .
Par construction, la famille (l ⊗ m)(l,m)∈L×M d’éléments de L ⊗A M est génératrice.

1.4.1.1 Proposition (propriété universelle du produit tensoriel). Soient L un A-


module à droite, M un A-module à gauche, G un Z-module, f : L × M → G une application
vérifiant
0 0

 f (l + l , m) = f (l, m) + f (l , m),

f (l, m + m0 ) = f (l, m) + f (l, m0 ),

f (la, m) = f (l, am),

pour tous (l, l0 ) ∈ L2 , (m, m0 ) ∈ M 2 , a ∈ A. Alors il existe un unique morphisme de Z-modules


f˜ : L ⊗A M → G tel que
f˜(l ⊗ m) = f (l, m)
pour tout (l, m) ∈ L × M .

i p
Preuve. Contemplons la suite exacte courte 0 → F0 → − F → − L ⊗A M → 0 de Z-modules.
Appliquant le foncteur HomZ (?, G), nous obtenons la suite exacte
HomZ (p,G) HomZ (i,G)
0 → HomZ (L ⊗A M, G) −−−−−−−→ HomZ (F, G) −−−−−−−→ HomZ (F0 , G).

46
Ainsi le groupe des homomorphismes de L ⊗A M dans G est le noyau de HomZ (i, G). En
termes plus terre-à-terre, ce verbiage signifie qu’un homomorphisme de F/F0 dans G est la
même chose qu’un homomorphisme h : F → G qui s’annule sur F0 . Dire alors que h s’annule
sur F0 , c’est dire que le noyau de h contient tous les éléments engendrant F0 .
Le Z-module F étant libre, la donnée d’un homomorphisme h : F → G est équivalente
à la donnée de l’image par h de chaque vecteur de la base naturelle de F : l’application
h 7→ (h(l, m))(l,m)∈L×M est un isomorphisme de groupes de HomZ (F, G) sur GL×M . Par
ailleurs, le groupe GL×M est l’ensemble des applications de L × M dans G.
À une application f : L × M → G donnée comme dans l’énoncé de la proposition correspond
donc un homomorphisme h : F → G. Les conditions imposées à f font que h s’annule sur F0 ,
donc se factorise en h = f˜ ◦ p. Cela montre l’existence de f˜. L’unicité de f˜ provient de ce que
les éléments de la forme l ⊗ m engendrent le Z-module L ⊗A M . 

Exemples.
(1) Soit M un A-module à gauche. Alors le produit tensoriel A ⊗A M du A-module à droite
régulier AA par M s’identifie naturellement au groupe additif sous-jacent à M . De fait,
la propriété universelle du produit tensoriel (proposition 1.4.1.1), utilisée avec l’appli-
cation f : (a, m) 7→ am de A × M dans M , montre l’existence d’un homomorphisme de
groupes abéliens f˜ : A ⊗A M → M tel que f˜(a ⊗ m) = am pour tout (a, m) ∈ A × M .
Dans l’autre sens, soit g : M → A ⊗A M l’application m 7→ 1 ⊗ m. Cette application
g est un homomorphisme de groupes, car en vertu des relations définissant le produit
tensoriel, nous avons g(m + m0 ) = 1 ⊗ (m + m0 ) = 1 ⊗ m + 1 ⊗ m0 = g(m) + g(m0 ), pour
tout (m, m0 ) ∈ M 2 . Il est manifeste que f˜ ◦ g est l’identité de M . Par ailleurs, g ◦ f˜
est un endomorphisme du groupe abélien A ⊗A M qui fixe chaque générateur a ⊗ m,
puisque 1⊗am = a⊗m dans A⊗A M . Ainsi f˜ et g sont des isomorphismes réciproques.
(2) Soient m et n deux entiers naturels. On note Am c la puissance m-ième du A-module à
droite régulier, que l’on voit comme l’ensemble des vecteurs colonnes de hauteur m à
coefficients dans A. On note Anl la puissance n-ième du A-module à gauche régulier,
que l’on voit comme l’ensemble des vecteurs lignes de longueur n à coefficients dans
A. Par la propriété universelle du produit tensoriel, le produit matriciel f : Am c ×
Anl → Matm,n (A) induit un homomorphisme de groupes abéliens f˜ : Am c ⊗A lA n →

Matm,n (A). En fait, f˜ est un isomorphisme. Pour Pmle montrer, on définit une application
g : Matm,n (A) → Am c ⊗A Al en posant g(M ) = i=1 ei ⊗mi , où ei est le i-ème élément
n

de la base canonique de Am c et où mi est la i-ème ligne de M . On vérifie alors que g


est un homomorphisme de groupes abéliens, puis que f˜ ◦ g et g ◦ f˜ sont les identités
de Matm,n (A) et Am c ⊗A Al , respectivement. Ces vérifications se font en utilisant les
n

relations dans le produit tensoriel, comme dans l’exemple précédent.


(3) Soit n un entier naturel. Notons Anc l’ensemble des vecteurs colonnes de hauteur n à
coefficients dans A ; c’est un Matn (A)-module à gauche. Notons Anl l’ensemble des
vecteurs lignes de longueur n à coefficients dans A ; c’est un Matn (A)-module à droite.
Le produit matriciel g : Anl × Anc → A vérifie les hypothèses de la proposition 1.4.1.1 ;
le point le plus important à vérifier est l’égalité g(xM, y) = g(x, M y) pour (x, M, y) ∈
Anl × Matn (A) × Anc , qui n’est autre que l’associativité du produit matriciel. Nous
obtenons ainsi un homomorphisme de groupes abéliens g̃ : Anl ⊗Matn (A) Anc → A. On

47
prouve alors comme précédemment que g̃ est un isomorphisme. Plus précisément, pour
i, j ∈ {1, . . . , n} et a, b ∈ A, notons ei (a) l’élément de Anl ayant des zéros partout sauf a
à la position i, notons fj (b) l’élément de Anc ayant des zéros partout sauf b à la position
j, et notons E1i (a) la matrice n × n avec des zéros partout sauf un a à la position (1, i).
Soit h l’application a 7→ e1 (1) ⊗ f1 (a) de A dans Anl ⊗Matn (A) Anc . On vérifie aisément
que h est un homomorphisme de groupes et que g̃ ◦ h = idA . Dans l’autre sens, l’égalité
(
e1 (1) ⊗ f1 (ab) si i = j,
ei (a) ⊗ fj (b) = e1 (1)E1i (a) ⊗ fj (b) = e1 (1) ⊗ E1i (a)fj (b) =
0 si i 6= j,

dans Anl ⊗Matn (A) Anc montre que h ◦ g̃ est l’identité du produit tensoriel.

Remarque. Soient A un anneau, M un A-module à droite, N un A-module à gauche. On peut


alors former les produits tensoriels M ⊗A N et M ⊗Z N . On voit immédiatement que le premier
est le quotient du second par le sous-groupe engendré par les éléments ma ⊗ n − m ⊗ an, pour
(m, a, n) ∈ M × A × N . Ceci est à rapprocher du fait que si L et N sont deux A-modules à
gauche, HomA (L, N ) est un sous-groupe de HomZ (L, N ) : les propriétés du bifoncteur ⊗ sont
souvent duales des propriétés du bifoncteur Hom.

1.4.1.2 Corollaire. Soient L un A-module à droite, M un A-module à gauche, G un Z-


module. On munit le groupe abélien HomZ (L, G) d’une structure de A-module à gauche en
posant ah = (l 7→ h(la)) pour h ∈ HomZ (L, G) et a ∈ A. Pour f ∈ HomZ (L ⊗A M, G) et
m ∈ M , notons f (? ⊗ m) l’élément l 7→ f (l ⊗ m) de HomZ (L, G). Alors l’application qui à
f associe m 7→ f (? ⊗ m) est un isomorphisme de groupes abéliens de HomZ (L ⊗A M, G) sur
HomA (M, HomZ (L, G)).

Preuve. Soit f ∈ HomZ (L ⊗A M, G). Pour chaque m ∈ M , l’application f (? ⊗ m) de L dans


G est un homomorphisme de groupes abéliens, car les relations dans le produit tensoriel et
l’additivité de f font que

f ((l + l0 ) ⊗ m) = f (l ⊗ m + l0 ⊗ m) = f (l ⊗ m) + f (l0 ⊗ m).

L’application g : m 7→ f (?⊗m) de M dans HomZ (L, G) est donc bien définie. Cette application
g est un homomorphisme de A-modules. En effet, pour tous m, m0 ∈ M et a ∈ A, on calcule

f (l ⊗ (m + m0 )) = f (l ⊗ m + l ⊗ m0 ) = f (l ⊗ m) + f (l ⊗ m0 ),

d’où
g(m + m0 ) = f (? ⊗ (m + m0 )) = f (? ⊗ m) + f (? ⊗ m0 ) = g(m) + g(m0 ).
De même
g(am) = f (? ⊗ am) = (l 7→ f (la ⊗ m)) = af (? ⊗ m) = ag(m).
On définit alors une application F de HomZ (L ⊗A M, G) dans HomA (M, HomZ (L, G)) en
posant g = F (f ), et on vérifie que F est un homomorphisme de groupes.

48
Inversement, soit g un homomorphisme de A-modules de M dans HomZ (L, G). Alors l’ap-
plication h : (l, m) 7→ g(m)(l) de L × M dans G vérifie les hypothèses de la proposition
1.4.1.1. Posant f = h̃, on obtient un homomorphisme de groupes abéliens de L ⊗A M dans
G tel que f (l ⊗ m) = g(m)(l). Posant alors f = G(g), on définit une application G de
HomA (M, HomZ (L, G)) dans HomZ (L ⊗A M, G).
On vérifie que pour tout f ∈ HomZ (L ⊗A M, G), G ◦ F (f ) et f coïncident sur tout élément
de la forme l ⊗ m, donc coïncident sur L ⊗A M . Ainsi G ◦ F = id. On vérifie de même que
F ◦ G = id. 

1.4.1.3 Corollaire. Soient L et L0 deux A-modules à droite, M et M 0 deux A-modules à


gauche, f : L → L0 et g : M → M 0 deux homomorphismes de A-modules. Alors il existe un
unique homomorphisme de Z-module f ⊗ g : L ⊗A M → L0 ⊗A M 0 tel que (f ⊗ g)(l ⊗ m) =
f (l) ⊗ g(m) pour tous l ∈ L et m ∈ M .

Preuve. L’application h : (l, m) 7→ f (l) ⊗ g(m) de L × M dans L0 ⊗A M 0 vérifie les hypothèses


de la proposition précédente. Par exemple, la relation h(l + l0 , m) = h(l, m) + h(l0 , m) provient
de ce que f est un homomorphisme de groupes additifs et de la relation

(f (l) + f (l0 )) ⊗ g(m) = f (l) ⊗ g(m) + f (l0 ) ⊗ g(m)

dans L0 ⊗A M 0 . Dès lors, l’application f ⊗ g cherchée est l’application h̃ de la proposition


précédente. 

f f0
En présence de suites d’homomorphismes de A-modules à droite L −
→ L0 −→ L00 et à gauche
g g0
M→ − M0 − → M 00 , on a l’égalité (f 0 ⊗ g 0 ) ◦ (f ⊗ g) = (f 0 ◦ f ) ⊗ (g 0 ◦ g) entre homomorphismes de
L ⊗A M et L00 ⊗A M 00 . De fait, les deux homomorphismes situés de part et d’autre dans cette
égalité prennent la même valeur sur chaque élément de la forme l ⊗ m, pour (l, m) ∈ L × M ;
ces éléments engendrant L⊗A M , les deux homomorphismes sont égaux. Par ailleurs, idL ⊗idM
est l’identité de L ⊗A M .
Ceci nous dit en particulier que chaque A-module à gauche Y définit un foncteur covariant
?⊗A Y de la catégorie des A-modules à droite dans la catégorie des Z-modules. À un A-module
à droite L, ce foncteur associe le Z-module L ⊗A Y ; à un homomorphisme f de A-modules
à droite, ce foncteur associe l’homomorphisme f ⊗ idY de Z-modules. On peut ainsi noter
f ⊗A Y au lieu de f ⊗ idY .
Le foncteur ? ⊗A Y est additif. Il en résulte qu’il commute aux sommes directes finies. En fait,
il commute aussi aux sommes directes infinies.

1.4.1.4 Proposition. Soient (Lt )t∈T une famille de A-modules à droite et M un A-module
à gauche. Alors il existe un unique isomorphisme canonique entre les groupes abéliens
!
M M 
Lt ⊗A M et Lt ⊗A M
t∈T t∈T
 L 
qui envoie (lt )t∈T ⊗ m sur (lt ⊗ m)t∈T pour chaque (lt )t∈T , m ∈ t∈T Lt × M.

49
Preuve. Posons L = t∈T Lt . En vertu de la propriété
L universelle du produit tensoriel, l’ap-
L
plication (lt )t∈T , m 7→ (lt ⊗m)t∈T L
de L×M dans  t∈T Lt ⊗A M induit un homomorphisme
de groupes abéliens f : L ⊗A M → t∈T Lt ⊗A M . Il s’agit maintenant de démontrer que f
est un isomorphisme.
Pour chaque t ∈ T , notons it : Lt → L l’homomorphisme canonique. La famille des homomor-
phismes it ⊗ idM : Lt ⊗A M → L ⊗A M définit un homomorphisme g : L
L 
t∈T Lt ⊗A M →
L ⊗A M . On vérifie que g ◦ f et f ◦ g sont les identités de L ⊗A M et t∈T Lt ⊗A M ,


respectivement, en vérifiant qu’ils fixent des générateurs de ces modules. 

1.4.1.5 Proposition.
f g
(i) Pour chaque A-module à gauche Y , le foncteur ? ⊗A Y est exact à droite : si L −
→M →

N → 0 est une suite exacte de A-modules à droite, alors
f ⊗id
Y Y g⊗id
L ⊗A Y −−−−→ M ⊗A Y −−−−→ N ⊗A Y → 0

est une suite exacte de Z-modules.


f
(ii) Si Y est un A-module à gauche projectif, alors le foncteur ? ⊗A Y est exact : si L −

g
M→ − N est une suite exacte de A-modules à droite, alors
f ⊗id
Y Y g⊗id
L ⊗A Y −−−−→ M ⊗A Y −−−−→ N ⊗A Y

est une suite exacte de Z-modules.


f g
(iii) Si la suite exacte courte de A-modules à droite 0 → L −→M → − N → 0 est scindée,
alors pour tout A-module à gauche Y , la suite de Z-modules
f ⊗id
Y Y g⊗id
0 → L ⊗A Y −−−−→ M ⊗A Y −−−−→ N ⊗A Y → 0

est exacte et scindée.

Preuve. Plaçons-nous dans les hypothèses de l’assertion (i). L’homomorphisme g étant sur-
jectif, chaque élément de la forme n ⊗ y dans N ⊗A Y est dans l’image de g ⊗ idY . Ces
éléments engendrant N ⊗A Y , nous voyons que g ⊗ idY est surjectif. Par ailleurs, l’égalité
g ◦ f = 0 entraîne que (g ⊗ idY ) ◦ (f ⊗ idY ) = (g ◦ f ) ⊗ idY = 0, ce qui montre l’inclusion
im(f ⊗ idY ) ⊆ ker(g ⊗ idY ).
On définit une application k de N × Y dans coker(f ⊗ idY ) de la façon suivante : étant donné
(n, y) ∈ N × Y , on peut trouver m ∈ M tel que g(m) = n, et on pose k(n, y) = m ⊗ y +
im(f ⊗ idY ). Le point ici est que k(n, y) ne dépend que de n et pas du choix de m : un autre
choix m0 diffère de m par un élément de ker g = im f , de sorte que m0 ⊗ y diffère de m ⊗ y par
un élément de im(f ⊗ idY ). L’application k satisfait aux hypothèses de la proposition 1.4.1.1,
d’où un homomorphisme k̃ de N ⊗A Y dans coker(f ⊗ idY ) tel que k̃(n ⊗ y) = k(n, y) pour
n ∈ N et y ∈ Y . Notons g̃ l’application de coker(f ⊗ idY ) = (M ⊗A Y )/ im(f ⊗ idY ) dans
N ⊗A Y obtenue en factorisant g ⊗ idY . Alors k̃ ◦ g̃ = id. Ainsi g̃ est injectif ; autrement dit, le
noyau ker(g ⊗ idY )/ im(f ⊗ idY ) de ker g̃ est réduit à 0. Cela achève la preuve de l’exactitude
de la suite donnée dans l’énoncé (i).

50
f g
Considérons une suite exacte courte L −
→M → − N de A-modules à droite. La distributivité du
produit tensoriel par rapport à la somme implique que la classe Y des A-modules à gauche Y
pour lesquels la suite
Yf ⊗id Y g⊗id
L ⊗A Y −−−−→ M ⊗A Y −−−−→ N ⊗A Y
est exacte, est stable par somme directe et par passage aux facteurs directs. En outre, le A-
module à gauche régulier appartient à Y , car pour Y = A A, la seconde des suites ci-dessus
s’identifie naturellement à la première. Tout A-module libre est somme directe de modules
isomorphes à A A, donc appartient à Y . Tout A-module projectif est facteur direct d’un module
libre, donc appartient à Y . Ceci établit (ii).
Sous les hypothèses de (iii), il existe une décomposition M = M 0 ⊕ M 00 du terme central de
la suite exacte telle que les applications f et g s’écrivent sous forme de matrices par blocs
 
f0
0 g 00
   
0
0 00
0 → L −−−−→ M ⊕ M −−−−−−→ N → 0,

f 0 : L → M 0 et g 00 : M 00 → N étant des isomorphismes de A-modules à droite. Le résultat


découle alors de la distributivité du produit tensoriel par rapport à la somme directe. 

De même, chaque A-module à droite X donne lieu à un foncteur covariant X⊗A ? de la catégorie
des A-modules à gauche dans la catégorie des groupes abéliens. Ce foncteur commute aux
sommes directes, finies ou infinies ; il est exact à droite, et est exact dès que X est projectif.

Remarque. Soit p un entier strictement positif et contemplons la suite exacte courte 0 →


f g
Z −→ Z → − Z/pZ → 0, où f est la multiplication par p et g est l’application canonique.
L’application du foncteur ? ⊗Z Z/pZ conduit à la suite Z/pZ → Z/pZ → Z/pZ → 0, dans
laquelle la première flèche est nulle. Le foncteur ? ⊗Z Z/pZ n’est donc pas exact.

Un A-module à gauche Y (respectivement, un A-module à droite X) est dit plat si le foncteur


? ⊗A Y (respectivement, X⊗A ?) est exact. L’exemple ci-dessus montre que le Z-module Z/pZ
n’est pas plat. L’exercice (2) ci-dessous montre qu’un module sur un anneau principal est plat
si et seulement s’il est sans torsion.
Le défaut d’exactitude des foncteurs HomA (?, Y ) et HomA (X, ?) étaient mesurés par les fonc-
teurs Ext1A (?, Y ) et Ext1A (X, ?), grâce auxquels on pouvait compléter les suites exactes courtes
tronquées en des suites exactes longues (voir le paragraphe 1.1.5). De même, le défaut d’exac-
titude des foncteurs ? ⊗A Y et X⊗A ? est mesuré par des foncteurs TorA 1 (?, Y ) et Tor1 (X, ?).
A

Pour des détails et une construction explicite du bifoncteur Tor1 (?, ?), je renvoie au cha-
A

pitre V, §7 (et en particulier à l’exercice 1) du livre Homology de Saunders Mac Lane, Die
Grundlehren der mathematischen Wissenschaften, Band 114, Springer-Verlag, 1963.

51
Exercices.
(1) Soient L un A-module à droite et M un A-module à gauche. Soient L0 ⊆ L et M 0 ⊆ M
des sous-modules. On dispose alors des suites exactes courtes
i p j q
0 → L0 → − L/L0 → 0
− L→ et 0 → M0 → − M/M 0 → 0.
− M→

Montrer que le noyau de p ⊗ q : L ⊗A M → (L/L0 ) ⊗A (M/M 0 ) est la somme des images


de i ⊗ idM et de idL ⊗ j. Ainsi quand i ⊗ idM et idL ⊗ j sont injectifs, on peut écrire
L ⊗A M
(L/L0 ) ⊗A (M/M 0 ) ∼
= .
L0 ⊗A M + L ⊗A M 0

(2) Soit A un anneau commutatif intègre principal. Montrer qu’un A-module Y est sans
torsion si et seulement si le foncteur ? ⊗A Y est exact. (Indication : commencer par
traiter le cas où Y est de type fini, en utilisant qu’un module de type fini sans torsion
sur un anneau principal est libre, puis se ramener à ce cas-là en travaillant avec la
construction du produit tensoriel. Note : le résultat vaut aussi quand A est un anneau
de Dedekind.)

1.4.2 Produit tensoriel d’anneaux

1.4.2.1 Proposition. Soient A et B deux anneaux, dont les neutres multiplicatifs sont
notés 1A et 1B . Soit C = A ⊗Z B le produit tensoriel de leurs sous-groupes additifs sous-
jacents. Il existe une et une seule structure d’anneau sur C pour laquelle le produit de deux
éléments a ⊗ b et a0 ⊗ b0 est aa0 ⊗ bb0 . L’élement neutre pour la multiplication est 1A ⊗ 1B . Les
applications a 7→ (a ⊗ 1B ) et b 7→ (1A ⊗ b) sont des homomorphismes d’anneaux de A dans C
et de B dans C.

Preuve. La seule difficulté ici est de montrer l’existence d’une application m : C × C → C


telle que
p q p X q
!
X X X
0 0
m ai ⊗ bi , aj ⊗ bj = ai a0j ⊗ bi b0j ,
i=1 j=1 i=1 j=1

pour tous (p, q) ∈ N2 , (ai , bi ) ∈ (A × B)p et (a0j , b0j ) ∈ (A × B)q . On pourra alors définir la
multiplication sur C comme étant cette application. L’associativité, la distributivité, et le fait
que 1A ⊗1B soit un élément neutre pour cette multiplication découleront de calculs immédiats,
de sorte que la proposition
Pp sera établie. LaP difficulté est que pour (s, t) ∈ C 2 , il y a plusieurs
écritures possibles s = i=1 ai ⊗ bi et t = qj=1 a0j ⊗ b0j .
Pour a ∈ A, on note La : A → A la multiplication à gauche par a. Pour b ∈ B, on note
Mb : B → B la multiplication à gauche par b. Ces applications sont des homomorphismes
de Z-modules. Leur produit tensorielLa ⊗ Mb est un endomorphisme du produit tensoriel
Pq Pq
C = A ⊗Z B. En formules, (La ⊗ Mb ) 0 0
j=1 aj ⊗ bj = j=1 aaj ⊗ bbj .
0 0

Soit t un élément de C. L’application (a, b) → 7 (La ⊗ Mb )(t) de A × B dans C vérifie les


hypothèses de la proposition 1.4.1.1. Il existe donc un endomorphisme Rt du groupe abélien

52
Z B tel que Rt (a ⊗
A ⊗P Pb)q = 0(La ⊗ Mb )(t) pour tout (a, b) ∈ A × B. En formules, pour
p
s = i=1 ai ⊗ bi et t = j=1 aj ⊗ bj , nous avons
0

p
X p X
X q
Rt (s) = Rt (ai ⊗ bi ) = ai a0j ⊗ bi b0j .
i=1 i=1 j=1

Le membre de droite de cette égalité ne dépend donc que de (s, t) ∈ C 2 et pas des écritures
particulières de s et t utilisées. 

Ainsi, étant donnés deux anneaux A et B, on peut construire un anneau A ⊗Z B « conte-


nant » 10 A et B et où chaque élément de A commute avec chaque élément de B. Remarquons
ici que le produit ordinaire A × B ne convient pas : l’application a 7→ (a, 0) de A dans A × B
n’est pas un homomorphisme d’anneaux.

1.4.2.2 Corollaire. Soient A, B et C des anneaux, et soient f : A → C et g : B → C


des homomorphismes d’anneaux. On suppose que pour chaque (a, b) ∈ A × B, on a f (a)g(b) =
g(b)f (a). Alors il existe un unique homomorphisme d’anneaux h : A ⊗Z B → C tel que
h(a ⊗ b) = f (a)g(b) pour chaque (a, b) ∈ A × B.

Preuve. Par la propriété universelle du produit tensoriel, l’application (a, b) 7→ f (a)g(b) de


A × B dans C définit un homomorphisme de groupes abéliens h : A ⊗Z B → C tel que
h(a ⊗ b) = f (a)g(b) pour chaque (a, b) ∈ A × B. Munissons A ⊗Z B de la structure d’anneau
décrite dans la proposition 1.4.2.1. Il est manifeste que h préserve le neutre multiplicatif. Que h
préserve aussi la multiplication résulte d’un calcul direct, dans lequel on se sert de l’hypothèse
que f (a)g(b) = g(b)f (a) pour chaque (a, b) ∈ A × B. 

1.4.2.3 Exemples.
(1) Soient A un anneau, L un A-module à droite, M un A-module à gauche. Pour chaque
(f, g) ∈ EndA (L) × EndA (M ), on a l’égalité entre endomorphismes de L ⊗A M
(f ⊗ idM ) ◦ (idL ⊗ g) = f ⊗ g = (idL ⊗ g) ◦ (f ⊗ idM ).
Cette égalité montre l’existence d’un homomorphisme d’anneaux naturel de EndA (L)⊗Z
EndA (M ) dans EndZ (L ⊗A M ) qui envoie f ⊗ g sur f ⊗ g, pour chaque (f, g) ∈
EndA (L) × EndA (M ). (Il est ici malencontreux que la même notation désigne deux
objets différents ; cette ambiguïté n’a toutefois que peu d’impact.)
(2) Soient A un anneau, L et M deux A-modules à gauche. Pour (f, g) ∈ EndA (L) ×
EndA (M ), on a l’égalité entre endomorphismes de HomA (L, M )
HomA (f, M ) ◦ HomA (L, g) = HomA (f, g) = HomA (L, g) ◦ HomA (f, M ),
d’après l’exercice (3) du paragraphe 1.1.4. (Concrètement, l’image par HomA (f, g) d’un
élément h ∈ HomA (L, M ) est la composée g ◦ h ◦ f .) Nous obtenons ainsi l’existence
d’un homomorphisme d’anneaux de EndA (L)op ⊗Z EndA (M ) dans EndZ (HomA (L, M ))
qui envoie f ⊗ g sur HomA (f, g), pour chaque (f, g) ∈ EndA (L) × EndA (M ).

10. Les homomorphismes de A et B dans A ⊗Z B ne sont pas nécessairement injectifs (voir l’exercice (1)
ci-après pour un exemple), d’où les guillemets autour du mot contenant.

53
Exercices.
(1) Soient m et n deux entiers naturels. Notons d leur plus grand diviseur commun. Montrer
l’existence d’un isomorphisme d’anneaux Z/mZ ⊗Z Z/nZ ∼ = Z/dZ.
(2) Soient B et C deux anneaux, soit L un B-module à gauche et soit M un C-module à
droite. Montrer que L ⊗Z M est naturellement muni d’une structure de B ⊗ C-module
à gauche. (Indication : utiliser l’exemple 1.4.2.3 (1) avec A = Z.)
(3) Soient A et B deux anneaux et m et n deux entiers strictement positifs. Montrer
l’existence d’un isomorphisme Matm (A) ⊗Z Matn (B) ∼ = Matmn (A ⊗Z B).

1.4.3 Bimodules

Dans ce paragraphe, on se donne quatre anneaux A, B, C et D.


Bimodules : un A-B-bimodule est un A ⊗Z B op -module à gauche. Autrement dit, c’est un
groupe abélien M muni d’une structure de A-module à gauche et d’une structure de B-
module à droite, avec la contrainte que les actions de A et de B commutent l’une avec l’autre :
a(mb) = (am)b pour tous a ∈ A, b ∈ B, m ∈ M . On explicite cette situation dans la notation
en écrivant A MB pour signifier que A agit à gauche et B agit à droite sur M .

1.4.3.1 Exemples.
(1) Soit A un anneau. Le groupe additif (A, +) peut être muni d’une structure de A-A-
bimodule, l’action à gauche et à droite de A étant donnée par la multiplication de A.
Le A-A-bimodule ainsi obtenu est appelé le bimodule régulier et est parfois noté A AA .
Son anneau d’endomorphismes s’identifie avec le centre de A : à un endomorphisme f
du bimodule régulier, on associe f (1), qui appartient au centre de A puisque af (1) =
f (a · 1) = f (a) = f (1 · a) = f (1)a pour tout a ∈ A.
(2) Un B-module à droite M est un EndB (M )-B-bimodule. Observant que l’anneau des
endomorphismes du A-module régulier à droite AA est isomorphe à A lui-même (l’iso-
morphisme est a 7→ (b 7→ ab)), nous voyons que l’exemple (1) est un cas particulier de
celui-ci.
(3) Soient L un A-B-bimodule et M un A-C-bimodule. Ainsi L et M sont des A-modules
à gauche et l’on a des homomorphismes d’anneaux de B op dans EndA (L) et de C op
dans EndA (M ), d’où un homomorphisme d’anneaux de B ⊗Z C op dans EndA (L)op ⊗Z
EndA (M ). Par composition avec l’homomorphisme naturel de ce dernier anneau dans
EndZ (HomA (L, M )) présenté dans l’exemple 1.4.2.3 (2), on voit que le groupe abélien
HomA (L, M ) est muni d’une structure de B-C-bimodule. Concrètement, cette structure
est donnée par bf c = (l 7→ f (lb)c) pour b ∈ B, c ∈ C et f ∈ HomA (L, M ).
(4) Soient L un A-B-bimodule et M un B-C-bimodule. Autrement dit, L est un B-module à
droite, M est un B-module à gauche, et on dispose d’homomorphismes d’anneaux de A
dans EndB (L) et de C op dans EndB (M ). On a alors un homomorphisme d’anneaux de
A⊗C op dans EndB (L)⊗Z EndB (M ). Par composition avec l’homomorphisme d’anneaux
de EndB (L) ⊗Z EndB (M ) dans EndZ (L ⊗B M ) présenté dans l’exemple 1.4.2.3 (1), on
obtient une structure de A-C-bimodule sur L ⊗B M . L’action de A et C sur L ⊗B M
est telle que a(l ⊗ m)c = (al) ⊗ (mc) pour a ∈ A, c ∈ C, l ∈ L, m ∈ M .

54
1.4.3.2 Proposition. Soient A, B, C et D quatre anneaux, et soient L un B-module à
droite, M un B-C-bimodule et N un C-module à gauche. Il existe un unique homomorphisme
de groupes abéliens de (L ⊗B M ) ⊗C N dans L ⊗B (M ⊗C N ) qui envoie (l ⊗ m) ⊗ n sur
l ⊗ (m ⊗ n) pour tous l ∈ L, m ∈ M , n ∈ N . Cet homomorphisme est un isomorphisme. Si L
est un A-B-bimodule et N est un C-D-bimodule, alors on a en fait affaire à un isomorphisme
de A-D-bimodules.

Preuve. Fixons n ∈ N . Par la propriété universelle du produit tensoriel, l’application (l, m) 7→


l ⊗ (m ⊗ n) de L × M dans L ⊗B (M ⊗C N ) définit un homomorphisme de Z-modules de
L ⊗B M dans L ⊗B (M ⊗C N ). On munit L ⊗B M de sa structure de C-module à droite.
Utilisant
P à nouveau
 laP
propriété universelle du produit tensoriel, nous voyons que l’application
p p
i=1 li ⊗ mi , n 7→ i=1 li ⊗ (mi ⊗ n) de (L ⊗B M ) × N dans L ⊗B (M ⊗C N ), dont nous
venons de prouver l’existence, définit un homomorphisme de Z-modules α : (L⊗B M )⊗C N →
L ⊗B (M ⊗C N ). Le cas échéant, on vérifie que α est compatible avec les actions de A et D
sur les deux produits de trois facteurs.
De la même manière, on montre l’existence et l’unicité d’un homomorphisme de Z-modules
β : L ⊗B (M ⊗C N ) → (L ⊗B M ) ⊗C N tel que β(l ⊗ (m ⊗ n)) = (l ⊗ m) ⊗ n. La composée
β ◦ α est un endomorphisme du Z-module (L ⊗B M ) ⊗C N qui fixe les éléments de la forme
(l ⊗ m) ⊗ n. Ces derniers engendrent (L ⊗B M ) ⊗C N , donc β ◦ α = id. On montre de même
que α ◦ β = id, ce qui établit que α et β sont des isomorphismes réciproques. 

Le résultat suivant nous dit que la donnée d’un A-B-bimodule permet de relier la catégorie
des A-modules à la catégorie des B-modules. Sa preuve est laissée en exercice.

1.4.3.3 Proposition. Soient A et B deux anneaux, et soient L un A-B-bimodule, M un


B-module et N un A-module. On munit L ⊗B M de sa structure de A-module naturelle et on
munit HomA (L, N ) de sa structure de B-module naturelle. Alors l’isomorphisme de groupes
abéliens f 7→ (m 7→ f (? ⊗ m)) de HomZ (L ⊗B M, N ) sur HomB (M, HomZ (L, N )) induit par
restriction un isomorphisme HomA (L ⊗B M, N ) ∼
= HomB (M, HomA (L, N )).

Plus précisément, on dispose du foncteur L⊗B ? de la catégorie des B-modules dans la catégorie
des A-modules et du foncteur HomA (L, ?) qui va dans l’autre sens. La terminologie pour
exprimer l’existence de l’isomorphisme HomA (L ⊗B M, N ) ∼ = HomB (M, HomA (L, N )) est de
dire que le premier foncteur est l’adjoint à gauche du second, ou que le second est l’adjoint à
droite du premier.
Quand L est un module projectif de type fini et générateur (en un sens à définir) et B =
EndA (L)op , les deux foncteurs ci-dessus sont des équivalences de catégories. On dit alors avoir
affaire à un contexte de Morita, voir par exemple [7], §3D pour plus davantage de détails sur
cette situation.

Exercices.
(1) Soient A un anneau, M un A-module à gauche, I un idéal bilatère de A. L’anneau A et
le quotient A/I peuvent être vus comme des A-A-bimodules, de sorte qu’on peut former

55
les produits tensoriels A ⊗A M et (A/I) ⊗A M . Montrer l’existence d’un isomorphisme
de A-modules de A ⊗A M sur M envoyant a ⊗ m sur am, pour tout (a, m) ∈ A × M .
Montrer l’existence d’un isomorphisme de A-modules (A/I) ⊗A M ∼ = M/IM .
(2) Démontrer la proposition 1.4.3.3.

1.4.4 Changement de base

Soit χ : B → A un homomorphisme d’anneaux ; on peut alors munir A d’une action de B à


gauche ou à droite en posant ba = χ(b)a et ab = aχ(b), respectivement, pour tous (a, b) ∈
A×B. Ainsi A peut être muni d’une structure de A-B-bimodule ou de B-A-bimodule. Soit V un
A-module à gauche. On munit le groupe additif (V, +) de l’action de B obtenue en composant
l’homomorphisme d’anneaux de A dans EndZ (M ) avec χ ; le B-module ainsi obtenu est noté
B V . Ce module resB V peut se retrouver de deux manières : soit en utilisant la structure
resA A

de A-B-bimodule sur A pour obtenir une structure de B-module sur V ∼ = HomA (A, V ), soit
en utilisant la structure de B-A-bimodule sur A pour obtenir une structure de B-module sur
V ∼= A ⊗A V . Par ailleurs, soit W un B-module à gauche. La structure de A-B-bimodule sur
A munit indA B W = A ⊗B W d’une structure de A-module à gauche ; la structure de B-A-
bimodule sur A munit coindA B W = HomB (A, W ) d’une structure de A-module à gauche. La
proposition 1.4.3.3 montre qu’on a alors des isomorphismes naturels
∼ ∼
B V ) = HomA (indB W, V ) et
HomB (W, resA A
HomB (resA A
B V, W ) = HomA (V, coindB W ).

B admet un adjoint à gauche, à savoir indB , et un adjoint à droite, à


Ainsi le foncteur resA A

savoir coindB .
A

Nous verrons ultérieurement qu’il est parfois possible d’identifier les foncteurs indA
B et coindB ;
A

ce sera notamment le cas dans le cadre des représentations des groupes finis.

1.4.5 Structure des modules complètement réductibles

1.4.5.1 Proposition. Soient A et B des anneaux, S un A-module simple, ∆ = EndA (S)op ,


et T un ∆-B-bimodule. On suppose que T est un B-module simple et on munit S ⊗∆ T de sa
structure de A-B-bimodule.
(i) En tant que A-module, S ⊗∆ T est complètement réductible, et est isotypique de type S.
(ii) En tant que B-module à droite, S ⊗∆ T est complètement réductible, et est isotypique
de type T .
(iii) Le A-B-bimodule S ⊗∆ T est simple.

Preuve. D’après le lemme de Schur, ∆ est un anneau à division. Le ∆-module à droite est
donc libre, d’après la proposition 1.3.1.3. Choisissons une base (ei )i∈I du ∆-module à droite
S. Alors !
M M 
S ⊗∆ T = ei ∆ ⊗∆ T = ei ∆ ⊗∆ T ,
i∈I i∈I
et chaque terme ei ∆ ⊗∆ T de cette somme directe est un B-module isomorphe à ∆ ⊗∆ T , donc
à T . Cela prouve (ii). La preuve de (i) s’obtient de façon analogue, en exploitant le fait que

56
le ∆-module T est libre, somme directe de sous-modules isomorphes au ∆-module à gauche
régulier.
Soit U un sous-bimodule P non-nul du A-B-bimodule S ⊗∆ T . Soit u un élément non-nul de U .
On peut écrire u = i ei ⊗ t0i avec t0i ∈ T , de façon unique ; cette somme ne comporte qu’un
nombre fini de termes non-nuls. Fixons un indice j tel que t0j 6= 0. Soit k ∈ I et t ∈ T . Le B-
module T étant simple, il existe b ∈ B tel que t = t0j b. Soit f ∈ End∆ (S) défini par : f (ei ) = 0
si i 6= j, f (ej ) = ek . D’après le théorème de densité, il existe a ∈ A tel que aei = f (ei ) pour
tous les indices i ∈ I pour lesquels t0i 6= 0. Alors aub = ek ⊗ t. Ainsi ek ⊗ t ∈ U . Tout élément
de S ⊗∆ T étant somme d’éléments de la forme ek ⊗ t, nous avons donc U = S ⊗∆ T . Ainsi
S ⊗∆ T n’a que deux sous-modules, 0 et lui-même. Cela établit (iii). 

Soient A un anneau, M un A-module complètement réductible et B = EndA (M )op . Alors


M est un A-B-bimodule. Comme les homomorphismes entre modules complètement réduc-
tibles respectent les composantes isotypiques (voir l’exercice (2) du paragraphe 1.3.1), chaque
composante isotypique du A-module M est un sous-A-B-bimodule de M .

1.4.5.2 Proposition. Dans ce contexte, soient S un A-module simple et ∆ = EndA (S)op ;


ainsi T = HomA (S, M ) est un ∆-B-bimodule 11 . Alors le B-module T est soit nul, soit simple,
et l’application d’évaluation (x, f ) 7→ f (x) de S ×T dans M induit un isomorphisme de S ⊗∆ T
sur la composante S-isotypique de M .

Preuve. Soit U un sous-B-module de T différent de 0. Soit f ∈ U un élément non-nul. Alors


f induit un isomorphisme f˜ de S sur l’image de f . Comme M est complètement réductible,
cette dernière admet un supplémentaire dans M : on écrit M = im f ⊕ X. Soit g ∈ T . On
définit un endomorphisme b de M de la façon suivante

g ◦ f˜−1 0
 

M = im f ⊕ X −−−−−−−−−−→ M,

en adoptant une écriture par blocs reflétant la décomposition en somme directe de M . Alors
dans le B-module à droite T , on a f b = b ◦ f = g, ce qui montre que g ∈ U . Ainsi U contient
tous les éléments de T . Nous avons montré que T est un B-module simple.
L’application d’évaluation remplit les conditions pour se factoriser par le produit tensoriel
S ⊗∆ T , puisque l’action de ∆ sur T est donnée par δf = f ◦ δ. On vérifie sans peine que
l’homomorphisme de groupes abéliens ev : S ⊗∆ T → M qui en résulte est un homomorphisme
de A-B-bimodules. Comme le A-module S ⊗∆ T est complètement réductible et isotypique
de type S, l’image de ev est incluse dans la composante S-isotypique de M . Par ailleurs, ev
est injectif car il est non-nul et le A-B-bimodule S ⊗∆ T est simple. Enfin, chaque P élément
y de la composante S-isotypique du A-module M appartient à une somme finieP i∈I Ni de
sous-modules de M isomorphes à S ; écrivant Ni = im fi pour des  fi ∈ T et y = i∈I ni pour
des ni ∈ Ni , disons ni = fi (xi ), on arrive à y = ev i∈I xi ⊗ fi . Cela montre que l’image de
P

ev est la composante S-isotypique de M . 


11. Concrètement, l’action de ∆ et de B sur T est donnée par le produit de composition des applications.

57
Reprenons le contexte présenté avant l’énoncé de la proposition 1.4.5.2. Le théorème de densité
montre que l’on a presque A = EndB (M ). (Plus précisément, l’homomorphisme d’anneaux de
A dans EndB (M ) est presque surjectif ; le théorème de densité ne dit rien sur l’injectivité.)
Ainsi il y a une certaine symétrie entre A et B. La proposition suivante va plus loin, puisqu’elle
dit que M est complètement réductible non seulement en tant que A-module, mais aussi en
tant que B-module. Mieux : les composantes isotypiques de M sont les mêmes, et cela permet
d’établir une bijection entre l’ensemble des classes d’isomorphisme de A-modules simples et
l’ensemble des classes d’isomorphisme de B-modules simples pouvant être réalisées comme
sous-modules de M . Ainsi M met en relation la théorie des A-modules et celle des B-modules.

1.4.5.3 Proposition. Soit M un A-module. Notons B = EndA (M )op , de sorte que M est
un A-B-bimodule. Si M est complètement réductible en tant que A-module, alors :
(i) En tant que B-module ou que A-B-bimodule, M est complètement réductible.
(ii) Les composantes isotypiques du A-module M sont les sous-A-B-bimodules simples de M .
(iii) Pour tout A-module simple S, la composante S-isotypique du A-module M est égale à
la composante HomA (S, M )-isotypique du B-module M .
(iv) La correspondance S 7→ HomA (S, M ) induit une bijection ϕ de l’ensemble des classes
d’isomorphismes de A-modules simples apparaissant dans M sur l’ensemble des classes
d’isomorphisme de B-modules simples apparaissant dans M .

Preuve. ÉcrivonsL la décomposition du A-module M en somme directe de ses composantes


isotypiques M = (S)∈S M(S) , où S est l’ensemble des classes d’isomorphisme de A-modules
simples. Par les deux propositions précédentes, nous savons que M(S) = S ⊗∆ T , avec ∆ =
EndA (S)op et T = HomA (S, M ). Nous savons notamment que T est un B-module simple
et que chaque M(S) est un A-B-bimodule simple et un B-module complètement réductible
isotypique de type T . Cela montre (i), à savoir que M est complètement réductible comme
B-module et comme A-B-bimodule.
Les M(S) ne sont pas isomorphes en tantLque A-modules, donc ne le sont pas en tant que
A-B-bimodules. La décomposition M = (S)∈S M(S) est donc une décomposition du A-B-
bimodule M en somme directe de sous-bimodules simples deux-à-deux non-isomorphes. C’est
donc la décomposition du A-B-bimodule M en ses composantes isotypiques. Nous obtenons
ainsi (ii) : en effet un sous-A-B-bimodule simple de M est inclus dans la composante isotypique
correspondante, et cette dernière étant simple, il y a égalité.
Soit S un A-module simple. La projection sur M(S) parallèlement à la somme des autres
composantes isotypiques du A-module M est un idempotent b ∈ B. Il agit par l’identité
sur T = HomA (S, M ) et agit par zéro sur chaque espace T 0 = HomA (S 0 , M ) correspondant
à un A-module simple S 0 non-isomorphe à S. On voit ainsi que si S 0 n’est pas isomorphe
à S, alors les B-modulesL simples T et T ne sont pas isomorphes. Ainsi les termes de la
0

décomposition M = (S)∈S M(S) sont un B-modules complètement réductibles isotypiques


de types différents : les M(S) sont donc les composantes isotypiques du B-module M , d’où (iii).
Enfin l’assertion (iv) découle de l’assertion (iii). 

58
Exercice. Soit M un module complètement réductible sur un anneau A. On pose B =
EndA (M )op ; ainsi M est un B-module à droite complètement réductible. Soient S un A-
module simple, ∆ = EndA (S)op et T = HomA (S, M ). Ainsi ∆ est un anneau à division, S est
un A-∆-bimodule, T est un ∆-B-bimodule, et la composante S-isotypique de M est isomorphe
à S ⊗∆ T . On suppose que T 6= 0 ; on sait qu’alors T est un B-module à droite simple.
(i) Montrer que S̃ = HomB (T, M ) est un A-module simple. (Indication : procéder comme
dans la preuve de la proposition 1.4.5.2, en faisant appel au théorème de densité pour
justifier de pouvoir échanger les rôles de A et B.)
Chaque s ∈ S définit un homomorphisme de B-modules evs : f 7→ f (s) de T dans M . On en
déduit une application ev : S → S̃.
(ii) Montrer que l’application ev : S → S̃ est un isomorphisme de A-modules.
(iii) Montrer que la structure de ∆-B-bimodule sur T définit un isomorphisme d’anneaux
∆∼ = EndB (T ). (Indication : posons ∆0 = EndB (T ). Comme T est un B-module simple,
∆ est un anneau à division. La structure de ∆-B-bimodule sur T définit un homomor-
0

phisme d’anneaux λ : ∆ → ∆0 . Comme ∆ est un anneau à division, λ est nécessairement


injectif. De même,S̃ est un A-∆0 -bimodule, d’où un homomorphisme injectif d’anneaux
µ : ∆0 → EndA S̃ . L’isomorphisme ev : S → S̃ induit un isomorphisme ∆ ∼ = EndA S̃ ,


lequel n’est autre que µ ◦ λ. On voit ainsi que λ et µ sont des isomorphismes.)

59
2 Théorie élémentaire des anneaux

Introduction

L’objet de la théorie des représentations est l’étude des modules sur un anneau A donné, lequel
est souvent une algèbre sur un corps (voir le chapitre 3). Il s’agit d’obtenir une classification à
isomorphisme près des modules sur un anneau A, voire une description explicite de ceux-ci. En
général, les modules et les anneaux sont soumis à des conditions de finitude afin d’éviter des cas
trop sauvages. Le théorème de Krull-Schmidt permet de se restreindre à l’étude des modules
indécomposables, mais ceci reste encore souvent un problème très délicat. C’est pourquoi on
commence toujours par essayer d’étudier les modules simples le plus précisément possible.
Nous commençons ce chapitre en étudiant le cas des anneaux jouissant de la propriété a priori
favorable que tous leurs modules à gauche sont complètement réductibles. Un tel anneau est dit
semi-simple. Nous présentons plusieurs caractérisations des anneaux semi-simples et prouvons
le théorème de structure de Wedderburn : un anneau semi-simple est le produit d’un nombre
fini d’anneaux de matrices à coefficients dans un anneau à division.
Le cas des anneaux semi-simples est suffisamment bien compris pour qu’on essaie d’y ramener
d’autres situations. Ainsi pour tout anneau A, on définit un idéal bilatère J(A) appelé le radical
de Jacobson (dit parfois de Perlis-Jacobson) de A. Les A-modules complètement réductibles
sont alors automatiquement des modules sur l’anneau A/J(A). Dans le cas où A est un anneau
artinien à gauche (cette condition signifie que le A-module à gauche régulier est artinien),
la réciproque est vraie, et de plus A/J(A) est semi-simple. La connaissance des A-modules
simples est alors équivalente à l’explicitation de la structure de A/J(A).
Un autre phénomène remarquable se produit quand A est artinien à gauche : l’idéal J(A) est
nilpotent, c’est-à-dire qu’il existe un entier positif n tel que tout produit de n éléments de
J(A) est nul. Ce fait, qui paraît anecdotique, permet d’étudier plus en détail les A-modules
projectifs. Plus précisément, il permet de montrer que tout A-module projectif est somme
directe (éventuellement infinie) de A-modules projectifs indécomposables, que tout A-module
projectif indécomposable est isomorphe à un facteur direct du A-module régulier A A, et qu’il y
a une bijection canonique entre les A-modules simples et les A-modules projectifs indécompo-
sables. Des résultats analogues sont vrais concernant les A-modules injectifs. Ces faits invitent
à élucider la structure des A-modules projectifs ou injectifs indécomposables, par exemple à
déterminer leurs multiplicités de Jordan-Hölder.
Tout ceci n’apporte toutefois que peu de renseignements sur les modules indécomposables. Les
méthodes récentes pour aborder cette question (théorie du basculement, carquois d’Auslander-
Reiten, équivalence de catégories dérivées) sont au-delà du niveau de ce cours. Nous nous
bornerons à expliquer la notion de
Q bloc d’un anneau artinien à gauche A. Il s’agit ici d’écrire
A comme un produit d’anneaux i∈I Bi de la façon la plus fine possible. Il y a unicité d’une
telle décomposition
L et le produit est fini. Chaque A-module M se décompose alors en une
somme directe i∈I Mi , où Mi est un Bi -module annulé par les autres blocs Bj de la décom-
position. L’étude des A-modules est ainsi découplée en l’étude des Bi -modules, séparément
pour chaque i ∈ I.

61
2.1 Anneaux simples et semi-simples artiniens

2.1.1 Théorème de Wedderburn-Artin

Rappelons une conséquence de la proposition 1.3.1.3 : un anneau à division ∆ n’a qu’un


seul module simple à isomorphisme près, et tout ∆-module est complètement réductible. Les
anneaux simples artiniens ont eux aussi ces deux propriétés.
Anneau simple : un anneau est dit simple s’il n’est pas réduit à {0} et s’il n’a pas d’idéal
bilatère non-banal.
Anneau artinien : un anneau A est dit artinien à gauche si le A-module à gauche régulier A A
est artinien. Un anneau A est dit artinien à droite si l’anneau Aop est artinien à gauche.
Annulateur d’un module : rappelons que l’annulateur d’un A-module M est l’idéal bilatère
ann M = {a ∈ A | ∀m ∈ M, am = 0}.
Module fidèle : un A-module est dit fidèle si son annulateur est réduit à {0}.

2.1.1.1 Théorème de Wedderburn-Artin. Pour un anneau A, les quatre assertions


suivantes sont équivalentes :
(i) A est un anneau simple, artinien à gauche.
(ii) A est un anneau simple, artinien à droite.
(iii) A est un anneau artinien à gauche et possède un module simple et fidèle.
(iv) Il existe un entier n ≥ 1 et un anneau à division ∆ tels que A soit isomorphe à
Matn (∆).
Si ces assertions sont vraies, alors il y a exactement une classe d’isomorphisme de A-modules
simples. Si S est un A-module simple et si A ∼ = Matn (∆), comme dans l’assertion (iv), alors
∼ op
∆ = EndA (S) et n est la longueur du ∆-module S. Ainsi la classe d’isomorphisme de ∆ et
l’entier n sont entièrement déterminés par A. Enfin, le A-module régulier est complètement
réductible de longueur n.

Preuve. Supposons (i). Soit S un A-module simple (prendre par exemple A = A/m, où m est
un idéal à gauche maximal). L’annulateur de S est un idéal bilatère de A, distinct de A : c’est
donc {0} puisque S est simple. Ainsi S est fidèle et (iii) est vrai.
Supposons (iii). Soit S un A-module simple et fidèle. Soit ∆ = EndA (S)op ; ainsi S est un A-
∆-bimodule. Comme S est un A-module simple, c’est un A-module complètement réductible :
nous pouvons lui appliquer le théorème de densité. Par ailleurs, le lemme de Schur affirme que
∆ est un anneau à division ; la proposition 1.3.1.3 dit alors que S est un ∆-module libre. Soit
donc (ei )i∈I une base du ∆-module S.
Si I était infini, nous pourrions trouver une partie dénombrable dans I, et donc nous pourrions
considérer que I ⊇ N. Pour chaque n ∈ N existerait alors f ∈ End∆ (S) tel que f (e0 ) =
f (e1 ) = · · · = f (en−1 ) = 0 et f (en ) = en . Le théorème de densité nous donnerait alors

62
l’existence d’un élément a ∈ A tel que ae0 = ae1 = · · · = aen−1 = 0 et aen = en . La suite
(Jn )n∈N d’idéaux à gauche dans A définie par

Jn = {a ∈ A | ae0 = ae1 = · · · = aen−1 = 0}

serait alors strictement décroissante, en contradiction avec l’hypothèse que A est artinien à
gauche. Ainsi I est fini.
Nous pouvons supposer que I = {1, . . . , n}. Le lemme de densité nous dit alors que l’homo-
morphisme d’anneaux de A dans End∆ (S) est surjectif. Il est par ailleurs injectif, car son
noyau doit être un idéal bilatère de A, qui est simple. Ainsi A ∼
= End∆ (S) ∼= Matn (∆). (Il
faut ici faire attention que ∆ n’est pas commutatif : l’isomorphisme End∆ (S) ∼ = Matn (∆)
provient de l’isomorphisme S ∼= ∆n de ∆-modules à droite.) Bref (iv) est vrai.
Nous avons vu dans l’exercice (2) du paragraphe 1.1.1 que les idéaux bilatères d’un anneau
Matn (B) étaient de la forme Matn (I), pour I un idéal bilatère de B. Ainsi Matn (∆) est
simple dès que ∆ est un anneau à division. Par ailleurs, le produit matriciel munit S = ∆n , vu
comme l’ensemble des vecteurs colonnes de taille n, d’une structure de module sur l’anneau
Matn (∆). On vérifie directement que S est engendré par n’importe lequel de ses éléments non-
nul, donc qu’il est simple. Regardant une matrice n×n comme la suite de ses vecteurs colonnes,
nous constatons que le Matn (∆)-module à gauche régulier est isomorphe à S n . Comme S est
simple, il est artinien, donc S n est artinien : l’anneau Matn (∆) est donc artinien à gauche.
Un anneau Matn (∆) vérifie donc la condition (i). Nous voyons ainsi que (iv) entraîne (i).
Pour tout anneau B, la transposition des matrices fournit un isomorphisme d’anneaux entre
Matn (B op ) et Matn (B)op . Ainsi un anneau A vérifie la condition (iv) si et seulement si Aop
la vérifie. L’équivalence entre (i) et (iv) précédemment obtenue implique donc l’équivalence
entre (ii) et (iv). Ceci achève la preuve de l’équivalence des quatre assertions.
Supposons que A vérifie les quatre assertions. Soit I un idéal à gauche minimal de A et S un
A-module à gauche simple. L’annulateur de S est un idéal bilatère de A différent de A, c’est
donc {0}. Ainsi I n’annule pas S : il existe x ∈ S tel que l’homomorphisme a 7→ ax de I dans
S soit non-nul. D’après le lemme de Schur, c’est un isomorphisme. Ainsi S est nécessairement
isomorphe à I : il n’y a qu’une seule classe d’isomorphisme de A-module simple.
Si A = Matn (∆), comme dans l’assertion (iv), alors le A-module simple est S = ∆n , vu comme
ensemble de vecteurs colonnes. L’anneau EndA (S)op est alors ∆, agissant par multiplication
à droite coordonnée par coordonnée. L’anneau à division ∆ et l’entier positif n apparaissant
dans (iv) sont donc uniques, à isomorphisme près pour le premier. Enfin, le A-module régulier
est isomorphe à S n , l’isomorphisme consistant à voir une matrice n × n comme la suite de ses
n vecteurs colonnes. Le A-module régulier est donc complètement réductible de longueur n.


Un anneau A vérifiant les quatre assertions de la proposition ci-dessus est appelé anneau
simple artinien (il n’est pas besoin de préciser à gauche ou à droite).

63
Exercices.
(1) Soit A un anneau. Montrer que l’application f 7→ f (1) est un isomorphisme de l’anneau
des endomorphismes du A-bimodule régulier sur le centre Z(A) de A. En déduire que
le centre d’un anneau simple est un corps. (Indication : si f est un endomorphisme du
bimodule régulier, alors af (1) = f (a1) = f (a) = f (1a) = f (1)a pour chaque a ∈ A
et donc f (1) ∈ Z(A). Dans l’autre sens, si b ∈ Z(A), alors l’application a 7→ ab est
un endomorphisme du A-bimodule régulier. On vérifie que ces deux applications sont
des bijections réciproques et que ce sont des homomorphismes d’anneaux. La dernière
question de l’exercice est alors conséquence du lemme de Schur 1.2.4.2.)
(2) Soit ∆ un anneau à division et n ≥ 1 un entier. Montrer que les automorphismes de
Matn (∆) sont les applications A 7→ Sσ(A)S −1 , où σ ∈ Aut(∆) et S ∈ Matn (∆) avec
S inversible.

2.1.2 Anneaux semi-simples artiniens

Le théorème suivant inclut comme cas particulier le fait que tout module sur un anneau simple
artinien est complètement réductible.

2.1.2.1 Théorème. Les propriétés suivantes concernant un anneau A sont équivalentes :


(i) Le A-module régulier A A est complètement réductible.
(ii) Tout A-module est complètement réductible.
(iii) A est un anneau artinien à gauche et possède un module complètement réductible et
fidèle.
(iv) A est produit fini d’anneaux simples artiniens.

Preuve. Supposons (i). Soit M un A-module. Étant donné m ∈ M , le sous-module Am engen-


dré par m est l’image de l’homomorphisme a 7→ am de A A dans M . Isomorphe à un quotient
du module complètement réductible A A, le module Am est lui-même complètement réduc-
tible, donc est inclus dans le socle de M . Ceci étant vrai pour tout m ∈ M , nous voyons que
M = soc M , donc que M est complètement réductible. Cela montre (ii). La réciproque (ii) ⇒
(i) est banale.
Supposons (i). D’après l’exercice (1) du paragraphe 1.2.1 et la remarque 1.3.1.2, le A-module à
gauche régulier est artinien. L’anneau A est donc artinien à gauche. Par ailleurs, le A-module
à gauche régulier est un A-module complètement réductible et fidèle. Ainsi (iii) est vraie.
Réciproquement, supposons (iii), c’est-à-dire supposons l’existence d’un A-module M fidèle
et complètement réductible. Pour m ∈ M , posons Im = {a ∈ A | am = 0}. Soit I l’ensemble
des idéaux à gauche de A de la forme Im1 ∩ · · · ∩ Imn , pour n ∈ N et (m1 , . . . , mn ) ∈ M n .
Comme A est artinien à gauche, I possède un élément minimal, disons J. Pour chaque
m ∈T M , J ∩ Im appartient à I et est inclus dans J, d’où J ⊆ Im par minimalité de J. Ainsi
J ⊆ m∈M Im = ann M = {0}. Écrivant J = Im1 ∩· · ·∩Imn , ceci signifie que l’homomorphisme
a 7→ (am1 , . . . , amn ) de A A dans M n est injectif. Ainsi le A-module à gauche régulier est réalisé

64
comme un sous-module d’un module complètement réductible. D’après la proposition 1.3.1.4,
cela entraîne (i).
Supposons à nouveau (i). L’opposé EndA (A A)op de l’anneau des endomorphismes du A-module
à gauche régulier est isomorphe à A, agissant sur A A par multiplication à droite. D’après le
corollaire 1.4.5.3, chaque composante S-isotypique du A-module à gauche régulier est L
un sous-
bimodule simple du A-A-bimodule régulier A. Simplifions la notation en écrivant A = i∈I Bi
pour la décomposition du A-module à gauche régulier en somme directe de ses composantes
isotypiques. Ici les Bi sont des idéaux bilatères minimaux non-nuls et la somme est finie (à
nouveau on utilise l’exercice (1) du paragraphe 1.2.1).
Si i 6= j, alors le produit d’un élément de B
Li par un élément de Bj est nul, car il appartient à
Bi ∩ Bj = 0. Dans la décomposition A = i∈I Bi , le produit s’effectue donc composante P par
composante. Décomposons l’unité multiplicative de A dans cette somme directe : 1 = i∈I εi .
Fixons i ∈ I. Alors pour chaque x ∈ Bi , on a xεj = εj x = 0 pour tout j 6= i, et par différence
avec x1 = 1x = x, on arrive à εi x = xεi = x. Nous concluons que Bi est un anneau, de
neutre multiplicatif εi . La décomposition de A A en ses composantes isotypiques est ainsi un
isomorphisme d’anneaux A = i∈I Bi (le produit se fait composante par composante puisque
Q
le produit d’un élément de Bi par un élément de Bj est nul dès que i 6= j).
Chaque anneau Bi est P simple : soit I un idéal bilatère de Bi ; puisque Bj I = IBj = 0 pour tout
j 6= i, l’égalité A = j∈I Bj montre que I est un idéal bilatère de A ; la minimalité de l’idéal
bilatère Bi entraîne alors que I = 0 ou I = Bi . Par ailleurs (iii) est vraie, donc le A-module à
gauche régulier A A est artinien.Q Chaque sous-module Bi de A A est donc artinien. Compte-tenu
de la structure de produit A = i∈I Bi , cela signifie que pour chaque i, le Bi -module à gauche
régulier est artinien. Ainsi chaque anneau Bi est simple artinien. Cela montre (iv).
Il nous reste à établir que (iv) entraîne (i). Supposons (iv). On écrit A = i∈I , où I est un
Q
ensemble L fini et où chaque Bi est un anneau simple artinien. Ainsi on a une décomposition
AA = i∈I Bi , où chaque Bi peut être vu comme un module sur lui-même ou sur A. Pour
chaque i ∈ I, le Bi -module à gauche régulier est complètement réductible d’après le théo-
rème 2.1.1.1. Alors Bi est encore un module complètement réductible quand on le regarde
comme un A-module. En tant que somme directe de modules complètement réductibles, A A
est complètement réductible. L’assertion (i) est vraie. 

Un anneau A vérifiant les quatre assertions du théorème 2.1.2.1 est appelé anneau semi-simple
artinien. Au vu de l’assertion (iv), A est semi-simple artinien si et seulement si Aop l’est, ce
qui rend inutile toute précision du genre anneau semi-simple artinien à gauche.
Notons enfin que la preuve du théorème 2.1.2.1 montre que quand on écrit un anneau semi-
simple artinien comme un produit i∈I Bi d’anneaux simples artiniens, les Bi sont les idéaux
Q
bilatères minimaux de A ; ils sont donc uniques à réindexation près. Les Bi sont aussi les com-
posantes isotypiques du A-module à gauche régulier. On les appelle les composantes simples
ou composantes de Wedderburn de A.

2.1.2.2 Proposition. Sur un anneau semi-simple artinien A, les classes d’isomorphisme


de modules simples sont en bijection canonique avec les composantes simples de l’anneau. Plus
précisément :

65
(i) Tout A-module simple est isomorphe à un idéal à gauche minimal de A.
(ii) Tout idéal à gauche minimal de A est inclus dans une composante simple de A.
(iii) Deux idéaux à gauche minimaux de A sont isomorphes en tant que A-modules si et
seulement s’ils sont inclus dans la même composante simple de A.

Preuve. Soit S un A-module simple. Choisissant x ∈ S non-nul, on construit un homomor-


phisme surjectif f : a 7→ ax du A-module à gauche régulier sur S. Soit L un supplémentaire
du noyau de f dans A A. Alors f induit un isomorphisme de L sur S ; de plus, L est un
sous-module simple de A A, c’est-à-dire un idéal à gauche minimal de A. Tout ceci prouve (i).
Les assertions (ii) et (iii) viennent ensuite de ce que les composantes simples de A sont les
composantes isotypiques du A-module à gauche régulier. 

2.1.2.3 Proposition. Tout quotient d’un anneau semi-simple artinien est un anneauQ semi-
simple artinien. Plus précisément, soient A un anneau semi-simple artinien et A = i∈I Bi
L décomposition en composantes simples ; alors chaque idéal bilatère de A est une somme
sa
i∈J Bi , où J est une partie de I.

Preuve. Soit A = i∈I Bi la décomposition en composantes simples d’un anneau semi-simple


L
artinien. Ainsi A est un A-A-bimodule complètement réductible, les Bi sont les composantes
isotypiques de A, et ce sont des sous-bimodules simples. Soit K un idéal bilatère de A,
autrement dit un sous-bimodule. Alors K est complètement réductible, en tant que A-A-
bimodule. Il est donc somme de ses composantes isotypiques, lesquelles sont les intersections
de K L avec les composantes isotypiques de A (voir l’exercice (1) du paragraphe 1.3.1). Ainsi
K = i∈I (K L ∩ Bi ). Comme les A-A-bimodules Bi sont simples, K ∩ Bi est soit 0, soit Bi .
Ainsi K = i∈J Bj , pour une partie J ⊆ I. Le quotient A/K est alors isomorphe au produit
des Bi pour i ∈/ J ; il est donc semi-simple artinien. 

2.1.2.4 Remarque. Soit A = i∈I Bi la décomposition en composantes simples d’un anneau


Q
semi-simple artinien. Pour chaque i ∈ I, choisissons un idéal à gauche minimal Si de la compo-
sante Bi . Alors la famille (Si )i∈I contient un représentant de chaque classe d’isomorphisme de
A-module simple. Si j 6= i, alors Bj annule Si , puisque le produit Bj Bi est réduit à {0} dans
A. L’annulateur de Si contient donc j6=i Bj , et lui est donc égal. Ainsi Si est le Bi -module
L
simple que l’on voit comme un A-module à travers l’homomorphisme d’anneaux de A sur
∼ ∼
j6=i Bj . Le théorème de Wedderburn-Artin nous dit alors que Bi = Matni (∆i ),
L
Bi = A
où ∆i = EndA (Si ) et ni est la longueur du ∆i -module Si .
op

2.2 Radical de Jacobson

2.2.1 Définition du radical de Jacobson

2.2.1.1 Proposition. Soit A un anneau. L’ensemble des idéaux bilatères inclus dans
1 − A× = {a ∈ A | 1 − a est inversible}
possède un plus grand élément pour l’inclusion.

66
Preuve. Soit I l’ensemble des idéaux bilatères I inclus dans 1 − A× . L’idéal {0} appartient
à I . Commençons par montrer que I est stable par somme.
À cet effet, prenons deux éléments I et J de I et montrons que I + J est dans I . Un élément
a de I + J s’écrit b + c, avec b ∈ I et c ∈ J. Comme I ⊆ 1 − A× , l’élement 1 − b est inversible.
Comme J est un idéal, (1−b)−1 c appartient à J ; et puisque J ⊆ 1−A× , l’élement 1−(1−b)−1 c
est inversible. Ainsi 1 − a = (1 − b)(1 − (1 − b)−1 c) est inversible.
Notons J la somme de tous les éléments de I . C’est un idéal de A. Ensuite, chaque élément a
de J appartient en fait à une somme finie I1 + · · · + In d’idéaux appartenant à I , et puisque
I1 + · · · + In appartient lui-même à I , l’élément 1 − a est inversible. Cela montre que J ∈ I .
Ainsi I a un plus grand élément, à savoir J. 

Radical de Jacobson d’un anneau : le radical de Jacobson d’un anneau A est le plus grand des
idéaux I tels que 1 − a soit inversible pour chaque a ∈ I. On le note J(A). Il est manifeste
que J(Aop ) = J(A).
Traditionnellement, on définit J(A) au moyen de la caractérisation concrète suivante.

2.2.1.2 Proposition. Pour tout anneau A,


J(A) = {x ∈ A | ∀a ∈ A, 1 − ax a un inverse à gauche}.

Preuve. Appelons I le membre de droite de l’égalité ci-dessus. Il est clairement stable par
multiplication à gauche par les éléments de A : (b, x) ∈ A × I ⇒ bx ∈ I.
Soit (b, x) ∈ A × I. Pour tout a ∈ A, l’élément 1 − bax admet un inverse à gauche dans A,
disons c ; de l’égalité c(1 − bax) = 1 vient alors
(1 + axcb)(1 − axb) = 1 − ax(1 − c + cbax)b = 1,
et donc 1 − axb admet un inverse à gauche. On voit ainsi que xb ∈ I. Bref I est stable par
multiplication à droite par les éléments de A.
Soit (x, y) ∈ I 2 . Pour tout a ∈ A, l’élément 1 − ax admet un inverse à gauche, disons b, et
puisque yb ∈ I, l’élément 1−ayb admet un inverse à gauche, disons c ; des égalités b(1−ax) = 1
et c(1 − ayb) = 1 vient alors
bc(1 − a(x + y)) = bc(1 − ayb)(1 − ax) = b(1 − ax) = 1,
et donc 1 − a(x + y) admet un inverse à gauche. On voit ainsi que x + y ∈ I. Bref I est stable
par addition.
Les deux alinéas précédents établissent que I est un idéal bilatère. Soit x ∈ I. Alors 1 − x
admet un inverse à gauche, disons a, et 1+ax admet un inverse à gauche, disons b. Des égalités
a(1 − x) = 1 et b(1 + ax) = 1, on déduit que ba = 1 puis que
(1 − x)a = ba(1 − x)a = b(a(1 − x))a = ba = 1
et donc 1 − x est inversible. Ainsi I est un idéal bilatère inclus dans 1 − A× ; par conséquent
I ⊂ J(A).
L’inclusion opposée étant évidente, l’égalité annoncée a lieu. 

67
Voyons à présent le lien entre le radical de Jacobson d’un anneau A et les A-modules.
Module régulier (rappels) : le A-module régulier A A est le groupe abélien (A, +), muni de
l’opération à gauche de A par multiplication. Les sous-modules de A A sont les idéaux à gauche
de l’anneau A. Un endomorphisme de A A est de la forme a 7→ ab, où b ∈ A.
La première assertion du théorème suivant montre que J(A) est le radical du A-module ré-
gulier : J(A) = rad A A. Puisque A et Aop ont même radical de Jacobson, J(A) est aussi le
radical du A-module à droite régulier : J(A) = rad AA .
Rappelons que l’annulateur d’un A-module M est le noyau de l’homomorphisme d’anneaux
de A dans EndZ (M ) définissant la structure de A-module.

2.2.1.3 Théorème. Soit A un anneau.


(i) J(A) coïncide avec les deux ensembles suivants :
— le radical rad A A du A-module à gauche régulier, c’est-à-dire l’intersection des idéaux
à gauche maximaux de A ;
— l’intersection des idéaux annulateurs des A-modules simples.
(ii) Si M est un A-module, alors J(A)M ⊆ rad M .
(iii) (Lemme de Nakayama) Soit M est un A-module de type fini. Si J(A)M = M , alors
M = 0.

Preuve. Soit z ∈ A. Si z ∈/ rad A A, alors il existe un idéal à gauche maximal m tel que z ∈
/ m.
Alors z + m engendre le A-module simple A/m, donc il existe a ∈ A tel que 1 − az ∈ m. Cela
interdit 1 − az inversible à gauche, et ainsi z ∈ / J(A). Réciproquement si z ∈/ J(A), alors il
existe a ∈ A tel que 1 − az n’est pas inversible à gauche. L’idéal à gauche A(1 − az) est alors
propre, donc contenu dans un idéal à gauche maximal m. Alors 1 − az ∈ m, d’où z ∈ / m, puis
z∈/ rad A A. Ces raisonnements prouvent l’égalité J(A) = rad A A.
Notons r l’intersection des annulateurs des A-modules simples. Chaque idéal à gauche maximal
m contient l’annulateur d’un A-module simple S (prendre S = A/m), donc contient r. On en
déduit rad A A ⊇ r. Soit S un A-module simple. Chaque élément non-nul x de S détermine un
homomorphisme surjectif a 7→ ax du A-module régulier A A sur S. Comme S est simple, le
noyau mx de cet homomorphisme est un idéal à gauche maximal. On voit ainsi que l’annulateur
de S, qui est l’intersection des mx pour x ∈ S \ {0}, contient rad A A. Le radical rad A A est
donc inclus dans l’annulateur de n’importe quel A-module simple, c’est-à-dire rad A A ⊂ r.
L’égalité r = rad A A a donc bien lieu, ce qui conclut la preuve de (i).
Soit M un A-module. Pour chaque sous-module maximal L ⊆ M , le A-module M/L est
simple, donc est annulé par J(A). Ainsi J(A)M ⊆ L. Le sous-module J(A)M est donc inclus
dans tous les sous-modules maximaux de M , d’où (ii).
Enfin soit M un A-module de type fini tel que J(A)M = M . L’assertion (ii) implique alors
que rad M = M . D’après la proposition 1.3.3.2 (i), cela entraîne que M = 0. Nous avons
démontré (iii). 

68
Remarque. Un idéal d’un anneau A est dit primitif s’il est l’annulateur d’un A-module simple ;
quand A est commutatif, un idéal est primitif si et seulement s’il est maximal. La proposition
précédente entraîne que J(A) est l’intersection des idéaux primitifs de A.
Les premières définitions du radical d’un anneau A étaient limitées au cas d’un anneau ar-
tinien ; quand A est artinien à gauche ou à droite, J(A) est le plus grand idéal nilpotent.
L’apport de Jacobson fut de trouver la définition adaptée au cas général : il a compris qu’un
anneau A s’étudiait avec ses modules, et a défini le radical de A comme l’intersection des
idéaux primitifs de A. L’inconvénient de cette définition est que l’égalité J(A) = J(Aop ) n’est
pas évidente : la notion d’idéal primitif n’est pas stable par passage à l’anneau opposé.
Enfin, de nombreux auteurs définissent J(A) comme étant le radical du A-module à gauche
régulier. Avec cette approche, l’égalité J(A) = J(Aop ) ne coule pas de source : elle exprime
que les radicaux des A-modules réguliers, à gauche et à droite, sont égaux. Notons en revanche
qu’en l’absence d’hypothèse sur l’anneau A, les socles des A-modules réguliers, à gauche et à
droite, sont généralement différents.

2.2.1.4 Corollaire. Soit A un anneau. Regarder un A/J(A)-module comme un A-module


fournit une bijection de l’ensemble des classes d’isomorphisme de A/J(A)-modules simples sur
l’ensemble des classes d’isomorphisme de A-modules simples.

Preuve. Soit I un idéal bilatère de A. Un A/I-module M peut-être vu comme un A-module


en composant l’homomorphisme d’anneaux de A/I dans EndZ (M ) avec l’épimorphisme ca-
nonique de A sur A/I. Les sous-modules de M sont les mêmes qu’on regarde M comme un
module sur A ou sur A/I ; ainsi M est simple en tant que A-module si et seulement s’il l’est en
tant que A/I-module. Si N est un second A/I-module, alors les groupes d’homomorphismes
entre M et N sont les mêmes que l’on regarde M et N comme des modules sur A ou sur
A/I ; ainsi M et N sont isomorphes en tant que A-modules si et seulement s’ils le sont en tant
que A/I-modules. Enfin, un A-module provient par cette construction d’un A/I-module si et
seulement si I ⊆ ann M .
Le corollaire provient de toutes ces remarques et du fait que J(A) est contenu dans l’annulateur
de chaque A-module simple. 

Exercices.
(1) Soit A un anneau. Montrer que tout idéal bilatère maximal de A contient J(A).
(2) Soit A un anneau. Montrer qu’un élément x ∈ A est inversible si et seulement si x+J(A)
est inversible dans A/J(A).
(3) On dit qu’un idéal I d’un anneau A est nilpotent s’il existe un entier naturel n tel
que I n = {0} ; autrement dit, si le produit de n éléments de I (pas nécessairement
distincts) est toujours nul. Montrer que tout idéal bilatère nilpotent I de A est inclus
dans le radical de Jacobson J(A). (Indication : I est inclus dans 1 − A× , car pour
chaque x ∈ I, 1 − x est inversible, d’inverse 1 + x + x2 + · · · .)
(4) Soit A un anneau. Montrer l’existence d’un A-module complètement réductible d’an-
nulateur J(A).

69
(5) Soit e un idempotent d’un anneau A ; ainsi eAe est un anneau de neutre multiplicatif e.
Montrer que J(eAe) = eJ(A)e. (Indication : un élément x ∈ eJ(A)e vérifie x = exe
et x ∈ J(A) ; 1 − x possède donc un inverse dans A, disons y, et on vérifie que eye
est un inverse de e − x dans eAe. Ainsi eJ(A)e est un idéal bilatère de eAe contenu
dans e − (eAe)× , d’où eJ(A)e ⊆ J(eAe). Dans l’autre sens, soit z ∈ J(eAe). Prenons
a ∈ A. Alors eaz = eaez ∈ J(eAe), donc e − eaz possède un inverse à gauche y dans
eAe, c’est-à-dire y = ye et ye(1 − az) = e. On calcule ensuite (1 − e + y)(1 − az) =
(1 − e + ye)(1 − az) = (1 − e)(1 − az) + e = 1 − t, avec t = (1 − e)az. Maintenant z ∈ eAe
entraîne t2 = 0, et donc 1 − t est inversible. Il s’ensuit que 1 − az possède un inverse
à gauche dans A. Ceci étant vrai pour tout a ∈ A, on a z ∈ J(A). Ce raisonnement
montre l’inclusion J(eAe) ⊆ J(A) ∩ eAe = eJ(A)e.)
(6) Montrer l’égalité Matn (J(A)) = J(Matn (A)) pour tout anneau A et tout entier n ≥ 1.
(7) Soient A un anneau et I un idéal bilatère de A inclus dans le radical de Jacobson J(A).
Montrer que le radical de Jacobson de A/I est J(A)/I.
(8) On définit le socle à gauche d’un anneau A comme étant le socle soc A A du A-module
régulier. De même, on définit le socle à droite de A comme étant le socle soc AA du
module à droite régulier ; ainsi le socle à droite de A est le socle à gauche de Aop .
Montrer que ces socles sont des idéaux bilatères de A.

2.2.2 Cas d’un anneau artinien

2.2.2.1 Théorème. Soit A un anneau artinien à gauche ou à droite.


(i) A est un anneau semi-simple si et seulement si J(A) = {0}.
(ii) L’anneau A/J(A) est semi-simple artinien.

Preuve. Quitte à remplacer A par Aop , nous pouvons supposer que A est artinien à gauche.
(i) Le A-module à gauche régulier est artinien. D’après la proposition 1.3.3.2 (iii), il est com-
plètement réductible si et seulement si son radical est réduit à 0. Or ce radical est J(A),
d’après le théorème 2.2.1.3.
(ii) Le quotient B = A/J(A) du A-module à gauche régulier est ce que nous avions appelé la
tête de A A au paragraphe 1.3.3. D’après la propriété 1.3.3.1 (i), le radical de B est {0}. En
tant que quotient d’un module artinien, B est un A-module artinien. Il est donc complètement
réductible d’après la proposition 1.3.3.2 (iii). Maintenant, B est en fait un anneau, et sa
structure de A-module à gauche s’identifie à sa structure de B-module à gauche régulier à
travers l’homomorphisme d’anneaux de A sur B. On voit ainsi que le B-module à gauche
régulier est complètement réductible, c’est-à-dire que B est un anneau semi-simple artinien.
On peut formuler l’argument prouvant (ii) d’une manière un peu différente. D’abord, A/J(A)
est un anneau artinien à gauche, parce que c’est un quotient de l’anneau artinien à gauche A.
Ensuite, le radical de Jacobson de A/J(A) est {0}, d’après l’exercice (7) ci-dessus. On peut
ainsi utiliser (i). 

70
2.2.2.2 Corollaire. Soit A un anneau artinien à gauche ou à droite.
(i) Un A-module M est complètement réductible si et seulement si J(A)M = 0.
(ii) Pour tout A-module M , on a les égalités

rad M = J(A)M et soc M = {x ∈ M | J(A)x = 0}.

(iii) Un A-module M est complètement réductible si et seulement si son radical est 0. En


particulier, la tête d’un A-module est toujours complètement réductible.

Preuve. L’annulateur d’un A-module simple contient J(A), donc J(A) annule tout A-module
simple. Il s’ensuit que J(A) annule tout A-module complètement réductible. Dans l’autre sens,
si l’annulateur d’un A-module M contient J(A), alors M peut être vu comme un A/J(A)-
module. Or tout A/J(A)-module est complètement réductible, puisque l’anneau A/J(A) est
semi-simple artinien. Ainsi M est somme de ses sous-modules simples, et ceci est vrai qu’on
regarde M comme un module sur A/J(A) ou sur A. Nous avons prouvé (i).
Soit M un A-module. L’assertion (i) nous dit que M/J(A)M est un A-module complètement
réductible. Son radical est donc nul, ce qui implique que rad M ⊆ J(A)M . Compte-tenu du
théorème 2.2.1.3 (ii), cette inclusion est une égalité. Par ailleurs, le socle de M est le plus grand
sous-module complètement réductible de M . Vu l’assertion (i), le socle de M est le plus grand
sous-module de M annulé par J(A). Cela montre l’égalité soc M = {x ∈ M | J(A)x = 0}.
Nous avons donc prouvé (ii).
L’assertion (iii) est une conséquence immédiate de (i) et (ii). 

On définit le produit de deux idéaux bilatères I et J d’un anneau A par

IJ = {a1 b1 + · · · + ak bk | k ∈ N, (ai , bi ) ∈ (I × J)k } ;

c’est un idéal bilatère de I. On définit alors la puissance n-ième I n comme étant le produit
itéré de I avec lui-même, n fois.
Idéal nilpotent : un idéal I d’un anneau A est dit nilpotent s’il existe un entier naturel n tel
que I n = {0}, autrement dit, tel que le produit de n éléments de I est toujours nul.
L’exercice (3) du paragraphe précédent nous dit que tout idéal bilatère nilpotent d’un anneau
A est inclus dans le radical de Jacobson J(A). Le (i) du théorème ci-dessous affirme que la
réciproque est vraie quand A est artinien à gauche ou à droite ; dans ce cas, J(A) est le plus
grand idéal nilpotent de A.

2.2.2.3 Théorème. Soit A un anneau artinien à gauche.


(i) L’idéal J(A) est nilpotent.
(ii) (Théorème de Hopkins) L’anneau A est noethérien à gauche.

Preuve. (i) Nous avons J(A) ⊇ J(A)2 ⊇ J(A)3 ⊇ · · · , et comme A est artinien, il existe un
entier naturel n tel que J(A)n = J(A)n+1 . Supposons que J(A)n 6= 0. Alors il existe un idéal

71
à gauche I, minimal parmi les idéaux tels que J(A)n I 6= 0. Soit x ∈ I tel que J(A)n x 6= 0.
Alors J(A)x est un idéal à gauche inclus dans I et J(A)n (J(A)x) = J(A)n+1 x = J(A)n x 6= 0,
donc I = J(A)x par minimalité de I. Ainsi il existe z ∈ J(A) tel que x = zx. Puisque 1 − z
est inversible, cela entraîne x = 0, ce qui est absurde.
(ii) On munit le A-module régulier A A de la filtration décroissante finie Mn = J(A)n . Le
n-ième facteur de la filtration Mn /Mn+1 est annulé par J(A). D’après le corollaire 2.2.2.2 (i),
il est complètement réductible. Or il est artinien, donc il est noethérien (remarque 1.3.1.2).
Utilisant de façon répétée la proposition 1.2.1.2 (ii), on en déduit que le A-module régulier est
noethérien. 

Remarque. Bien évidemment, la conclusion de l’énoncé (i) est également valide si l’anneau
A est supposé artinien à droite. Notons cependant qu’il existe des anneaux artiniens (et donc
noethériens) à gauche, qui ne sont pas noethériens
  (et donc pas artiniens) à droite. Un exemple
a b
est l’anneau des matrices de la forme avec a, b ∈ R et c ∈ Q ; voir [1], p. 130.
0 c

2.2.2.4 Corollaire. Soit A un anneau artinien à gauche. Alors tout A-module de type fini
est artinien et noethérien.

Preuve. C’est une conséquence immédiate du théorème de Hopkins ci-dessus et des proposi-
tions 1.2.1.2 et 1.2.1.3. 

Rappelons qu’on dit qu’un sous-module N d’un module M est superflu si pour tout sous-
module X ( M , on a N + X ( M , et qu’on dit que N est essentiel si pour tout sous-module
X 6= 0, on a N ∩ X 6= 0.

2.2.2.5 Corollaire. Soit A un anneau artinien à gauche ou à droite.


(i) Soit M un A-module. Les trois propriétés suivantes sont équivalentes : M = rad M ,
soc M = 0, M = 0.
(ii) Soit M un A-module et N ⊆ M un sous-module. Alors N est superflu si et seulement
s’il est inclus dans rad M .
(iii) Soit M un A-module et N ⊆ M un sous-module. Alors N est essentiel si et seulement
s’il contient soc M .

Preuve. Soit M un A-module. Nous allons montrer les deux implications

M 6= 0 ⇒ soc M 6= 0 et M = rad M ⇒ M = 0.

Notons J = J(A) ; c’est un idéal nilpotent d’après le théorème 2.2.2.3 (i). Supposons M 6= 0.
Alors il existe n tel que J n M 6= 0 et J n+1 M = 0. D’après le corollaire 2.2.2.2 (i), on a alors
J n M ⊆ soc M , ce qui assure soc M 6= 0. Supposons maintenant M = rad M . Le corollaire
2.2.2.2 (ii) nous dit alors que M = JM . De là, M = JM = J 2 M = J 3 M = · · · , et la

72
nilpotence de J conduit à M = 0. Nos deux implications sont établies, et elles démontrent
l’assertion (i).
Soit N un sous-module d’un A-module M . Supposons que N soit inclus dans rad M . Soit X
un sous-module de M tel que X ( M . Alors M/X 6= 0, et (i) nous dit qu’alors M/X 6=
rad(M/X). Cela entraîne X + rad M ( M . À fortiori, X + N ( M . Nous avons ainsi montré
que N était superflu. L’assertion (ii) découle maintenant de la proposition 1.3.4.1.
Soit N un sous-module d’un A-module M . Supposons que N contienne soc M . Soit X un sous-
module non-nul de M . Des inclusions N ⊇ soc M ⊇ soc X, nous déduisons que N ∩X ⊇ soc X.
Mais d’après l’assertion (i), le fait que X soit non-nul implique que soc X 6= 0, d’où N ∩X 6= 0.
Nous avons ainsi montré que N était essentiel. L’assertion (iii) découle maintenant de la
proposition 1.3.4.1. 

Exercices.
(1) Soit A un anneau artinien à gauche, e ∈ A un élément idempotent. Montrer que l’anneau
eAe est artinien à gauche.
(2) Soit A un anneau artinien à gauche, soient m et n deux entiers naturels. Montrer que
si les A-modules à gauche Am et An sont isomorphes, alors m = n.
(3) Soit A un anneau artinien à gauche ou à droite. Alors le nombre de classes d’iso-
morphisme de A-modules à gauche simples est fini et égal au nombre de composantes
simples de l’anneau semi-simple artinien A/J(A). Montrer que c’est aussi le nombre de
classes d’isomorphisme de A-modules à droite simples. (Note : une famille de A-modules
simples (S1 , . . . , Sk ) est dite basique si elle comporte un et un seul représentant de
chaque classe d’isomorphisme de A-modules simples.)
(4) Soit A un anneau artinien
L à gauche ou à droite et soit (Mλ )λ∈Λ une L famille de A-
modules. L
Posons M = λ∈Λ Mλ . Montrer les égalités rad M = λ∈Λ rad Mλ et
soc M = λ∈Λ soc Mλ . (Indication : utiliser le corollaire 2.2.2.2 (ii).)
(5) Soit A un anneau artinien à gauche ou à droite et soit M un A-module. On appelle
longueur de Loewy de M le plus petit entier naturel ` pour lequel il existe une filtration
finie 0 = M0 ⊆ M1 ⊆ · · · ⊆ M`−1 ⊆ M` = M de M dont tous les quotients successifs
Mn /Mn−1 sont complètement réductibles. Montrer que la longueur de Loewy de M est
bien définie et est le plus petit entier naturel ` tel que J(A)` M = 0.
(6) Soit A un anneau commutatif. L’ensemble des p éléments nilpotents dep A est un idéal,
qu’on appelle le nilradical de A et qu’on note (0) (on sait même que (0) est l’inter-
section des idéaux premiers de A). Montrer que si A est artinien, alors J(A) = (0).
p

(7) Soit A un anneau commutatif intègre principal, soit a ∈ A non-nul. Calculer le radical de
Jacobson de l’anneau A/(a). Montrer que A/(a) est semi-simple artinien si et seulement
si a est sans facteur carré (c’est-à-dire n’est pas divisible par le carré d’un élément
irréductible). Retrouver le résultat de l’exercice (3) du paragraphe 1.3.1.

73
2.3 Quelques résultats concernant les modules projectifs et injectifs

2.3.1 Cas d’un anneau local

Rappel : un anneau A est dit local si l’ensemble des éléments non-inversibles de A est un idéal
de A.

2.3.1.1 Proposition. Étant donné un anneau A, les quatre assertions suivantes sont équi-
valentes :
(i) A est local.
(ii) J(A) est l’ensemble des éléments non-inversibles de A.
(iii) A/J(A) est un anneau à division.
(iv) A 6= {0} et pour chaque x ∈ A, x ou 1 − x est inversible.
(v) A possède exactement un idéal à gauche maximal.

Preuve. Nous allons montrer les implications (i) ⇒ (iv) ⇒ (ii) et (ii) ⇒ (v) ⇒ (iii) ⇒ (ii).
Cela établira notre proposition, car visiblement (ii) entraîne (i).
Supposons (i). Alors I = A \ A× est un idéal de A. Soit x ∈ A. Alors x ou 1 − x ne peuvent
appartenir tous deux à I, car leur somme n’appartient pas à I. Donc soit x, soit 1 − x est
inversible. L’assertion (iv) est donc vraie.
Supposons (iv). Soit x un élément de A n’appartenant pas à J(A). Alors il existe a ∈ A tel
que 1 − ax ne soit pas inversible à gauche. Il s’ensuit que ax est inversible, d’où b ∈ A tel
que bax = 1. Ainsi x est inversible à gauche. De même, x est inversible à droite, et donc
inversible tout court. Ainsi J(A) contient l’ensemble A \ A× des éléments non-inversibles de
A. L’inclusion opposée étant évidente (A est supposé non-nul), cela entraîne que (ii) est vraie.
Supposons (ii). L’élément 0 appartient à J(A) donc n’est pas inversible, donc A 6= {0}, donc
A possède au moins un idéal à gauche maximal. Soit m un idéal à gauche maximal. Chaque
élément de m est non-inversible à gauche, donc est non-inversible tout court, donc appartient
à J(A) ; ainsi m ⊆ J(A). Le théorème 2.2.1.3 (i) permet de conclure à l’égalité m = J(A),
assurant l’unicité affirmée dans (v).
Supposons (v). Le théorème 2.2.1.3 (i) entraîne que J(A) est l’unique idéal maximal à gauche
de A. L’anneau quotient B = A/J(A) possède alors exactement deux idéaux à gauche, à savoir
{0} et A. Ainsi le B-module régulier à gauche B B est simple, donc son anneau d’endomor-
phisme B op est un anneau à division (lemme de Schur), et l’énoncé (iii) est satisfait.
Supposons (iii). Soit x un élément de A n’appartenant pas à J(A). L’élément x + J(A) du
quotient A/J(A) est alors non-nul, donc est inversible puisque nous supposons que (iii) est
vraie. Il existe donc y ∈ A tel que yx ≡ xy ≡ 1 modulo J(A). Ainsi 1 − yx et 1 − xy
appartiennent à J(A), et donc yx et xy sont inversibles. Cela entraîne que x est inversible à
gauche et à droite, donc inversible. Nous avons donc montré que J(A) ⊇ A \ A× . L’inclusion
opposée étant évidente ((iii) interdit à A d’être l’anneau nul), cela entraîne (ii). 

74
Il est bien sûr possible de remplacer « gauche » par « droite » dans l’énoncé (v). En contem-
plant l’exemple de Matn (k), où k est un corps, on observera qu’on ne peut en revanche pas
remplacer « gauche » par « bilatère ».

2.3.1.2 Proposition. Tout module projectif de type fini sur un anneau local est libre.

Preuve. Soit A un anneau local. On pose A = A/J(A). Pour tout A-module M , on pose
M = M/J(A)M ; c’est un A-module qu’on peut aussi regarder comme un A-module.
Soit P un A-module projectif de type fini. D’après la proposition 1.3.1.3, P est un A-module
libre. Il existe donc un A-module libre de type fini F et un isomorphisme g : F → P de
A-modules, ou de A-modules, c’est ici pareil. Comme F est un A-module projectif et que
l’homomorphisme canonique p : P → P est surjectif, on peut compléter le diagramme ci-
dessous par un homomorphisme h :
F
h /P

f p
 
F / P.
g

L’application p ◦ h = g ◦ f étant surjective, on a (im h) + J(A)P = P . Ainsi J(A)(coker h) =


coker h. Or coker h est un A-module de type fini puisque P est de type fini. Le lemme de
Nakayama nous dit alors que coker h = 0, c’est-à-dire que h est surjectif.
Du coup, P étant projectif, on peut trouver un homomorphisme k : P → F tel que h◦k = idP .
Alors g ◦ f ◦ k = p ◦ h ◦ k = p est surjectif, et comme g est un isomorphisme, f ◦ k est surjectif.
Ainsi (im k) + J(A)F = F , c’est-à-dire J(A)(coker k) = coker k. Comme F est de type fini,
coker k est de type fini, et le lemme de Nakayama nous dit que coker k = 0. Bref k est surjectif.
Combiné à h ◦ k = idP , cela nous donne que k est un isomorphisme. 

Kaplansky a démontré que l’hypothèse « de type fini » était en fait inutile dans l’énoncé
ci-dessus (Ann. of Math. 68 (1958), pp. 372–377).

2.3.2 Idempotents

Rappel : un idempotent d’un anneau A est un élément e ∈ A non-nul tel que e2 = e. Je ne


suis pas un fanatique de la condition e 6= 0, mais elle est traditionnelle.
De façons peut-être surprenante de prime abord, l’étude des modules projectifs sur un anneau
passe par une étude des idempotents de cet anneau. (À dire vrai, il existe d’autres méthodes,
mais celle-ci conserve son attrait malgré son âge vénérable.) Commençons par une introduction
sur la signification des idempotents.
Soit M un groupe abélien et appelons BL l’anneau de ses endomorphismes. Considérons une
décomposition en somme directe M = i∈I Mi , avec I fini
Pet Mi 6= 0 pour tout i ∈ I.
Pour chaque i ∈ I, la projection
P ie sur M i parallèlement à j6=i Mj est un élément de B ;
concrètement si x ∈ M s’écrit i∈I xi dans la décomposition, alors ei (x) = xi . Ces éléments

75
ei sont des idempotents de l’anneau B et vérifient les relations ei ◦ ej = 0 si i 6= j, et
i∈I ei = idM . Réciproquement, toute famille finie (ei )i∈I d’idempotents de B vérifiant ces
P
relations détermine une décomposition en somme directe M = i avec Mi = im ei .
,
L
i∈I M
Bien évidemment, ce résultat se généralise aux décompositions d’un module sur un anneau.
Au début du cours, nous avions déclaré qu’un moyen d’étudier un anneau A était de regarder
ses modules, c’est-à-dire ses actions sur des groupes abéliens. Autrement dit, nous essayons
de tirer des informations sur A à partir de nos connaissances sur les anneaux EndZ (M ), ces
derniers étant censés être bien connus, ou du moins assez concrets. Nous allons donc copier
dans un anneau A quelconque la construction précédente. Voici les définitions pertinentes.
Soit A un anneau. Deux idempotents e et f sont dits orthogonaux si efP= f e = 0. Alors si
(ei )i∈I est une famille finie d’idempotents deux à deux orthogonaux, e = i∈I ei est un idem-
potent. Réciproquement, uneP décomposition idempotente d’un idempotent e est une écriture
de e comme une somme finie i∈I ei d’idempotents deux à deux orthogonaux. Un idempotent
est dit primitif s’il ne s’écrit pas comme somme de deux idempotents orthogonaux, autrement
dit si sa seule décomposition idempotente est la décomposition banale, réduite à un seul terme.

Exemples.
(1) Soit e un idempotent d’un anneau A. Si e 6= 1, alors e et 1 − e sont des idempotents
orthogonaux et 1 = e + (1 − e) est une décomposition idempotente de l’unité.
(2) Soient A un anneau non-nul et n un entier strictement positif. Pour i ∈ {1, . . . , n},
notons Eii la matrice à coefficients dans
PnA avec zéro partout sauf un à la position (i, i).
Alors dans l’anneau Matn (A), 1 = i=1 Eii est une décomposition idempotente de
l’unité.
(3) Soit A un anneau et e un idempotent de A. Si e = i∈I ei une décomposition idem-
P
potente de e, alors chaque ei appartient à l’anneau eAe, et e = i∈I ei est une dé-
P
composition idempotente de l’unité dans eAe. Réciproquement, chaque décomposition
idempotente de l’unité dans eAe est une décomposition idempotente de e dans A.

Deux idempotents e et f de A sont dits équivalents s’il existe a ∈ eAf et b ∈ f Ae tels que
ab = e et ba = f ; on écrit alors e ' f . Nous noterons pi(A) l’ensemble des idempotents
primitifs de A et pi(A)/ ' l’ensemble des classes d’équivalence d’idempotents primitifs.
Nous concluons ce paragraphe avec deux résultats qui comparent les idempotents d’un anneau
A avec ceux du quotient A/I, où I est un idéal bilatère de A contenu dans le radical de
Jacobson J(A). Le premier résultat dit en particulier qu’un idempotent de A n’appartient
jamais à J(A), et que si deux idempotents e et f sont congrus modulo J(A), alors ils sont
équivalents.

2.3.2.1 Proposition. Soient A un anneau et I un idéal bilatère de A contenu dans le


radical de Jacobson J(A).
(i) L’image d’un idempotent e de A par l’homomorphisme canonique de A sur A/I est un
idempotent e de A/I.

76
(ii) Deux idempotents e et f de A sont équivalents si et seulement si leurs images e et f
dans A/I sont équivalentes.

Preuve. (i) Soit e un idempotent de A et soit e son image dans A/I. Certainement e2 = e.
Par ailleurs, 1 − e n’est pas inversible car e 6= 0 et e(1 − e) = 0. Ceci implique que e ∈
/ J(A),
et par voie de conséquence e 6= 0.
(ii) Il est clair que si e et f sont équivalents, alors e et f le sont. Réciproquement, supposons
que e ' f . Il existe a ∈ eAf et b ∈ f Ae tels que ab = e et ba = f . Remontons a et b en
des éléments a et b de A. Quitte à remplacer a par eaf et b par f be, on peut supposer que
a ∈ eAf et b ∈ f Ae. Maintenant e − ab ∈ I ∩ eAe, et l’exercice (5) du paragraphe 2.2.1 donne

I ∩ eAe = eIe ⊆ eJ(A)e = J(eAe).

Ceci garantit que ab est un élément inversible de eAe. De même, ba est un élément inversible
de f Af . Il existe donc des éléments c ∈ eAe et d ∈ f Af tels que abc = e et dba = f . Mais
alors db = dbe = dbabc = f bc = bc, et donc e ' f . 

L’exercice (3) du paragraphe 2.2.1 montre que chaque idéal nilpotent de A est inclus dans
J(A), donc convient dans le rôle de I.

2.3.2.2 Théorème (relèvement des idempotents). Soit I un idéal bilatère nilpotent


d’un anneau A. On note a 7→ a l’homomorphisme canonique de A sur A/I.
(i) Pour chaque idempotent c de l’anneau A/I, il existe un idempotent e de A tel que e = c.
De plus, e peut être choisi comme un polynôme en c à coefficients entiers sans terme
constant.
(ii) Soit e un idempotent de A. Pour chaque décomposition idempotente e = c1 + · · · + cn
dans A/I, il existe une décomposition idempotente e = e1 + · · · + en dans A telle que
ei = ci . En particulier, e est primitif si et seulement si e est primitif.

Preuve. (i) Soit c ∈ A un relevé de c. Soit E l’ensemble des a ∈ A s’écrivant comme polynôme
sans terme constant en c et tels que a = c. Si a ∈ E , alors a2 − a appartient à I donc est
nilpotent : on peut ainsi noter n(a) le plus petit entier naturel n tel que (a2 − a)n = 0. Soit
e ∈ E choisi de sorte que n(e) est minimal. Posons t = e2 − e et e0 = e − 2et + t. Certainement
t ∈ I et e0 ∈ E ; un calcul facile fournit (e0 )2 − e0 = 4t3 − 3t2 . Si t 6= 0, alors n(e) > 1, d’où
n(e0 ) < n(e), ce qui contredit le choix de e. Bref t = 0 et e est le relèvement cherché de c.
(ii) On procède par récurrence sur n, le cas n = 1 étant évident. Admettons le résultat pour
n − 1. Puisque ec1 e = c1 est un idempotent de A/I, nous pouvons trouver un idempotent e1
de A s’écrivant comme un polynôme sans terme constant en ec1 e et tel que e1 = c1 . Alors
e1 ∈ eAe et e0 = e − e1 est un idempotent orthogonal à e1 . Notre hypothèse de récurrence
nous autorise à remonter la décomposition idempotente à n − 1 termes e0 = c2 + · · · + cn dans
A/I en une décomposition idempotente e0 = e2 + · · · + en dans A, avec donc ei = ci . Pour
i ≥ 2, nous avons ei ∈ e0 Ae0 , ce qui implique e1 ei = ei e1 = 0. L’écriture e = e1 + · · · + en est
ainsi une décomposition idempotente dans A qui relève e = c1 + · · · + cn . 

77
Exercice. Soient e et f deux idempotents équivalents d’un anneau A. Montrer que e et f
sont simultanément primitifs ou non-primitifs. (Indication : il existe a ∈ eAf et b ∈ f Ae tels
que ab = e et ba = f . Supposons l’existence d’une décomposition idempotente e = e0 + e00
de e ; posons f 0 = be0 a et f 00 = be00 a. Alors f = f 0 + f 00 est une décomposition idempotente
de f .)

2.3.3 Modules principaux indécomposables

Voyons à présent le lien entre idempotents et modules projectifs. Pour cela, souvenons-nous
de l’isomorphisme d’anneaux ϕ : a 7→ (b 7→ ba) de l’anneau opposé Aop sur l’anneau des en-
domorphismes du A-module à gauche régulier. Chaque décomposition idempotente de l’unité
dans Aop donne donc une décomposition idempotente de l’unité dans EndA (A A), qui fournit
une décomposition de A APen somme directe de sous-modules. De façonL explicite, la décompo-
sition idempotente 1 = i∈I ei dans A se traduit par l’écriture A = i∈I Aei , puisque Aei
est l’image de l’endomorphisme ϕ(ei ) : b 7→ bei de A A.
Nous nous trouvons donc conduits à associer à chaque idempotent e ∈ A le sous-module Ae
de A A. Ce module est projectif : à la décomposition idempotente 1 = e + (1 − e) de l’unité
dans A correspond la décomposition A A = Ae ⊕ A(1 − e) du A-module à gauche régulier, qui
fait apparaître Ae comme facteur direct d’un A-module libre. Ainsi le foncteur HomA (Ae, ?)
est exact ; le résultat suivant en donne une description concrète.

2.3.3.1 Proposition. Soient A un anneau, e un idempotent de A et M un A-module.


Alors l’application f 7→ f (e) est un isomorphisme de groupes de HomA (Ae, M ) sur eM . Dans
le cas M = Ae, l’application est un isomorphisme d’anneaux EndA (Ae) ∼ = (eAe)op .

Preuve. Plaçons-nous dans les hypothèses de la proposition. Si f ∈ HomA (Ae, M ), alors


f (e) = f (e2 ) = ef (e) appartient bien à eM . Ainsi notre application ϕ : f 7→ f (e) va bien
de HomA (Ae, M ) dans eM . Dans l’autre sens, considérons l’application ψ qui à em ∈ eM
associe l’homomorphisme ae 7→ aem de Ae dans M . On vérifie sans difficulté que ϕ et ψ sont
des homomorphismes de groupes inverses l’un de l’autre. Dans le cas où M = Ae, nous avons
ϕ(idAe ) = e et ϕ(g ◦ f ) = g(f (e)) = g(f (e)e) = f (e)g(e) = ϕ(f )ϕ(g), ce qui montre que ϕ est
un homomorphisme d’anneaux de EndA (Ae) dans (eAe)op . 

Soient e et f deux idempotents de A. À travers les isomorphismes

HomA (Ae, Af ) ∼
= eAf, EndA (Ae) = (eAe)op ,

HomA (Af, Ae) = f Ae, EndA (Af ) = (f Af )op ,

l’existence de deux isomorphismes réciproques entre les modules Ae et Af se traduit par


l’existence de a ∈ eAf et b ∈ f Ae tels que ab = e et ba = f . Ainsi Ae ∼
= Af si et seulement si
e ' f.
On appelle module principal indécomposable un facteur direct indécomposable du A-module à
gauche régulier. Autrement dit, un module principal indécomposable est un sous-module indé-
composable de A A de la forme Ae, avec e idempotent ; en particulier, c’est un module projectif

78
indécomposable. Pour chaque idempotent e de A, les décompositions de Ae correspondent aux
décompositions idempotentes de e ; notamment Ae est indécomposable si et seulement si e est
primitif. Ainsi l’application e 7→ Ae est une bijection de l’ensemble pi(A) des idempotents
primitifs de A sur l’ensemble des modules principaux indécomposables.
La proposition 1.2.2.3 affirme que si le A-module régulier à gauche est artinien ou noethérien,
alors il peut être décomposé comme somme directe finie de sous-modules indécomposables. Ces
derniers sont alors des modules principaux indécomposables. Il en existe donc ! Nous verrons
dans le prochain paragraphe un résultat plus intéressant : si A est un anneau artinien à gauche,
alors tout A-module projectif est somme directe de modules projectifs indécomposables, et
tout A-module projectif indécomposable est isomorphe à un module principal indécomposable.
Ainsi il existe une bijection entre pi(A)/ ' et l’ensemble des classes d’isomorphisme de A-
modules projectifs indécomposables.

2.3.3.2 Remarque. Les idempotents de A déterminent aussi des A-modules à droite : il suffit
de considérer le A-module à droite régulier AA et les idéaux à droite eA. À nouveau, deux
idempotents e et f sont équivalents si et seulement si les A-modules eA et f A sont isomorphes,
et un idempotent e est primitif si et seulement si le A-module eA est indécomposable.
Une manière de systématiser cette observation consiste à introduire une dualité. Utilisant
la structure de A-A-bimodule régulier sur A, on peut munir le groupe abélien T (M ) =
HomA (M, A) d’une structure de A-module à droite, pour chaque A-module à gauche M . In-
versement quand N est un A-module à droite, on munit T (N ) = HomA (N, A) d’une structure
de A-module à gauche. On dispose ainsi d’une paire de foncteurs additifs entre la catégorie des
A-modules à gauche et la catégorie des A-modules à droite. Cette dualité échange le A-module
régulier à gauche avec le A-module régulier à droite. Étant additive, elle échange les sommes
directes (A A)n et (AA )n de ces modules. Un module projectif de type fini étant facteur direct
d’un module libre de type fini, notre dualité consiste en deux bijections inverses l’une de l’autre
quand on la restreint aux A-modules projectifs de type fini. La proposition 2.3.3.1 montre par
ailleurs que pour tout idempotent e, la dualité T échange entre eux les A-modules projectifs
Ae et eA.
Signalons pour finir que la dualité T permet de construire une opération appelée « transposi-
tion » et notée Tr. Cette dernière échange elle aussi A-modules à gauche et A-modules à droite ;
toutefois, alors que T se comporte de façon bijective avec les modules indécomposables pro-
jectifs, Tr se comporte de façon bijective avec les modules indécomposables non-projectifs. La
théorie d’Auslander-Reiten, qui vise à organiser l’étude des modules indécomposables, utilise
cette opération Tr. Pour des détails, le lecteur est renvoyé au chapitre IV du livre d’Auslander,
Reiten et Smalø [2].

2.3.3.3 Proposition. Soit A un anneau semi-simple artinien. Alors les sous-modules prin-
cipaux indécomposables de A sont les idéaux à gauche minimaux de A. La bijection e 7→ Ae de
pi(A) sur l’ensemble des modules principaux indécomposables induit une bijection de pi(A)/ '
sur l’ensemble des classes d’isomorphisme de A-modules simples.

79
Preuve. À cause de la complète réductibilité des A-modules, tout sous-module de A A est
facteur direct. Pour la même raison, un A-module est indécomposable si et seulement s’il est
simple. Ainsi les facteurs directs indécomposables de de A A sont les sous-modules simples de
A A. Cela montre la première assertion. La seconde provient de la proposition 2.1.2.2 (i). 

2.3.3.4 Proposition. Soit A un anneau artinien à gauche ou à droite et soit J = J(A)


son radical de Jacobson. Alors l’application e 7→ Ae/Je induit une bijection de pi(A)/ ' sur
l’ensemble des classes d’isomorphisme de A-modules simples.

Preuve. D’après la proposition 2.3.2.1 et le théorème 2.3.2.2, l’application qui à un idempotent


e de A associe son image e dans A/J, induit une bijection de pi(A)/ ' sur pi(A/J)/ '. La
proposition 2.3.3.3 affirme pour sa part que l’application e 7→ (A/J)e induit une bijection
de pi(A/J)/ ' sur l’ensemble des classes d’isomorphisme de A/J-modules simples. Enfin
le corollaire A/J-modules simples s’identifie à l’ensemble des classes d’isomorphisme de A-
modules simples. La proposition s’obtient en composant ces trois bijections. 

Exercices.
(1) Soit e un idempotent d’un anneau A. Pour chaque A-module M , l’anneau eAe agit de
façon naturelle sur le groupe abélien eM . (Cette action correspond à la structure de
EndA (Ae)-module à droite sur HomA (Ae, M ).) Montrer que si 0 → L → M → N → 0
est une suite exacte courte de A-modules à gauche, alors 0 → eL → eM → eN → 0
est une suite exacte courte de eAe-modules à gauche.
(2) Soit e un idempotent d’un anneau A et M un A-module artinien et noethérien. On
suppose que eN = 0 pour tout facteur de composition N de M . Montrer que eM = 0.
(Indication : prendre une série de composition 0 = M0 ⊂ M1 ⊂ M2 ⊂ · · · ⊂ Mn = M
de M . Alors eMi ⊆ Mi−1 , d’où eM = en M = 0. Une autre façon de rédiger cela est
d’observer que Ae est projectif et d’écrire que par conséquent, 0 → eMi−1 → eMi →
e(Mi /Mi−1 ) → 0 est exact, avec e(Mi /Mi−1 ) = 0, d’où eM = eMn = eMn−1 = · · · =
eM1 = eM0 = 0.)
(3) Soit A un anneau artinien à gauche et soient e et f deux idempotents de A. Montrer que
e et f sont équivalents si et seulement s’il existe u ∈ A× tel que f u = ue. (Indication :
si u existe, on pose a = eu−1 f et b = f ue et on a ab = e et ba = f . Réciproquement, si
e ' f , alors Ae ∼
= Af , donc par Krull-Schmidt, A(1 − e) ∼ = A(1 − f ), d’où 1 − e ' 1 − f ;
on trouve alors a ∈ eAf et b ∈ f Ae tels que ab = e et ba = f , puis a0 ∈ (1 − e)A(1 − f )
et b0 ∈ (1 − f )A(1 − e) tels que a0 b0 = 1 − e et b0 a0 = 1 − f ; on vérifie que ab0 = b0 a =
a0 b = ba0 = 0 et on prend u = b + b0 , avec u−1 = a + a0 .)
(4) Soit A un anneau artinien à gauche ou à droite et soit J son radical de Jacobson. Soit
e ∈ A un idempotent. Montrer que les propriétés suivantes sont équivalentes : (i) e est
primitif ; (ii) Ae est un A-module indécomposable ; (iii) Ae/Je est un A-module simple ;
(iv) eAe est un anneau local ; (v) eAe/eJe est un anneau à division. (Indication : on
pourra montrer les implications (i) ⇒ (iii) ⇒ (v) ⇒ (iv) ⇒ (ii) ⇒ (i). Pour (iii) ⇒ (v),
établir que EndA (Ae/Je) ∼ = (eAe/eJa)op et utiliser le lemme de Schur.)

80
2.3.4 Couvertures projectives et enveloppes injectives

Rappels du paragraphe 1.3.4 : un épimorphisme essentiel p : M → N est un homomorphisme


surjectif dont le noyau est un sous-module superflu de M . Un monomorphisme essentiel i :
M → N est un homomorphisme injectif dont l’image est un sous-module essentiel de N .
Couverture projective : soit M un A-module. Une couverture projective de M est un couple
(P, p) où P est un A-module projectif et p : P → M est un épimorphisme essentiel. On dit
parfois que P ou que p : P → M est une couverture projective de M .
Exemple : si P est un module projectif, alors idP : P → P est une couverture projective de P .
La proposition suivante entraîne en particulier l’unicité à isomorphisme près de la couverture
projective d’un module.

2.3.4.1 Proposition. Soit p : P → M une couverture projective de M , Q un A-module


projectif et q : Q → M un épimorphisme. Alors il existe une décomposition Q = Q0 ⊕ Q00 et
un isomorphisme ϕ : Q0 → P tels que q Q0 = p ◦ ϕ et q Q00 = 0. Si (Q, q) est une couverture
projective de M , alors Q00 = 0.

Preuve. Le module Q étant projectif, il existe un homomorphisme h : Q → P faisant commuter


le diagramme
Q
h q
~ 
P /M / 0.
p

La surjectivité de q = p◦h entraîne que im h+ker p = P ; comme ker p est superflu, cela donne
h
que h est surjectif. La suite exacte courte 0 → ker h → Q −
→ P → 0 est scindée, puisque P est
projectif. On peut donc l’écrire
 
ϕ 0
0 → ker h → Q0 ⊕ Q00 −−−−−→ P → 0,

avec ϕ : Q0 → P un isomorphisme et Q00 = ker h. Si (Q, q) est une couverture projective de M ,


alors ker q est superflu. Comme ker q ⊇ Q00 , cela donne Q00 superflu ; et comme Q0 + Q00 = Q,
on a Q0 = Q, et donc Q00 = 0. 

2.3.4.2 Théorème. Soit A un anneau artinien à gauche ou à droite.


(i) Tout A-module M admet une unique couverture projective, notée C(M ).
L  L
(ii) Pour toute famille (Mλ )λ∈Λ de A-modules, C M λ

= λ∈Λ C(Mλ ).
λ∈Λ

(iii) Pour tout module M , C(M ) = C(hd M ).


(iv) La couverture projective d’un module de type fini est un module de type fini.

81
Preuve. On commence par prouver l’assertion (ii) sous l’hypothèse supplémentaire que cha-
cun des Mλ a une couverture projective C(Mλ ). Par définition, le noyau de cette couver-
ture projective est superflu ; d’après le corollaire 2.2.2.5 (ii), il est inclus dans le radical
de C(Mλ ). L’exercice (4) du paragraphe 2.2.2 dit alors que L la somme directe des noyaux
ker(C(Mλ ) → Mλ ) est incluse dans
 le radical
L du module λ∈Λ C(Mλ ). Ainsi le noyau de
l’homomorphisme λ∈Λ Mλ est superflu, à nouveau d’après le corol-
L
λ∈Λ C(Mλ ) →
laire 2.2.2.5 (ii). Comme L le module λ∈Λ C(Mλ ) est projectif (proposition 1.1.6.1), il est une
L
couverture projective de λ∈Λ Mλ .
Puis on prouve l’assertion (iii) sous l’hypothèse supplémentaire que hd M a une couverture
projective (P, p). Par projectivité existe alors une flèche q de P dans M rendant commutatif
le diagramme
P
q
p
{ 
M
c / / hd M.

La composée p de q avec l’homomorphisme canonique c de M sur hd M étant surjective, on


a q(P ) + rad M = M , ce qui nécessite q(P ) = M puisque rad M est superflu. Par ailleurs, le
noyau de q est superflu, car il est inclus dans ker(c ◦ q) = ker p, lequel est lui-même superflu.
Ainsi (P, q) est une couverture projective de M .
Il nous reste à établir (i) et (iv). Grâce au cas particulier de (iii) que nous avons établi et au
corollaire 2.2.2.2 (iii), il nous suffit de traiter le cas d’un module complètement réductible, et
grâce à (ii), nous pouvons nous borner au cas d’un module simple. Tout module simple est iso-
morphe au quotient Ae/J(A)e, où e est un idempotent primitif. Le A-module Ae est projectif
et l’homomorphisme canonique Ae → Ae/J(A)e est un épimorphisme essentiel, puisque son
noyau est égal au radical du module Ae. Ainsi Ae est la couverture projective de Ae/J(A)e.


Remarque. On trouvera une preuve du théorème d’existence des couvertures projectives ba-
sées sur d’autres idées que les idempotents dans le paragraphe I.4 de [2]. La preuve basée
sur les idempotents a toutefois l’avantage d’être généralisable à la classe des anneaux dits
semi-parfaits, qui englobe les algèbres de type fini sur un anneau de valuation complet.

2.3.4.3 Proposition. Soit A un anneau artinien à gauche ou à droite.


(i) La couverture projective d’un A-module simple est indécomposable ; la tête d’un module
projectif indécomposable est simple.
(ii) Tout A-module projectif est somme directe de modules indécomposables.

Preuve. Soit (P, p) la couverture projective d’un module simple et écrivons P comme somme
directe M ⊕ N de deux sous-modules. Certainement K = ker p est un sous-module maximal,
puisque im p ∼
= P/K est simple. Ensuite K ne peut pas contenir à la fois M et N . S’il ne
contient pas M , alors M + K = P par maximalité de K, et donc M = P puisque K est

82
superflu. De manière analogue, si K ne contient pas N , alors N = P . Dans tous les cas, la
décomposition P = M ⊕ N est banale. Cela démontre la première assertion de (i).
Soit P un A-module projectif. Alors P est sa propre couverture projective, donc est la cou-
verture projective de sa tête d’après le théorème
L 2.3.4.2 (iii). Écrivons cette têteLcomme une
somme de sous-modules simples : hd P = λ∈Λ Sλ . Alors P = C(hd P ) = λ∈Λ C(Sλ )
d’après le théorème 2.3.4.2 (ii). Ainsi P est somme directe de modules indécomposables. Si
P est indécomposable, alors la somme comporte exactement un terme, donc la tête de P est
simple. Cela finit la preuve de (i) et démontre (ii). 

Un des intérêts de la notion de couverture projective est donné par la proposition suivante.

2.3.4.4 Proposition. Soient A un anneau artinien à gauche, S un A-module simple, et


p : P → S la couverture projective de S. La structure de A-EndA (P )op -bimodule sur P permet
de munir HomA (P, M ) d’une structure de EndA (P )op -module, pour tout A-module M .
(i) Le A-module P est artinien et noethérien, l’anneau EndA (P ) est local, et HomA (P, S)
est l’unique EndA (P )op -module simple, à isomorphisme près.
(ii) Pour tout A-module M de longueur finie, le module HomA (P, M ) sur EndA (P )op est
de longueur finie, égale à la multiplicité de Jordan-Hölder du module S dans M .

Preuve. Le théorème 2.3.4.2 (iv) montre que P est de type fini. Il est donc artinien et noe-
thérien, d’après le corollaire 2.2.2.4. Le corollaire 1.2.2.2 dit alors que EndA (P ) est un anneau
local. Par ailleurs, soit h un élément non-nul de HomA (P, S). Alors h se factorise à travers la
tête de P et induit un isomorphisme hd P ∼ = S. Ainsi h : P → S est un épimorphisme essentiel,
donc est une couverture projective. La proposition 2.3.4.1 montre alors l’existence d’un auto-
morphisme ϕ de P tel que h = p ◦ ϕ. Par transitivité, deux éléments non-nuls de HomA (P, S)
sont donc reliés l’un à l’autre par l’action d’un élément de EndA (P )op . Cela implique que
HomA (P, S) est un EndA (P )op -module simple et finit la preuve de (i).
L’assertion (ii) est vraie si M est un module simple isomorphe à S, grâce à (i). Si M est un
module simple non-isomorphe à S, alors tout homomorphisme de P dans M se factorise à tra-
vers hd P ∼= S d’après l’exemple 1.3.3.3, ce qui implique que HomA (P, M ) ∼= HomA (S, M ) = 0
et montre (ii) dans ce cas également. Bref (ii) est vraie quand M est simple, et bien sûr aussi
quand M = 0. De là, le cas général se démontre par récurrence sur la longueur de M , en
utilisant la proposition 1.2.5.1 et l’exactitude du foncteur HomA (P, ?). 

Remarques.
(1) Reprenons la situation présentée dans l’énoncé de la proposition 2.3.4.4. Notons J le
radical de Jacobson de A. Il existe un idempotent primitif e ∈ A tel que S = Ae/Je.
Alors P = Ae, HomA (P, M ) = eM et EndA (P )op = eAe. La proposition dit que
le eAe-module eM est de longueur finie égale à la multiplicité de Jordan-Hölder du
module simple Ae/Je dans M . (Incidemment, le eAe-module simple est HomA (P, S) ∼ =
eS ∼= eAe/eJe. En tant qu’anneau, eAe/eJe peut être identifié à l’anneau à division
EndA (S)op . Par ailleurs, eAe/eJe est le quotient de l’anneau local eAe par son radical
de Jacobson.)

83
(2) Toujours dans cette situation, supposons maintenant que A est une algèbre de dimen-
sion finie sur un corps k. Alors S, P , M , HomA (P, M ) et HomA (P, S) sont des espaces
vectoriels de dimension finie sur k. De plus, on peut identifier les espaces vectoriels
HomA (P, S), HomA (hd P, S) et EndA (S), car tout homomorphisme de P dans S se
factorise à travers la tête de P , laquelle est isomorphe à S. La longueur du EndA (P )op -
module HomA (P, M ) est alors égale à dimk HomA (P, M )/ dimk EndA (S).

Enveloppe injective : soit M un A-module. Une enveloppe injective de M est un couple (E, i)
où E est un A-module injectif et i : M → E est un monomorphisme essentiel. On dit parfois
que E ou que i : M → E est une enveloppe injective de M .
Exemple : si Q est un module injectif, alors idQ : Q → Q est une enveloppe injective de Q.
La proposition suivante entraîne en particulier l’unicité à isomorphisme près de l’enveloppe
injective d’un module.

2.3.4.5 Proposition. Soit i : M → E une enveloppe injective de M , Q un A-module


injectif et j : M → Q un monomorphisme. Alors il existe une décomposition Q = Q0 ⊕ Q00 et
un isomorphisme ϕ : E → Q0 tels que j = ϕ ◦ i. Si (Q, j) est une enveloppe injective de M ,
alors Q00 = 0.

Preuve. La preuve est semblable à celle de la proposition 2.3.4.1. 

2.3.4.6 Théorème. Soit A un anneau artinien à gauche.


(i) Tout A-module M admet une unique enveloppe injective, notée E(M ).
L  L
(ii) Pour toute famille (Mλ )λ∈Λ de A-modules, E ∼
λ∈Λ Mλ = λ∈Λ E(Mλ ).

(iii) Pour tout module M , E(M ) = E(soc M ).

Preuve. L’assertion (i) de ce théorème est valable pour n’importe quel anneau A : c’est le
théorème de Eckmann-Schöpf, voir [6], §57 pour une preuve.
La preuve de l’assertion (ii) comprend L deux étapes. On montre d’abord que si (Qλ )λ∈Λ est une
famille de modules injectifs, alors λ∈Λ Qλ est injectif. La comparaison avec la proposition
1.1.6.4 montre que c’est le cas quand l’ensemble d’indice Λ est fini ; pour ramener le cas général
à cette situation, on utilise le critère d’injectivité de la proposition 1.1.6.5 (v) et le fait que
dans un anneau artinien à gauche, tous les idéaux à gauche sont de type fini (théorème de
Hopkins 2.2.2.3 (ii)). Ensuite, on considère une famille (Mλ )λ∈Λ de A-modules. L On dispose
alors
L des enveloppes L injectives iλ : Mλ ,→ E(Mλ ), d’où un monomorphisme i = λ∈Λ iλ de
λ∈Λ M λ dans λ∈Λ E(Mλ ). D’après la première étape, le codomaine est un module injectif.
En outre, le fait que chaque iλ soit un monomorphisme essentiel implique que i en est un. (Ce
n’est pas difficile à voir ; dans le cas qui nous occupe d’un anneau A artinien, on peut même
aller très rapidement en utilisant le corollaire 2.2.2.5 (iii) et l’exercice (4) du paragraphe 2.2.2).
Ainsi i est une enveloppe injective, ce qui démontre l’assertion (ii).

84
Enfin l’assertion (iii) est conséquence du fait que l’inclusion soc M ,→ M est un monomor-
phisme essentiel (corollaire 2.2.2.5 (iii)) : la composée soc M ,→ M ,→ E(M ) est alors elle
aussi un monomorphisme essentiel, et est donc une enveloppe injective de soc M . 

2.3.4.7 Proposition. Soit A un anneau artinien à gauche.


(i) L’enveloppe injective d’un A-module simple est indécomposable ; le socle d’un module
injectif indécomposable est simple.
(ii) Tout A-module injectif est somme directe de modules indécomposables.

Preuve. La preuve suit les mêmes lignes que celle de la proposition 2.3.4.3. 

Remarques. Comme indiqué dans la preuve, l’assertion (i) du théorème 2.3.4.6 vaut pour
n’importe quel anneau A ; en revanche, il n’est pas garanti que E(M ) soit de type fini quand
M l’est, même si A est artinien. L’assertion (ii) de ce même théorème 2.3.4.6 est elle aussi
vraie sans hypothèse sur A quand la somme (indexée sur l’ensemble Λ) est finie ; sa validité
dans le cas général est équivalente au fait que l’anneau A est noethérien à gauche (voir [1],
Proposition 18.13). Enfin les assertions 2.3.4.6 (iii) et 2.3.4.7 (i) sont vraies si on suppose A
artinien à droite.

Dans le cas d’un anneau A artinien à gauche ou à droite, nous avons ainsi des bijections entre
trois ensembles :
( ) ( ) ( )
classes d’isom. de hd / classes d’isom. de E(?)
/ classes d’isom. de
o o .
projectifs indécomp. C(?) modules simples soc injectifs indécomp.

Exercices.
(1) Soit A un anneau artinien à gauche ou à droite. Montrer que tout A-module projectif
indécomposable est isomorphe à un A-module principal indécomposable.
(2) Soient A un anneau artinien à gauche ou à droite et P un A-module projectif indécom-
posable. Montrer que tout quotient de P est indécomposable. (Indication : soit X un
quotient de P . Alors hd X ∼
= hd P est simple. Le corollaire 2.2.2.5 (i) et l’exercice (4)
du paragraphe 2.2.2 interdisent alors à X d’être décomposable.)
(3) Soit A un anneau artinien à gauche ou à droite et soit Q un A-module injectif in-
décomposable. Montrer que l’anneau EndA (Q) est local. (Indication : commencer par
observer qu’un endomorphisme injectif h de Q est nécessairement inversible ; de fait,
h(Q) est un sous-module injectif de Q, donc est un facteur direct de Q, ce qui entraîne
h(Q) = Q puisque Q est indécomposable. Observer également que le socle de Q est un
sous-module essentiel et simple, donc est inclus dans tout sous-module non-nul de Q.
Maintenant, soit f ∈ EndA (Q). Les deux sous-modules ker f et ker(id−f ) s’intersectent
trivialement, donc ils ne peuvent contenir tous les deux le socle de Q, donc l’un des
deux est nul. Ainsi, f ou id − f est un monomorphisme, et est donc inversible. Utiliser
la proposition 2.3.1.1 (iv) pour conclure.)

85
2.4 Blocs d’un anneau artinien

2.4.1 Idempotents centraux

Dans un anneau commutatif, les idempotents sont isolés et il n’existe au plus qu’une décom-
position idempotente primitive de l’unité. Plus précisément :

P
2.4.1.1 Proposition. Soit A un anneau commutatif. Supposons que 1 = i∈I ei soit une
décomposition idempotente de l’unité dans APet que chaque ei soit un idempotent primitif.
Alors chaque idempotent de A est une somme i∈J ei , où J est une partie de I. En particulier,
{ei | i ∈ I} est l’ensemble de tous les idempotents primitifs de A.

Preuve. L’anneau A étant commutatif, le produit de deux idempotents de A, si non-nul,


est encore un idempotent. Ceci vu, soit e un idempotent de A. Chaque ei étant primitif,
ei = eei + (1 − e)ei ne peut pas être une décomposition idempotente de ei , et donc eei = 0
ou (1− e)ei = 0. Posons J = {i ∈ I | eei = ei } ; ainsi I \ J = {i ∈ I | eei = 0}. Alors
i∈J ei . 
P P
e=e i∈I ei =

Soit (Bi )i∈I une famille finie d’anneaux et soit A L= i∈I Bi l’anneau produit. En tant que
Q
groupe abélien, nous pouvons donc écrire A = i∈I Bi ; chaque Bi apparaît ici comme un
idéal bilatère de A. Appelons εi l’unité de Bi , vuePcomme élément de B. Alors les εi sont des
idempotents appartenant au centre de A et 1 = i∈I εi est une décomposition idempotente
de l’unité dans A. Enfin Bi est l’idéal bilatère engendré par εi , il s’identifie à l’anneau εi Aεi ,
et la surjection canonique de A sur Bi ∼ j6=i Bj est donnée par x 7→ εi x.
L
=A
Réciproquement, soit A un anneau, et soit A = i∈I Bi une décomposition en somme directe
L
d’idéaux bilatères de A. Chaque Bi est stable par multiplication, et le produit d’un élément de
Bi par un élément de LBj est nul quand i 6= j, car il appartient à Bi ∩ Bj = {0}. Ainsi dans la
décomposition A = i∈I Bi , le produit de A se calcule composante par composante. Écrivons
1 = i∈I εi selon cette décomposition. Alors pour chaque x ∈ Bi , on a εj x = xεj = 0 pour
P
tout j 6= i, et par comparaison avec 1x = x1 = x, on arrive à εi x = xεi = x ; autrement dit
εi est un élément neutre pourQla multiplication de Bi . Ainsi chaque Bi est un anneau et A
s’identifie à l’anneau produit i∈I Bi .
Ces considérations montrent que décomposer un anneau A en produit est un problème équi-
valent à décomposer A en somme directe d’idéaux bilatères, c’est-à-dire à décomposer le
bimodule régulier A AA en somme directe de sous-bimodules. D’après l’introduction au pa-
ragraphe 2.3.2, ce problème est équivalent à la recherche d’une décomposition idempotente
de l’unité dans l’anneau des endomorphismes du bimodule régulier A AA , anneau qui est iso-
morphe au centre de A au vu de l’exemple 1.4.3.1 (1).

2.4.1.2 Proposition. Soit A un anneau artinien à gauche ou à droite. Alors A est la


somme directe d’une famille finie (Bi )i∈I d’idéaux bilatères indécomposables, et cette famille
P Décomposons l’élément unité de A dans la somme directe A =
est unique à indexation près.
L
B
i∈I i en écrivant 1 = i∈I εi . Alors chaque Bi est un anneau pour la multiplication induite

86
par celle de A, avec εi comme élément neutre.PEn tant qu’anneau, A s’identifie au produit
Q
i∈I Bi . On a Bi = Aεi = εi A. La somme 1 = i∈I εi est une décomposition idempotente de
l’unité, et les εi sont les idempotents primitifs du centre
L de A. Chaque idéal bilatère D de A
supplémenté en tant qu’idéal bilatère est une somme i∈J Bi , où J est une partie de I.

Preuve. Les hypothèses faites sur A font que le A-bimodule régulier est artinien. D’après
la proposition 1.2.2.3, il s’écrit donc comme la somme directe d’une famille finie (Bi )i∈I de
sous-bimodules indécomposablesP . Décomposons l’élément unité de A dans la somme directe
12

A = i∈I Bi en écrivant 1 = i∈I εi . Nous avons vu ci-dessus que Bi est un anneau pour la
L
multiplication induite parQcelle de A, avec εi comme élément neutre, et qu’en tant qu’anneau,
A s’identifie au produit i∈I Bi . Comme Bi 6= {0}, cela entraîne
P que εi est un idempotent,
qu’il est central, que Bi = Aεi = εi A, et que la somme 1 = i∈I εi est une décomposition
idempotente de l’unité.
Si l’on pourrait écrire εi = η + η 0 , avec η, η 0 deux idempotents centraux et orthogonaux,
alors Bi se casserait en somme directe ηBi ⊕ η 0 Bi , chaque terme étant un idéal bilatère (car
par exemple, ηBi = ηεi A = ηA = Aη). Cette impossibilité montre que εi est un idempotent
primitif du centre de A.
Appliquant la proposition 2.4.1.1 au centre de A et à la décomposition unipotente 1 = i∈I εi ,
P
on voit que {εi | i ∈ I} est l’ensemble de tous les idempotents primitifs du centre de A. Ce
fait montre l’unicité à indexation près de la famille (Bi )i∈I .
Enfin soit D un idéal bilatère de A (disons non-nul pour éviter un cas trivial) supplémenté en
tant qu’idéal bilatère. On écrit ainsi A = D ⊕ D0 et on décompose l’unité de A selon les termes
de cette somme : 1 = η + η 0 . Alors D et D0 sont des anneaux pour la multiplication induite par
celle de A, avec η et η 0 comme éléments neutres. Cela entraîne que η est un idempotentP central
de A et que D = ηA = Aη. Appliquant à nouveau la proposition 2.4.1.1, on écrit η = i∈J εi
pour une partie J ⊆ I. Il vient alors D = ηA = i∈J εi A = i∈J Bi . 
L L

Les idéaux Bi apparaissant dans l’énoncé de la proposition 2.4.1.2 sont appelés les blocs de
A. Les idempotents centraux εi sont appelés les idempotents de bloc.

Exemple. Les blocs d’un anneau semi-simple artinien sont ses composantes simples. (C’est
une conséquence immédiate de la proposition 2.1.2.3.)

Exercice. Soit (Bi )i∈I une famille finie d’anneaux et soit A = i∈I LBi l’anneau produit.
Q
Montrer que tout A-module M se décompose en somme directe M = i∈I Mi , avec Mi =
Bi M . Montrer que si N = i∈I Ni est la décomposition d’un
Q second A-module, alors le groupe
L
HomA (M, N ) est canoniquement isomorphe au produit i∈I HomBi (Mi , Ni ).
12. C’est le seul endroit dans la preuve où l’on utilise que l’anneau A est artinien. La proposition 2.4.1.2 est
tout aussi vraie si l’on suppose que le A-bimodule régulier est noethérien, ce qui est par exemple le cas quand
A est noethérien à gauche.

87
2.4.2 Classes de liaison

2.4.2.1 Proposition. Soit A un anneau artinien à gauche. Pour chaque A-module in-
décomposable M , il existe un unique bloc B de A tel que BM = M . L’idempotent de bloc
correspondant agit sur M par l’identité. Tout autre bloc de A annule M .

Preuve. Soit ε un idempotent de bloc. La multiplication par ε est un endomorphisme du A-


module M , et on a une décomposition M = εM ⊕ (1 − ε)M . Comme M est indécomposable,
l’un des termes est M et l’autre est 0. Ainsi εM est M ou 0, et dans le premier cas, ε agit par
l’identité sur M .
La somme des idempotents de bloc valant 1, il n’est pas possible que εM soit 0 pour tout
idempotent de bloc ε. Par ailleurs, le produit de deux idempotents de bloc distincts étant nul,
εM ne peut être égal à M que pour un seul idempotent de bloc. 

Dans le contexte de la proposition, le module M est dit appartenir au bloc B. L’idempotent


du bloc B agit sur M par l’identité, les autres idempotents de blocs agissent sur M par 0.
Si un module indécomposable M appartient au bloc B, alors tout facteur de composition de
M appartient aussi à B. Notre but à présent est d’obtenir une réciproque partielle à cette
dernière assertion : nous allons montrer que deux modules principaux indécomposables P et
P 0 appartiennent au même bloc si et seulement s’il existe une suite finie de modules principaux
indécomposables P = P0 , P1 , ..., Pn = P 0 telle que Pj−1 et Pj ont un facteur de composition
commun pour chaque j. Pour cela, il nous faut voir une autre méthode pour définir les blocs
d’un anneau.
Supposons d’abord A semi-simple artinien. La proposition 2.1.2.3 indique que les blocs de A
sont ses composantes simples. De plus, chaque composante simple de A est une composante
isotypique du A-module à gauche régulier, donc est la somme des idéaux à gauche minimaux
dans une classe d’isomorphisme de A-modules simples. Enfin, les idéaux à gauche minimaux
de A sont les modules principaux indécomposables. Ainsi chaque module principal indécom-
posable est inclus dans un bloc de A, et chaque bloc est la somme des modules principaux
indécomposables qu’il contient.
Il se trouve que la phrase précédente est également vraie quand A est un anneau artinien à
gauche général. Une définition supplémentaire est toutefois nécessaire pour énoncer cela avec
précision : on dit que deux idempotents primitifs e et e0 de A sont liés, et on écrit e ∼ e0 , s’il
existe une suite e = f0 , f1 , . . . , fn = e0 d’idempotents primitifs telle que les modules principaux
indécomposables Afj−1 et Afj ont un facteur de composition commun pour tout j. Ainsi ∼
est une relation d’équivalence, appelée liaison, et qui est plus grossière que '. Il n’y a qu’un
nombre fini de classes de liaison dans pi(A), puisqu’il n’y a qu’un nombre fini de classes
d’équivalence pour ' (proposition 2.3.3.4 et exercice (3) du paragraphe 2.2.2).

2.4.2.2 Proposition. Soit A un anneau artinien à gauche.


(i) Soient e un idempotent primitif de A et B un bloc de A. Le module principal indécom-
posable Ae appartient au bloc B si et seulement si Ae ⊆ B.

88
P
(ii) Si E ⊆ pi(A) est une classe de liaison, alors e∈E Ae est un bloc de A. Chaque bloc
de A s’obtient de cette façon, et la classe de liaison est déterminée par le bloc.

Preuve. Soit e ∈ pi(A). Si B est le bloc de A auquel appartient le module principal indécom-
posable Ae, alors Ae = B(Ae) ⊆ B, puisque B est un idéal bilatère. La réciproque est vraie,
car Ae ne peut être inclus que dans un seul bloc. L’assertion (i) est prouvée.
Tout facteur de composition d’un module indécomposable appartient au même bloc que ce
dernier. Ceci implique que si deux modules principaux indécomposables Ae et Af ont un
facteur de composition commun, alors ils appartiennent au même bloc. Par transitivité, deux
modules principaux indécomposables Ae et Af appartiennent au même bloc dès que les idem-
potents primitifs
P e et f sont liés. Le (i) montre ainsi que si E est une classe de liaison dans
pi(A), alors e∈E Ae est inclus dans un bloc de A.
Soit (Ei )i∈I une indexation des classes de liaison dans ; ainsi i∈I Ei . Pour
F
pi(A) pi(A) =
i ∈ I, posons Di = e∈Ei Ae. Ainsi qu’il a été remarqué au paragraphe 2.3.3, le A-module à
P
gauche régulier peut être décomposé comme P somme directe finie de sous-modules principaux
indécomposables. Nous en déduisons que i∈I Di = A, d’où l’existence d’élements ηi ∈ Di
tels que i∈I ηi = 1.
P

Si deux idempotents primitifs e et f ne sont pas liés, alors Ae n’a pas de facteur de composition
commun avec Af ; au vu de la proposition 2.3.4.4 (ii), on a donc f Ae = HomA (Af, Ae) = 0.
On voit ainsi que Di Dj = 0 si i 6= j. Cela entraîne que chaque
P Di est
 un idéal bilatère : en effet,
Di est un idéal à gauche par définition et Di A = Di j∈I Dj = Di Di ⊆ Di . Supposons
avoir une somme nulle i∈I xi = 0, avec xi ∈ Di pour chaque i ∈ I. En utilisant à nouveau
P
l’égalité Di Dj = 0 si i 6= j, nous calculons
! !
X X
xi = η j xi = η i xi = η i xj = 0
j∈I j∈I

pour chaque iL∈ I. Ainsi nous avons une décomposition comme somme directe d’idéaux
bilatères A = i∈I Di .
Nous avons par ailleurs montré que chaque Di est inclus dans un bloc de A. Appliquant la
proposition 2.4.1.2, nous concluons que les Di sont les blocs de A. L’assertion (ii) est prouvée.


Ainsi un anneau artinien à gauche A a autant de blocs qu’il y a autant de classes de liaison
dans pi(A), et deux idempotents primitifs e et f de A sont liés si et seulement si les A-modules
principaux indécomposables Ae et Af appartiennent au même bloc.
Pour conclure, tentons de relier les blocs d’un anneau artinien à gauche A à ceux de son
quotient semi-simpleQA = A/J(A). La décomposition A = i∈I Bi de A en blocs induit une
Q
décomposition A = i∈I Bi , où Bi est l’image de Bi dans A. Il y a plusieurs façons de voir cela
 :
on
Q peut utiliser l’exercice (4) du paragraphe 2.2.2 pour montrer que J(A) = i∈I J(A)∩Bi =
Q

i∈I J(Bi ) ; on peut aussi étudier l’image dans A des idempotents de blocs de A. Cela étant,
la proposition 2.1.2.3 montre que chaque B i est la somme de composantes simples de A.

89
L’ensemble des composantes simples de A est en bijection avec l’ensemble des classes d’iso-
morphisme de A-modules simples, donc avec pi(A)/ ', donc avec pi(A)/ '. L’ensemble des
blocs de A est pour sa part en bijection avec pi(A)/ ∼. Le Q regroupement par paquets des
composantes simples de A donné par la décomposition A = i∈I Bi consiste à voir chaque
classe de liaison dans pi(A) comme union de classes d’équivalence pour '.

Exercices.
(1) Soit A un anneau artinien à gauche et soient e et e0 deux idempotents primitifs de A.
Montrer que les A-modules principaux indécomposables Ae et Ae0 ont un facteur de
composition commun si et seulement s’il existe un idempotent primitif f de A tel que
f Ae 6= 0 6= f Ae0 . (Indication : utiliser la proposition 2.3.4.4.)
(2) Soit A un anneau artinien à gauche. Montrer que deux A-modules indécomposables M
et M 0 appartiennent au même bloc si et seulement s’il existe une suite finie de modules
indécomposables M = M0 , M1 , ..., Mn = M 0 telle que Mj−1 et Mj ont un facteur de
composition commun pour chaque j.
(3) Montrer qu’un anneau commutatif artinien est isomorphe à un produit d’anneaux lo-
caux. (Indication : soit B un bloc d’un anneau commutatif artinien. Alors B est lui-
même commutatif artinien. L’anneau B/J(B) est donc semi-simple artinien commuta-
tif, donc est un produit de corps. Ce produit est réduit à un seul facteur, car à l’instar
de B, l’anneau B/J(B) ne possède pas d’idempotent autre que 1. Ainsi B/J(B) est
un corps, et on conclut en utilisant la proposition 2.3.1.1.)

90
3 Algèbres

Introduction

Il est bien connu que la réduction des endomorphismes est plus simple quand le corps de base
est algébriquement clos. Il est donc important de savoir se ramener à ce cas. La méthode
conceptuellement la plus simple est de travailler en coordonnées avec des matrices. Il est
toutefois aussi possible de conserver le langage des modules : si K/k est une extension de
corps et si V est un k[X]-module, alors on peut munir le produit tensoriel V(K) = K ⊗k V
d’une structure de K[X]-module.
Les deux premiers chapitres de cours étudiaient des objets définis « au-dessus de Z », sans
référence à un corps de base k. Nous voulons maintenant avoir un contrôle sur ce corps et
pouvoir le faire varier. Pour cela, nous devons remplacer la notion d’anneau par celle de k-
algèbre : une k-algèbre est un anneau A muni d’une structure de k-espace vectoriel compatible.
La théorie est ainsi faite que tout A-module est automatiquement un k-espace vectoriel sur
lequel A agit par applications k-linéaires. Tout ce qui a été vu dans les chapitres précédents
reste vrai, à condition de remplacer l’additivité (c’est-à-dire la Z-linéarité) par la k-linéarité.
Un exemple est la théorie des représentations des groupes. Soient G un groupe, k un corps et n
un entier naturel. Une représentation de degré n de G sur k est la donnée d’un homomorphisme
de groupes de G dans GLn (k). Le corps k est donné séparément de G et il est important de
pouvoir le traiter comme une variable. En définissant la k-algèbre kG du groupe, on ramène
l’étude des représentations de G sur k à l’étude des kG-modules de type fini.
Considérons une k-algèbre A et un A-module M . Pour toute extension de corps K/k, on peut
munir A(K) = K ⊗k A d’une structure de K-algèbre et M(K) = K ⊗k M d’une structure de
A(K) -module. Des questions intéressantes sont : qu’est-ce que le passage de k à K rend plus
simple quand K est algébriquement clos ? Le A(K) -module M(K) détermine-t-il le A-module
M à isomorphisme près ? À quelle condition la simplicité de M entraîne-t-elle celle de M(K) ?
Tout A(K) -module simple est-il de la forme M(K) ? À quelle condition sur A l’algèbre A(K)
est-elle semi-simple pour toute extension K/k ?
L’examen de la dernière question est particulièrement intéressant, car il conduit au théorème
principal de Wedderburn, qui est l’analogue pour les algèbres de la décomposition de Jordan-
Dunford pour les endomorphismes d’un espace vectoriel de dimension finie.

Dans tout ce chapitre, k sera un anneau commutatif différent de {0}.


Ce sera un corps à partir du paragraphe 3.2.2.

3.1 k-linéarité

3.1.1 Préliminaires

Donnons-nous un anneau commutatif k. Dans ce chapitre, les objets que nous regarderons
seront tous des k-modules. Nous les regarderons même comme des k-k-bimodules, k agissant
à droite de la même façon qu’il agit à gauche (il faut impérativement que k soit commutatif

91
pour pouvoir faire cela). Cela permet d’utiliser les constructions péniblement mises au point
dans le paragraphe 1.4.3.
Soient donc M et N des k-modules. Alors ce sont des k-k-bimodules. Une application f :
M → N est un homomorphisme de k-modules si et seulement si c’est un homomorphisme
de k-k-bimodules. De plus, le groupe Homk (M, N ) se trouve alors muni d’une structure de
k-k-bimodule, l’action étant donnée par

(λf )(m) = f (mλ) = f (λm) = λf (m) = f (m)λ = (f λ)(m)

pour f ∈ Homk (M, N ), λ ∈ k, m ∈ M . Le produit de composition des homomorphismes est


alors une opération k-bilinéaire entre les espaces Homk .
Tout aussi passionnant est le comportement du produit tensoriel : M ⊗k N est un k-k-bimodule,
l’action de λ ∈ k sur un tenseur pur m ⊗ n étant donnée par

λ(m ⊗ n) = (λm) ⊗ n = (mλ) ⊗ n = m ⊗ (λn) = m ⊗ (nλ) = (m ⊗ n)λ

pour (m, n) ∈ M × N , l’action sur un tenseur général i∈I mi ⊗ ni se déduisant de cette


P
formule par additivité. Ce calcul présente deux intérêts mineurs. Il montre d’une part que
l’action à gauche de k sur M ⊗ N coïncide avec l’action à droite ; et d’autre part, qu’il existe
un isomorphisme canonique M ⊗k N ∼ = N ⊗k M qui envoie m ⊗ n sur n ⊗ m pour chaque
(m, n) ∈ M × N . Ici encore, il faut pouvoir regarder M et N à la fois comme des k-modules
à gauche et à droite, d’où l’importance que k soit commutatif.

Exercice. Soit k un anneau commutatif et soient M et N deux k-modules. Construire une


application naturelle γ : N ⊗k Homk (M, k) → Homk (M, N ) telle que γ(n⊗f ) = m 7→ f (m)n
pour chaque tenseur pur n ⊗ f dans le domaine de γ. Montrer que γ est un isomorphisme si
M ou N est un k-module projectif de type fini.

3.1.2 Algèbres

k-algèbre : une k-algèbre est un anneau A muni d’un homomorphisme d’anneaux de k dans le
centre Z(A) de A.
Notons ψA : k → Z(A) l’homomorphisme d’anneaux donné avec A. Alors A est un k-module,
l’action de λ ∈ k étant donné par la multiplication à gauche ou à droite par ψA (λ). Ainsi
λ(ab) = (λa)b = (aλ)b = a(λb) = a(bλ) = (ab)λ pour tout (λ, a, b) ∈ k × A2 ; on a donc une
compatibilité entre la structure de k-module et la structure d’anneau de A.
Un homomorphisme de k-algèbres f : A → B est un homomorphisme d’anneaux et de k-
modules. Il revient au même d’exiger que le diagramme suivant commute :
 /A
ψA 5 Z(A)
k f
) 
ψB  / B.
Z(B)

92
3.1.2.1 Exemples.
(1) Un anneau est une Z-algèbre.
(2) L’anneau k est une k-algèbre.
(3) Si M est un k-module, alors Endk (M ) est une k-algèbre.
(4) Si A est une k-algèbre, alors Aop est aussi une k-algèbre : on garde la structure de
k-module (ou de k-k-bimodule) et on prend la structure d’anneau de Aop .
(5) Si A est une k-algèbre et n un entier strictement positif, alors Matn (A) est une k-
algèbre.
(6) Soient A et B deux k-algèbres. Alors le produit tensoriel A ⊗k B est un k-module (voir
le paragraphe 3.1.1). Par ailleurs, A ⊗k B hérite d’une structure d’anneau quand on le
regarde comme un quotient de A ⊗Z B (le sous-groupe de A ⊗Z B engendré par

{aψA (λ) ⊗ b − a ⊗ ψB (λ)b | (a, λ, b) ∈ A × k × B}

est un idéal). On obtient ainsi une structure d’algèbre sur A⊗k B. On peut alors énoncer
des résultats à ceux du paragraphe 1.4.2. Notamment, il existe des homomorphismes
canoniques de k-algèbres de A et B dans A ⊗k B, et pour tout A-module M et tout
B-module N , on peut munir M ⊗k N d’une structure de A ⊗k B-module.
(7) Soient A et B deux k-algèbres et m et n deux entiers strictement positifs. Il existe alors
un isomorphisme Matm (A) ⊗k Matn (B) ∼ = Matmn (A ⊗k B).

Soit A une k-algèbre. Chaque A-module M est alors automatiquement un k-module, l’action
de λ ∈ k étant donnée par celle de ψA (λ) ∈ A. L’action de k commute alors à l’action de A,
et il n’y a pas d’inconvénient à regarder M comme un k-k-bimodule. Tout homomorphisme
de A-modules est automatiquement un homomorphisme de k-modules.
De façon équivalente, on peut définir un A-module à gauche comme la donnée d’un k-module
M et d’un homomorphisme de k-algèbres de A dans Endk (M ). On définit alors un A-module
à droite comme étant un Aop -module à gauche.
Prenons à présent deux k-algèbres A et B. Au paragraphe 1.4.3, nous avions appelé A-B-
bimodule un A ⊗Z B op -module à gauche. Dans le contexte actuel, cette définition présente
l’inconvénient que la structure de k-module définie via l’action de A ne coïncide a priori
pas avec le structure de k-module définie via l’action de B. Pour pallier ce problème, nous
appellerons A-B-bimodule un A ⊗k B op -module à gauche. Tout fonctionne alors de façon
sympathique : on a une action à gauche de A, une action à droite de B, une action de k
pouvant être vue comme une action à gauche ou à droite, et toutes ces actions commutent
joyeusement.
Soient A une k-algèbre, L un A-module à droite, et M et N des A-modules à gauche. Alors
HomA (M, N ) est non seulement un sous-groupe abélien de HomZ (M, N ), mais aussi un sous-
module du k-module Homk (M, N ). Cela signifie d’une part que tout homomorphisme de A-
modules de M dans N est automatiquement k-linéaire, et d’autre part que l’ensemble des
homomorphismes A-linéaires de M dans N est stable par multiplication par les éléments de
k. De la même façon, L ⊗A M est non seulement un quotient du Z-module L ⊗Z M , mais

93
aussi un quotient du k-module L ⊗k M (dans les deux cas, on quotiente par le sous-module
engendré par
{(la) ⊗ m − l ⊗ (am) | (l, a, m) ∈ L × A × M }).
On peut alors reprendre toutes les constructions des paragraphes 1.4.3 et 1.4.4 et les cuisiner
à la sauce k-linéaire.
Signalons pour conclure deux points de terminologie. Nous avions évoqué la notion de catégorie
additive au paragraphe 1.1.4 : c’est une catégorie dont les ensembles d’homomorphismes sont
des groupes abéliens, dont les produits de composition sont des opérations Z-bilinéaires, et
dans laquelle on peut toujours faire des sommes directes finies. De la même manière, on
parle de catégorie k-linéaire quand les ensembles d’homomorphismes sont des k-modules et
les produits de composition sont des opérations k-bilinéaires, k étant toujours ici commutatif.
Un foncteur F : A → B entre deux catégories k-linéaires est dit k-linéaire si pour chaque
couple (M, N ) d’objets de A , l’application F : HomA (M, N ) → HomB (F (M ), F (N )) induite
au niveau des groupes est k-linéaire.

Exemples. Soit A une k-algèbre.


(1) La catégorie des A-modules à gauche est une catégorie k-linéaire.
(2) Pour chaque A-module à gauche X, le foncteur HomA (X, ?) est un foncteur k-linéaire
covariant exact à gauche de la catégorie des A-modules à gauche vers la catégorie des
k-modules. Pour chaque A-module à gauche Y , le foncteur HomA (?, Y ) est un foncteur
k-linéaire contravariant exact à gauche de la catégorie des A-modules à gauche vers la
catégorie des k-modules.
(3) Pour chaque A-module à gauche X, le foncteur Ext1A (X, ?) est un foncteur k-linéaire
covariant de la catégorie des A-modules à gauche vers la catégorie des k-modules.
Pour chaque A-module à gauche Y , le foncteur Ext1A (?, Y ) est un foncteur k-linéaire
contravariant de la catégorie des A-modules à gauche vers la catégorie des k-modules.
(4) Pour chaque A-module à droite X, le foncteur X⊗A ? est un foncteur k-linéaire co-
variant exact à droite de la catégorie des A-modules à gauche vers la catégorie des
k-modules. Pour chaque A-module à gauche Y , le foncteur ? ⊗A Y est un foncteur k-
linéaire covariant exact à droite de la catégorie des A-modules à droite vers la catégorie
des k-modules.

3.1.3 Changement de base

On choisit un anneau de base commutatif k. Soit K une k-algèbre commutative, autrement


dit un anneau commutatif muni d’un homomorphisme de k dans K. À tout k-module W , on
associe le K-module W(K) = K ⊗k W . On dispose alors d’un homomorphisme de k-modules
ιW : m → 1 ⊗ m de W dans W(K) . Dans l’autre sens, chaque K-module V peut être vu comme
un k-module via l’homomorphisme d’anneaux de k dans K. Étant donnés V et W comme
ci-dessus, le paragraphe 1.4.4 affirme que l’application f 7→ f ◦ ιW est un isomorphisme de
HomK (W(K) , V ) sur Homk (W, V ). (Nous devrions noter indK k W plutôt que W(K) pour suivre
les notations du paragraphe 1.4.4.)

94
Soient M et N deux k-modules. L’application f 7→ ιN ◦f est un homomorphisme de k-modules

de Homk (M, N ) dans Homk M, N(K) . Par ailleurs, Homk M, N(K) = HomK M(K) , N(K)
 

est muni d’une structure de K-module. Nous voyons ainsi qu’il existe un homomorphisme
naturel de K-modules
 
α : Homk (M, N ) (K) → HomK M(K) , N(K)

tel que α ιHomk (M,N ) (f ) ◦ ιM = ιN ◦ f pour chaque f ∈ Homk (M, N ).




3.1.3.1 Proposition. Partons du contexte ci-dessus. Supposons que K soit un k-module


plat et que M soit un k-module de présentation finie. Alors α est un isomorphisme.

Preuve. Considérant k, K et N comme étant fixés, nous écrirons αM pour indiquer que α
dépend de M .
On commence par examiner le cas où M est libre de type fini, disons M = k n . La distributivité
du produit tensoriel sur la somme directe donne alors M(K) ∼= K n , d’où
n
∼ HomK K n , N(K) ∼= N(K) ∼ = (N n )(K) ∼
  
HomK M(K) , N(K) = = Homk (M, N ) (K) .

C’est cette identification que réalise αM , qui est donc bien un isomorphisme ici.
Quand M est de présentation finie, on dispose d’une suite exacte F1 → F0 → M → 0, où F0
et F1 sont des k-modules libres de type fini. La naturalité de α fait qu’on dispose alors d’un
diagramme commutatif

/ Homk (M, N ) (K) / Homk (F0 , N ) (K) / Homk (F1 , N ) (K)


  
0
αM αF 0 αF1
  
/ HomK M(K) , N(K) / HomK (F0 )(K) , N(K) / HomK (F1 )(K) , N(K) .
  
0

L’exactitude à gauche des foncteurs Homk (?, N ) et HomK ?, N(K) et l’exactitude du foncteur


K⊗k ? implique que les lignes de ce diagramme sont exactes. Les deux applications αF0 et αF1
sont des isomorphismes. Une variante du lemme des cinq (exercice (3) du paragraphe 1.1.3)
nous dit alors que αM est un isomorphisme. 

Reprenons notre k-algèbre commutative K. Le foncteur ?(K) d’extension des scalaires agit
aussi sur une algèbre et ses modules. De fait, si A est une k-algèbre, alors A(K) = K ⊗k A
est une k-algèbre, ιA : A → A(K) est un homomorphisme de k-algèbres, et l’homomorphisme
λ 7→ λ ⊗ 1 de K dans A(K) munit cette dernière d’une structure de K-algèbre. Si en outre M
est un A-module, alors M(K) = K ⊗k M est un K ⊗k A = A(K) -module.
Dans cette situation, prenons un second A-module N . Alors l’homomorphisme α construit
précédemment se restreint en un homomorphisme de K-modules
 
β : HomA (M, N ) (K) → HomA(K) M(K) , N(K) ,

et on peut énoncer un résultat analogue à la proposition précédente.

95
3.1.3.2 Proposition. Partons du contexte ci-dessus. Supposons que K soit un k-module
plat et que M soit un A-module de présentation finie. Alors β est un isomorphisme.

Concluons ce paragraphe par quelques remarques. Nous nous sommes ici principalement atta-
chés à décrire le changement de base quand K est une k-algèbre commutative. Ce cadre couvre
deux situations courantes. La première est quand k est un corps et K est une extension de
k ; alors le k-module K est automatiquement libre, donc plat. Prendre pour K la clôture al-
gébrique de k permet alors de rendre les choses plus simples, mais demande de savoir ensuite
redescendre sur k. La seconde situation est celle où k est un anneau intègre, par exemple Z
ou Zp , et où K est soit un quotient par un idéal maximal, soit le corps des fractions de k.
L’idée ici est de se ramener à un corps, mais K peut ne pas être toujours plat, ce qui empêche
d’utiliser la proposition 3.1.3.2.
On peut également examiner ces constructions quand K n’est pas commutatif. On perd alors
la possibilité de dire qu’on regarde des K-algèbres, mais la proposition de changement de base
reste valable dans ce cas, avec la même preuve (voir [7], (2.38) par exemple). L’exploration de
cette situation peut s’avérer payante ; voir par exemple le théorème 3.3.1.3.

Exercice. Soit k un anneau commutatif, soit K une k-algèbre commutative, et soient M


et N deux k-modules. Définir un isomorphisme naturel de K-modules

M ⊗k N (K) ∼

= M(K) ⊗K N(K) .

3.1.4 Algèbres symétriques et extérieures

Soient k un corps et V un k-espace vectoriel.


On pose T0 V = k et T1 V = V . Pour chaque entier n ≥ 2, on pose Tn V = Tn−1 V ⊗k
V . Grâce à l’associativité du produit tensoriel (proposition 1.4.3.2), nous pouvons oublier le
parenthésage et écrire plus simplement

Tn V = V ⊗k · · · ⊗k V .
| {z }
n facteurs

Un élément de Tn V de la forme v1 ⊗ · · · ⊗ vn , où (v1 , . . . , vn ) ∈ V n , est appelé tenseur pur.


Chaque élément de Tn V peut s’écrire comme une somme finie de tenseurs purs.
Pour tout (m, n) ∈ N2 , l’isomorphisme naturel Tm V ⊗k Tn V ∼ =T
m+n
V correspond à une
application bilinéaire de Tm V × Tn V dans Tm+n V , qui se comporte de la façon suivante sur
les tenseurs purs :

(v1 ⊗ · · · ⊗ vm , w1 ⊗ · · · ⊗ wn ) 7→ v1 ⊗ · · · ⊗ vm ⊗ w1 ⊗ · · · ⊗ wn .

Enfin, on pose T V = n∈N Tn V . Les applications Tm V × Tn V → Tm+n V peuvent être


L
combinées pour définir une application bilinéaire de T V × T V dans T V . Ainsi T V devient

96
une k-algèbre. L’élément neutre pour la multiplication est 1 ∈ k = T0 V . L’algèbre T V est
N-graduée 13 . Enfin T V est engendrée par V = T1 V .
Soit I l’idéal de T V engendré par les éléments de la forme v ⊗ w − w ⊗ v, avec (v, w) ∈ V 2 .
Étant engendré par des éléments homogènes
L de degrén2, l’idéal I est homogène, ce qui signifie
n
que I = n∈N (I ∩ T V ) ; L en fait, I = n≥2 (I ∩ T V ). L’algèbre quotient S V = (T V )/I
L
est donc graduée : S V = n n n ∼ n n
n∈N S V , avec S V = (T V + I)/I = T V /(T V ∩ I). Le
produit dans S V est désigné par la juxtaposition des opérandes. On a S0 V = k et S1 V = V .
L’algèbre S V est engendrée par S1 V = V ; comme ces générateurs commutent entre eux, S V
est commutative.
Soit J l’idéal de T V engendré par les éléments de la forme L v⊗v, avec v ∈ V . Étant engendré par
n
des éléments homogènes de degré 2, l’idéal J vérifie J Vn n≥2 (J ∩VT
= V ). L’algèbre quotient
V = (T V )/J est donc graduée : V = V , avec n
V = (Tn V + J)/J ∼
V V L
n∈N =
n n V0
V1 V /(T V ∩ J). LeVproduit dans V estV1désigné par le symbole ∧.
T On a V = k et
V
V = V . L’algèbre V est engendrée par V = V . Pour (v, w) ∈ V 2 , nous avons v ∧v = 0

et v ∧ w = −w ∧ v. Si x et y sont deux éléments homogènes de V , de degrés respectifs |x|


V
et |y|, alors x ∧ y = (−1)|x||y| y ∧ x.
Ces constructions sont fonctorielles : une application linéaire f : V → W V induit des
V homomor-
phismes d’algèbres graduées V T(f ) : T V → T W , S(f ) : S V → S W et (f ) : V → W .
V
Concrètement, l’application (f ) par exemple envoie un p-vecteur pur v1 ∧ · · · ∧ vp sur le
p-vecteur f (v1 ) ∧ · · · ∧ f (vp ).

3.1.4.1 Proposition. Soient k un corps, V et W deux k-espaces vectoriels, n ≥ 1 un


entier.
(i) Pour toute application n-linéaire f : V n → W , il existe une unique application linéaire
f˜ : Tn V → W telle que f˜(v1 ⊗ · · · ⊗ vn ) = f (v1 , . . . , vn ) pour chaque (v1 , . . . , vn ) ∈ V n .
(ii) Pour toute application n-linéaire symétrique f : V n → W , il existe une unique ap-
plication linéaire fˆ : Sn V → W telle que fˆ(v1 · · · vn ) = f (v1 , . . . , vn ) pour chaque
(v1 , . . . , vn ) ∈ V n .
n
(iii) Pour toute application
ˆ Vn n-linéaire alternéeˆ f : V → W , il existe une unique applica-
tion linéaire f : V → W telle que f (v1 ∧ · · · ∧ vn ) = f (v1 , . . . , vn ) pour chaque
n
(v1 , . . . , vn ) ∈ V .

Preuve. L’assertion (i) se démontre par récurrence sur n à partir de la propriété universelle
du produit tensoriel. Les détails de la preuve sont vraisemblablement pénibles à écrire...
Plaçons-nous dans les hypothèses de (ii). Montrons d’abord l’unicité de fˆ. Si fˆ satisfait aux
L
13. Un anneau A est dit N-gradué s’il s’écrit comme une somme directe A = n∈N An de sorte que chaque
An est un sous-groupe additif de A, que 1 ∈ A0 , et que Am An ⊆ Am+n . Les éléments de An sont dits homogènes
de degré n. La dernière condition signifie donc que le produit de deux éléments homogènes est homogène, le
degré du produit étant la somme des degrés des facteurs.

97
conditions requises, alors l’application de Tn V dans W obtenue par composition

Tn V
'
7W


Sn V

doit coïncider avec l’application f˜ de l’assertion (i). Ainsi si fˆ existe, elle doit s’obtenir par
factorisation de f˜. Réciproquement pour montrer l’existence de fˆ, il suffit de montrer que f˜
se factorise à travers la surjection canonique de Tn V sur Sn V .
Tout élément de I est somme d’éléments de la formeLx ⊗ (u ⊗ v − v ⊗ u) ⊗ y, avec (u, v) ∈ V 2 et
(x, y) ∈ (T V )2 . Utilisant la décomposition T V = p∈N Tp V , on constate que tout élément
de I ∩ Tn V est somme d’éléments de la forme x ⊗ (u ⊗ v − v ⊗ u) ⊗ y, avec (u, v) ∈ V 2 ,
(x, y) ∈ Tp V × Tq V et p + q = n − 2 ; on peut en outre exiger ici que x et y soient des
tenseurs purs. La symétrie de f fait que f˜ s’annule sur chaque tel élément. Ainsi f˜ s’annule
sur I ∩ Tn V . On obtient alors fˆ par passage au quotient. Ceci achève la preuve de l’assertion
(ii).
La preuve de (iii) est analogue à la preuve de (ii). La seule différence consiste à se souvenir
qu’une application n-linéaire alternée (c’est-à-dire qui est nulle chaque fois que deux des argu-
ments sont égaux) est automatiquement antisymétrique ; c’est là un argument classiquement
utilisé dans la construction du déterminant. 

3.1.4.2 Théorème. Soient k un corps, n ≥ 1 un entier, V un k-espace vectoriel, (ei )i∈I


une base de V , ≤ un ordre total sur I.
(i) ei1 ⊗ · · · ⊗ ein (i1 , . . . , in ) ∈ I n est une base de Tn V .


(ii) ei1 · · · ein i1 ≤ · · · ≤ in dans I est une base de Sn V .




(iii) ei1 ∧ · · · ∧ ein i1 < · · · < in dans I est une base de n V .


 V

Preuve. Une remarque pour commencer : une base est une famille, et non pas un ensemble.
L’énoncé de ce théorème est donc légèrement incorrect ; l’abus d’écriture commis n’a d’autre
but que de permettre l’usage de la notation {· · · | · · · } si commode...
L’assertion (i) se montre par récurrence sur n, en utilisant la distributivité du produit tensoriel
sur la somme directe (proposition 1.4.1.4).
L’image d’une famille génératrice par une application linéaire surjective étant génératrice,
l’assertion (i) implique que
ei1 · · · ein (i1 , . . . , in ) ∈ I n


engendre Sn V . Comme S V est une algèbre commutative, l’élément ei1 · · · ein est laissé stable
par permutation des indices. On peut ainsi se restreindre aux suites (i1 , . . . , in ) croissantes sans
perdre le caractère générateur de notre famille de vecteurs. Considérons maintenantPl’algèbre
A des polynômes à coefficientsPdans k en la famille d’indéterminées (Ei )i∈I . À v = i∈I ai ei ,
associons le polynôme V = i∈I ai Ei . La proposition 3.1.4.1 (ii) montre l’existence d’une

98
application linéaire fˆ : Sn V → A telle que fˆ(v1 · · · vn ) = V1 · · · Vn pour chaque (v1 , . . . , vn ) ∈
V n . En particulier, fˆ(ei1 · · · ein ) = Ei1 · · · Ein . La famille des monômes
Ei1 · · · Ein i1 ≤ · · · ≤ in dans I


étant libre dans A , notre famille de vecteurs de Sn V est libre. Nous avons ainsi prouvé (ii).
La preuve de (iii) commence comme la preuve de (ii) : on utilise l’égalité eiσ(1) ∧ · · · ∧ eiσ(n) =
sgn(σ)ei1 ∧ · · · ∧ein , valable pour chaque suite (i1 , . . . , in ) ∈ I n et chaque permutation σ ∈ Sn ,
pour réordonner les indices et conclure que la famille
ei1 ∧ · · · ∧ ein i1 ≤ · · · ≤ in dans I

Vn
engendre V . La sous-famille obtenue en se restreignant aux suites (i1 , . . . , in ) strictement
croissantes est encore génératrice, car les vecteurs éliminés sont nuls. Maintenant, soit ei ∈ V ∗
la forme linéaire qui vaut 1 en ei et 0 en ej pour j 6= i. Soit i = (i1 , . . . , in ) une suite
strictement V croissante d’indices. La proposition 3.1.4.1 (iii) montre l’existence d’une forme
linéaire e : n V → k telle que
i
X
ei (v1 ∧ · · · ∧ vn ) = ei1 (vσ(1) ) · · · ein (vσ(n) )
σ∈Sn

pour chaque (v1 , . . . , vn ) ∈ V n . Pour chaque suite strictement croissante j = (j1 , . . . , jn )


d’indices, ei (ej1 ∧ · · · ∧ ejn ) vaut 1 si j = i et 0 sinon. L’existence de toutes ces formes linéaires
ei impose à la famille
ei1 ∧ · · · ∧ ein i1 < · · · < in dans I


d’être libre. Ceci termine la preuve de (iii). 

3.1.4.3 Corollaire. Soient k un corps et V et W deux k-espaces vectoriels. Il existe des


isomorphismes canoniques d’espaces vectoriels gradués
S(V ⊕ W ) ∼
= S V ⊗k S W et (V ⊕ W ) ∼
V V V
= V ⊗k W.
En particulier, pour chaque n ∈ N, on a
Sn (V ⊕ W ) ∼ (V ⊕ W ) ∼
M p M Vp
S V ⊗k Sq W
Vn Vq
= et = V ⊗k W.
p+q=n p+q=n

Preuve. Les injections de V et W dans V ⊕ W fournissent par fonctorialité des homomor-


phismes d’algèbres f : S V → S(V ⊕ W ) et g : S W → S(V ⊕ W ). En prenant des bases
de V et W et en utilisant le théorème précédent, on vérifie sans difficulté que l’application
i∈I xi ⊗ yi 7→ f (x)g(y) de S V ⊗k S W dans S(V ⊕ W ) est un isomorphisme d’espaces
P
vectoriels. Un raisonnement analogue fournit le résultat pour les algèbres extérieures. 

Remarque. L’isomorphisme S(V ⊕ W ) ∼ = S V ⊗k S W contruit dans la preuve du corol-


laire 3.1.4.3 est un isomorphisme de k-algèbres ; cela se voit par exemple en utilisant (l’ana-
logue pour les algèbres de) le corollaire 1.4.2.2. Le cas des algèbres V
extérieures
V est plus sub-
til : pour avoir un isomorphisme d’algèbres, il faut munir l’espace V ⊗k W du produit
(x ⊗ y)(z ⊗ t) = (−1)|y||z| xz ⊗ yt, où y et z sont des éléments homogènes de degrés |y| et |z|,
respectivement.

99
3.1.4.4 Applications des algèbres symétriques et extérieures.
(1) Soit V un k-espace vectoriel de dimension n. Alors n V est uneVdroite vectorielle.
V
Chaque endomorphisme
Vn f ∈ Endk (V ) induit un endomorphisme n (f ) de la droite
vectorielle V ; le rapport de cet homomorphisme n’est autre que le déterminant de
f . En effet, prenant une base (e1 , . . . , en ) de V et la base duale (e1 , . . . , en ) de V ∗ , on
calcule
Vn
(f )(e1 ∧ · · · ∧ en ) = f (e1 ) ∧ · · · ∧ f (en )
n n
!
X Y
ip
= he , f (ep )i ei1 ∧ · · · ∧ ein
i1 ,...,in =1 p=1
n
!
X Y
= heσ(p) , f (ep )i eσ(1) ∧ · · · ∧ eσ(n)
σ∈Sn p=1
n
!
X Y
σ(p)
= sgn(σ) he , f (ep )i e1 ∧ · · · ∧ en
σ∈Sn p=1

= det(f ) e1 ∧ · · · ∧ en .

La formule det(f ◦g) = det(f ) det(g) s’obtient alors gratuitement en utilisant la foncto-
rialité de la construction. Les formules de Binet-Cauchy trouvent également une inter-
prétation naturelle dans ce cadre. Ainsi l’algèbre extérieure est une manière intrinsèque
de définir les déterminants, sans utiliser de coordonnées ou de base.
(2) Soit V un espace vectoriel de dimension finie n. Soit (e1 , . . . , en ) une base de V , soit
(e1 , . . . , en ) la base duale de V ∗ . Alors l’application P (X1 , . . . , Xn ) 7→ P (e1 , . . . , en )
de l’algèbre des polynômes k[X1 , . . . , Xn ] dans S V ∗ est un isomorphisme de k-algèbres
graduées. Ainsi S V ∗ peut être regardée comme la version sans coordonnée d’une algèbre
de polynômes. En outre quand k est infini, S V ∗ s’identifie à l’algèbre des fonctions
polynomiales sur V (à cet égard, on observera que les éléments de V ∗ sont bien des
fonctions sur V ).

Soit k un corps et V un k-espaceVvectoriel. Pour V simplifier les notations, nous écrirons ⊗ au


lieu de ⊗k , Sp au lieu de Sp V , et p au lieu de p V pour chaque entier naturel p. Fixons un
entier n ≥ 1. Pour 0 ≤ p ≤ n − 1, définissons des applications linéaires

dp : Sn−p−1 ⊗ p+1 → Sn−p ⊗ p et δp : Sn−p ⊗ p → Sn−p−1 ⊗ p+1


V V V V

par les formules


p+1
X
dp (v1 · · · vn−p−1 ⊗ w1 ∧ · · · ∧ wp+1 ) = (−1)i+1 v1 · · · vn−p−1 wi ⊗ w1 ∧ · · · ∧ w
ci ∧ · · · ∧ wp+1
i=1
n−p
X
δp (v1 · · · vn−p ⊗ w1 ∧ · · · ∧ wp ) = v1 · · · vbi · · · vp ⊗ vi ∧ w1 ∧ · · · ∧ wp ,
i=1

où le chapeau signifie que le facteur est omis.

100
3.1.4.5 Lemme. Les applications dp et δp sont bien définies par les formules ci-dessus.
Elles vérifient les équations
dp−1 ◦ dp = δp+1 ◦ δp = 0 et dp ◦ δp + δp−1 ◦ dp−1 = n idSn−p ⊗ Vp .

Preuve. L’expression
p+1
X
(−1)i+1 v1 · · · vn−p−1 wi ⊗ w1 ∧ · · · ∧ w
ci ∧ · · · ∧ wp+1
i=1
est multilinéaire en (v1 , . . . , vn−p−1 , w1 , . . . , wp+1 ), symétrique en (v1 , . . . , vn−p−1 ) et alternée
en (w1 , . . . , wp+1 ). Les propriétés universelles des différents avatars du produit tensoriel en-
traînent alors l’existence et l’unicité de dp . On montre de même l’existence et l’unicité de δp .
Quand on applique δp+1 ◦ δp à v1 · · · vn−p ⊗ w1 ∧ · · · ∧ wp , on obtient
n−p
X
v1 · · · vbi · · · vbj · · · vn−p ⊗ vi ∧ vj ∧ w1 ∧ · · · ∧ wp
i,j=1
i6=j
X
= v1 · · · vbi · · · vbj · · · vn−p ⊗ (vi ∧ vj + vj ∧ vi ) ∧w1 ∧ · · · ∧ wp ;
| {z }
1≤i<j≤n−p
0
ainsi δp+1 ◦ δp = 0. La preuve de dp−1 ◦ dp = 0 est du même genre.
Enfin on calcule l’image de v1 · · · vn−p ⊗ w1 ∧ · · · ∧ wp par dp ◦ δp :
n−p
X n−p
XX p
v1 · · · vbi · · · vn−p vi ⊗w1 ∧· · ·∧wp + (−1)j v1 · · · vbi · · · vn−p wj ⊗vi ∧w1 ∧· · ·∧ w
cj ∧· · ·∧wp
i=1 i=1 j=1

et par δp−1 ◦ dp−1 :


n−p
XX p
(−1)j+1 v1 · · · vbi · · · vn−p wj ⊗ vi ∧ w1 ∧ · · · ∧ w
cj ∧ · · · ∧ wp
i=1 j=1
p
X
+ (−1)j+1 v1 · · · vn−p ⊗ wj ∧ w1 ∧ · · · ∧ w
cj ∧ · · · ∧ wp .
| {z }
j=1
(−1)j+1 w1 ∧···∧wp

De là, on obtient facilement la dernière équation. 

3.1.4.6 Théorème (complexes de Koszul). Si k est de caractéristique zéro, alors pour


tout n > 0 les deux suites
V dn−1 dn−2 d1 V d0 n V0
0 → S0 ⊗ n −−−→ S1 ⊗ n−1 −−−→ · · · −→ Sn−1 ⊗ 1 −→ S ⊗
V
→0
V δ0 n−1 V1 δ1 δn−2 δn−1
0 → Sn ⊗ 0 −→ S −→ · · · −−−→ S1 ⊗ n−1 −−−→ S0 ⊗ n → 0
V V

sont exactes.

Preuve. L’équation dp−1 ◦ dp = 0 donne immédiatement im dp ⊆ ker dp−1 . Dans l’autre sens,
prenons x ∈ ker dp−1 . L’équation dp ◦ δp + δp−1 ◦ dp−1 = n idSn−p ⊗ Vp nous dit qu’alors
nx = (dp ◦ δp )(x) ∈ im dp . Ainsi x ∈ im dp . 

101
3.1.4.7 Remarque. Une suite de modules et d’homomorphismes
dp dp−1
· · · → Ap+1 −→ Ap −−−→ Ap−1 → · · ·

est appelée complexe si dp−1 ◦ dp = 0 ; dans ce cas, im dp ⊆ ker dp−1 . Un tel complexe est
dit acyclique si on a im dp = ker dp−1 pour tout p (autrement dit, si la suite est exacte).
Il est dit homotope à zéro s’il existe une suite d’applications sp+1 : Ap → Ap+1 telle que
dp ◦ sp+1 + sp ◦ dp−1 = idAp . On vérifie facilement qu’un complexe homotope à zéro est
acyclique.
Ce qu’on appelle complexe de Koszul est en fait le premier complexe du théorème 3.1.4.6. Il
est homotope à zéro même quand la caractéristique de k est non-nulle. De fait, choisissons une
base (ei )i∈I de V et munissons I d’un ordre total ≤. Les vecteurs ej1 · · · ejn−p ⊗ ek1 ∧ · · · ∧ ekp
forment une base de Sn−p ⊗ p , les suites d’indices (j1 , . . . , jn−p ) et (k1 , . . . , kp ) étant crois-
V
santes, la première
Vp aun−p−1 sens large et la seconde strictement. On définit une application linéaire
n−p Vp+1
sp+1 : S ⊗ →S ⊗ sur cette base en décrétant que
(
ej2 · · · ejn−p ⊗ ej1 ∧ ek1 ∧ · · · ∧ ekp si j1 < k1 ,
sp+1 (ej1 · · · ejn−p ⊗ ek1 ∧ · · · ∧ ekp ) =
0 sinon.

On vérifie alors sans difficulté que dp ◦ sp+1 + sp ◦ dp−1 = idSn−p ⊗ Vp .

Exercices.
(1) Soit V un espace vectoriel sur un corps k (de caractéristique quelconque, éventuellement
égale à 2). Il existe une application linéaire de V ∗ ⊗V ∗ dans l’espace k V des fonctions sur
V à valeurs dans k, qui envoie un tenseur de la forme f ⊗g sur la fonction v 7→ f (v)g(v).
Décrire l’image et le noyau de cette application linéaire. (Indication : par définition,
l’image est l’ensemble des formes quadratiques sur V . La remarque 3.1.4.4 (2) explique
que notre application linéaire s’identifie à l’homomorphisme canonique de T2 V ∗ sur
S2 V ∗ ; son noyau est donc le sous-espace vectoriel engendré par les éléments de la
forme f ⊗ g − g ⊗ f . On pourra aussi comparer avec le complexe de Koszul
d d
S2 V ∗ → 0,
V2
0→ V ∗ −→
1
V ∗ ⊗ V ∗ −→
0

qui est exact d’après la remarque 3.1.4.7).


(2) Soit V un espace vectoriel de dimension p, soit n un entier naturel.VCalculer la dimen-
sion de Sn V et égalités (a priori douteuses) (−1)n n V = Sn (−V ) et
Vn
de V . Les
n Vn
n
(−1) S V = (−V ) ont-elles une chance d’être vraies au niveau des dimensions ?

3.2 Résultats classiques

3.2.1 Représentations d’une algèbre

Représentation matricielle : soit A une k-algèbre et n ≥ 1 un entier. Une représentation


matricielle de A de degré n est un homomorphisme de k-algèbres de A dans l’algèbre Matn (k)
des matrices n × n à coefficients dans k.

102
Exemple. Une représentation matricielle de degré n de l’algèbre k[T ] est la donnée d’une
matrice X ∈ Matn (k). De fait, la donnée de X équivaut à celle de l’homomorphisme d’algèbres
P (T ) 7→ P (X) de k[T ] dans Matn (k).

L’algèbre Matn (k) agit par multiplication à gauche sur l’ensemble kcn des vecteurs colonnes
de taille n à coefficients dans k ; nous avons ainsi un isomorphisme d’algèbres Matn (k) ∼ =
Endk (kcn ). De même, l’algèbre Matn (k) agit par multiplication à droite sur l’ensemble kln des
vecteurs lignes ; d’où un isomorphisme d’algèbres Matn (k)op ∼ = Endk (kln ).
Soit A une k-algèbre et n ≥ 1 un entier. La donnée d’une représentation matricielle de A
de degré n permet de munir kcn d’une structure de A-module à gauche et de munir kln d’une
structure de A-module à droite. Réciproquement, la donnée d’un A-module à gauche M fournit
une représentation matricielle de A dès que le k-module sous-jacent à M est libre de rang fini ;
cette représentation dépend du choix d’une base du k-module M . De même, la donnée d’un
A-module à droite N fournit une représentation matricielle de A dès que le k-module sous-
jacent à N est libre de rang fini ; cette représentation matricielle dépend du choix d’une base
du k-espace vectoriel N . Ceci nous amène à la définition suivante.
Représentation : soit A une k-algèbre. Une représentation de A est un A-module M (à gauche
ou à droite) tel que le k-module sous-jacent à M soit un k-module projectif de type fini.
Quand k est un anneau principal ou un anneau local, tout k-module projectif de type fini
est libre (propositions 1.2.3.3 et 2.3.1.2). La différence entre représentation et représentation
matricielle se résume alors au fait d’avoir fixé une base. L’avantage d’utiliser des matrices
est que les calculs sont très explicites et que le changement de base s’effectue de manière
transparente.
Il y a quelques différences entre le langage des représentations et celui des modules : à la notion
d’isomorphisme entre deux modules correspond la notion d’équivalence : deux représentations
matricielles X et Y de même degré n d’une k-algèbre A sont dites équivalentes s’il existe
une matrice inversible P ∈ GLn (k) telle que P X(a) = Y (a)P pour tout a ∈ A. Ainsi deux
représentations matricielles provenant d’un même module mais correspondant à deux choix
de bases différents sont équivalentes ; réciproquement, deux représentations matricielles équi-
valentes fournissent des modules isomorphes. Ainsi on peut identifier une classe d’équivalence
de représentations matricielles de A avec une classe d’isomorphisme de A-modules.
Seconde différence de langage : considérons une représentation M de A, vue disons comme
A-module à gauche. Une sous-représentation N de M est un sous-module tel que N et M/N
soient des k-modules projectifs de type fini. (Cette condition supplémentaire est automatique-
ment satisfaite quand k est un corps.) Cette petite distinction entre les notions de sous-module
et de sous-représentation se retrouve dans la notion de simplicité : une représentation irréduc-
tible est une représentation qui n’a pas de sous-représentation non-banale, quand bien même
le module correspondant n’est pas simple (je ne sais pas si cet usage est général, car on entend
parfois dire module irréductible au lieu de module simple).
Dernière définition : soit M une représentation de A, vue comme A-module. Le rang du k-
module sous-jacent à M est appelé le degré de la représentation 14 .
14. Quand le k-module sous-jacent à M est projectif mais n’est pas libre, le rang n’est plus un entier, mais

103
3.2.1.1 Remarque. Soit A une algèbre sur un anneau commutatif k. Dans la discussion
précédente, quand nous regardions les représentations de A comme des A-modules, nous avions
besoin de distinguer entre A-modules à gauche et A-modules à droite. En revanche, il n’y avait
pas ce problème en ce qui concernait les représentations matricielles. Ainsi en passant par ces
dernières, on peut associer un A-module à droite à un A-module à gauche et réciproquement,
sous l’hypothèse que les k-modules sous-jacents soient libres de type fini.
Cette situation rappelle celle examinée dans la remarque 2.3.3.2. Un moyen de la formaliser
est d’introduire une dualité. Quand M est un A-module à gauche, le k-dual N = Homk (M, k)
de M est muni d’une structure de A-module à droite : pour f ∈ N et a ∈ A, l’application
f a = (m 7→ f (am)) de M dans k est un élément de N . Réciproquement, le k-dual M =
Homk (N, k) d’un A-module à droite N est un A-module à gauche (voir l’exemple 1.4.3.1 (3)).
La dualité que nous cherchons est donnée par le foncteur D = Homk (?, k). L’isomorphisme
canonique de bidualité rend D involutif quand on le restreint aux A-modules dont le k-module
sous-jacent est projectif de type fini. Par ailleurs D est un foncteur contravariant : à chaque
homomorphisme de A-modules à gauche f : M → M 0 correspond un homomorphisme dans
l’autre sens D(f ) : D(M 0 ) → D(M ) de A-modules à droite (D(f ) est la transposée de f ).
Quand k est un corps (cette hypothèse rend sans objet les petites subtilités liées à la notion de
sous-représentation), la dualité D échange les notions de sous-module et de module quotient,
préserve les modules simples et les modules complètement réductibles, échange le socle avec la
tête, échange les notions de monomorphisme et d’épimorphisme, et même de monomorphisme
essentiel et d’épimorphisme essentiel, etc.

Dans la suite de ce chapitre, nous supposerons que k est un corps.

3.2.2 Quelques faits sur les algèbres de dimension finie

3.2.2.1 Proposition. Soit k un corps algébriquement clos et soit ∆ une k-algèbre à divi-
sion de dimension finie sur k. Alors ∆ = k1.

Preuve. Soit δ ∈ ∆. L’homomorphisme d’algèbres P 7→ P (δ) de k[X] dans ∆ ne peut pas être
injectif, pour des raisons de dimension. Son noyau est donc un idéal non-nul de k[X]. Soit P
un élément non-nul de degré minimal dans ker ϕ. Supposons que P ne soit pas irréductible.
On écrit alors P = QR, avec Q et R de degré strictement inférieur au degré de P . Alors Q(δ)
et R(δ) ne sont pas nuls. Ils sont donc inversibles dans ∆, et donc leur produit Q(δ)R(δ) est
donc aussi inversible, en contradiction avec P (δ) = 0. Bref P est nécessairement irréductible.
Comme k est algébriquement clos, P est de la forme X − a, avec a ∈ k, et donc δ est a fois
l’unité de ∆. L’homomorphisme d’anneaux a 7→ a1 de k dans ∆ est donc surjectif. Il est aussi
injectif car k n’a pas d’idéal non-banal. 

Remarque. À isomorphisme près, il y a exactement trois algèbres à division de dimension


finie sur le corps R des nombres réels : R lui-même, le corps C des nombres complexes, et
l’algèbre H des quaternions de Hamilton.
une fonction localement constante à valeurs entières sur le spectre de k. Si k est intègre, le spectre de k est un
espace topologique connexe, de sorte qu’aucune ambiguïté ne survient. Pour des détails, voir par exemple [11],
section 7.7.

104
Une k-algèbre de dimension finie est un anneau artinien à gauche et à droite. Si A est une
k-algèbre de dimension finie, alors chaque A-module de type fini est de dimension finie sur
k (puisqu’il est quotient d’un module libre de type fini An ). En particulier, un A-module
simple ou un A-module projectif indécomposable est de dimension finie sur k. La proposition
suivante montre que chaque A-module injectif indécomposable est aussi de dimension finie sur
k. Un phénomène amusant est que si A est de dimension finie, tout module simple, projectif
ou injectif est de k-dimension inférieure à celle de A ; en revanche, rien n’exclut l’existence de
modules indécomposables de dimension arbitrairement grande.

3.2.2.2 Proposition. Soient k un corps et A une k-algèbre de dimension finie.


(i) Soit M un A-module de dimension finie sur k. Alors M est un A-module injectif si et
seulement si son dual D(M ) est un Aop -module projectif.
(ii) L’enveloppe injective d’un A-module de type fini est de type fini.

Preuve. (i) Essentiellement, il s’agit de reprendre les assertions (ii) des propositions 1.1.6.2
et 1.1.6.5 et de voir que le foncteur de dualité D, qui consiste à prendre la transposée des
homomorphismes, renverse les flèches et permet de passer de la caractérisation des modules
projectifs à celle des modules injectifs. Il y a toutefois un problème : les modules L, M et N
intervenant là sont quelconques alors que notre dualité D ne s’applique correctement qu’aux
modules de dimension finie sur k. Faisons donc les choses proprement.
Supposons que M est injectif. Prenons un homomorphisme surjectif de A-modules à droite
D(f )
f : An → D(M ). En dualisant, on obtient une suite exacte courte 0 → M −−−→ D(A)n →
coker D(f ) → 0 de A-modules à gauche. L’injectivité de M nous dit que cette suite est scindée :
M est un facteur direct de D(A)n . Dualisant à nouveau, nous voyons que D(M ) est un facteur
direct de An , et est par conséquent projectif.
Dans l’autre sens, supposons que D(M ) est projectif. Soient I un idéal à gauche de A et
h ∈ HomA (I, M ). La projectivité de D(M ) fait qu’on peut compléter le diagramme

D(M )
f
D(h)
z 
D(A) / D(I) / 0.

Alors h est la restriction à I de l’homomorphisme D(f ) ∈ HomA (A, M ). Le critère (v) de la


proposition 1.1.6.5 dit alors que M est injectif.
(ii) Soit M un A-module de type fini. Alors on peut regarder D(M ) et sa couverture projective
p : C(D(M )) → D(M ). Comme D(M ) est de type fini, il en est de même de C(D(M ))
d’après la proposition 2.3.4.2 (iv), et on peut à nouveau appliquer le foncteur de dualité. On
arrive à D(p) : D(C(D(M ))) → M . Ici D(C(D(M ))) est injectif grâce à (i) et D(p) est un
monomorphisme essentiel car p est un épimorphisme essentiel. Bref D(C(D(M ))) coïncide
avec l’enveloppe injective E(M ) de M . Cette dernière est donc de dimension finie sur k. 

105
3.2.3 Représentations et changement de base

Soient A une k-algèbre et K une extension de k.


K-représentation : prenons un entier n ≥ 1. Un homomorphisme de k-algèbres X : A →
Matn (K) est appelé représentation de A sur K de degré n (ou K-représentation de A).
Posons A(K) = K ⊗k A, comme au paragraphe 3.1.3. L’isomorphisme de K-espaces vectoriels
f 7→ f ◦ ιA de HomK A(K) , Matn (K) sur Homk (A, Matn (K)) se restreint en un isomor-


phisme de l’ensemble des représentations matricielles de A(K) de degré n sur l’ensemble des
K-représentations de A de degré n. Concrètement, la représentation de A(K) correspondant à
une K-représentation X : A → Matn (K) de A est son prolongement K-linéaire
X X
λi ⊗ ai 7→ λi X(ai ), où I est fini, λi ∈ K et ai ∈ A.
i∈I i∈I

Chaque représentation X de A est une K-représentation de A, vu que Matn (k) ⊆ Matn (K).
En termes de modules, cette évidence s’écrit de la façon suivante : si le A-module M fournit la
représentation X, alors la K-représentation X est fournie par le A(K) -module M(K) . Pour s’en
convaincre, il faut revenir aux définitions du paragraphe 3.1.3. Plus précisément, prenons M
un k-espace vectoriel de dimension finie n et muni d’une base (m1 , . . . , mn ). Ainsi le K-espace
vectoriel M(K) est de dimension n et est muni de la base (1 ⊗ m1 , . . . , 1 ⊗ mn ). Le point est
de vérifier que le diagramme

Matn (k) / Matn (K)

 
/ EndK M(K)

Endk (M )

est commutatif, où les flèches verticales sont les isomorphismes définis par le choix des bases,
où la flèche du haut est l’inclusion, et où la flèche du bas est l’application f 7→ idK ⊗ f .

3.2.3.1 Théorème (Noether, Deuring). Soient k un corps, A une k-algèbre, K une


extension de k, et X et Y deux représentations matricielles de A de même degré n. Alors X
et Y sont des représentations équivalentes si et seulement s’il existe une matrice inversible
P ∈ GLn (K) telle que P X(a) = Y (a)P pour tout a ∈ A.

Preuve. Si X et Y sont équivalentes, alors il existe une matrice P ∈ GLn (k) qui entrelace X
et Y . En particulier P appartient à GLn (K) et vérifie P X(a) = Y (a)P pour tout a ∈ A. La
difficulté est dans la réciproque, où il faut montrer que l’existence d’une matrice P adéquate
à coefficients dans K entraîne celle d’une matrice à coefficients dans k.
Le sous-espace vectoriel {(X(a), Y (a)) | a ∈ A} de Matn (k)2 étant de dimension finie, il est
engendré par une partie finie {(X(ai ), Y (ai )) | 1 ≤ i ≤ s}, où (a1 , . . . , as ) est une suite finie
d’éléments de A. Pour toute extension L du corps k, regardons le système linéaire homogène

P X(ai ) = Y (ai )P pour chaque i ∈ {1, . . . , s}

106
portant sur (les coefficients d’) une matrice P ∈ Matn (L). Les coefficients de ce système
appartiennent à k. D’après les théorèmes classiques sur les systèmes d’équations linéaires
(mise sous forme échelonnée, par exemple), on peut trouver une base (P1 , . . . , Pr ) de l’espace
des solutions, indépendante de L et formée de matrices à coefficients dans k.
Notre hypothèse est qu’il existe (t1 , . . . , tr ) ∈ K r tel que t1 P1 + · · · + tr Pr ∈ GLn (K). Nous
voulons montrer qu’il existe (u1 , . . . , ur ) ∈ k r tel que u1 P1 + · · · + ur Pr ∈ GLn (k).
Regardons le polynôme Q(T1 , . . . , Tr ) = det(T1 P1 + · · · + Tr Pr ). Notre hypothèse assure qu’il
n’est pas identiquement nul. Par ailleurs, il est homogène de degré n. Si k est infini, alors il
existe (u1 , . . . , ur ) ∈ k r n’annulant pas Q et c’est gagné. Sinon, k possède une extension finie
L de cardinal plus grand que n + 1. Il existe alors (v1 , . . . , vr ) ∈ Lr n’annulant pas Q. La
matrice v1 P1 + · · · + vr Pr appartient alors à GLn (L) et entrelace X et Y .
Appelons M et N les A-modules fournis par les représentations X et Y . En tant que A-
modules, M(L) = L ⊗k M est isomorphe à la somme directe de [L : k] copies de M . De même
pour N . Notre matrice v1 P1 + · · · + vr Pr fournit un isomorphisme de A(L) -modules entre M(L)
et N(L) , donc fournit a fortiori un isomorphisme de A-modules. En appliquant le théorème de
Krull-Schmidt à la situation

M · · ⊕ M} ∼
| ⊕ ·{z = |N ⊕ ·{z
· · ⊕ N},
[L:k] termes [L:k] termes

on conclut que M ∼
= N . Les représentations X et Y sont donc équivalentes. 

Appliqué à l’algèbre k[T ], ce théorème affirme que deux matrices n × n à coefficients dans k
sont semblables si et seulement si elles sont semblables sur K. Dans le langage des modules,
ce théorème dit la chose suivante.

3.2.3.2 Corollaire. Soient k un corps, A une k-algèbre, K une extension de k, et M et


N deux A-modules de dimension finie sur k. Alors M et N sont isomorphes si et seulement
si les A(K) -modules M(K) et N(K) sont isomorphes.

3.2.4 Théorèmes de Burnside et de Frobenius-Schur

La théorie des représentations des algèbres est plus simple quand le corps de base k est
algébriquement clos. La principale raison pour cela est que k est alors la seule algèbre à
division de dimension finie sur k (proposition 3.2.2.1).

3.2.4.1 Lemme (Schur). Soit k un corps algébriquement clos, soit A une k-algèbre, soient
M et N deux A-modules simples de dimension finie sur k. Si M ∼ = N , alors HomA (M, N ) est
de dimension 1 sur k ; si M 6∼
= N , alors Hom A (M, N ) = 0. En particulier, EndA (M ) = k idM .

Preuve. Il suffit de combiner le lemme de Schur 1.2.4.2 du chapitre 1 avec la proposition 3.2.2.1.
La seule chose à dire en plus peut-être est que le k-espace vectoriel HomA (M, N ) est de
dimension finie, puisque c’est un sous-espace vectoriel de Homk (M, N ). 

107
3.2.4.2 Théorème (Burnside). Soient k un corps, A une k-algèbre, et M un A-module
simple de dimension finie sur k. Si EndA (M ) = k idM , alors l’homomorphisme de A dans
Endk (M ) est surjectif.

Preuve. Il s’agit d’un corollaire immédiat du théorème de densité 1.3.2.1. 

Soient A une k-algèbre, M un A-module de k-dimension finie n, et T : A → Matn (k) une


représentation matricielle de A qui fournit M . L’application qui à a ∈ A associe la coordonnée
(i, j) de T (a) est une forme linéaire Xij sur A, appelé coefficient matriciel de M . L’ensemble
des coefficients matriciels Xij dépend du choix de la k-base de M utilisée pour obtenir T ,
mais le sous-espace qu’il engendre dans A∗ n’en dépend pas. Dans les hypothèses du théorème
de Burnside (à savoir quand M simple et EndA (M ) = k idM ), l’ensemble des n2 coefficients
matriciels Xij est k-linéairement indépendant.

3.2.4.3 Théorème (Frobenius, Schur). Soit k un corps algébriquement clos, soit A une
k-algèbre, et soient M1 , ..., Mr des A-modules simples de dimension finie sur k et deux à deux
(s)
non-isomorphes. Pour chaque s ∈ {1, . . . , r}, soit ns = dimk (Ms ) et soit {Xij | 1 ≤ i, j ≤ ns }
un ensemble de coefficients matriciels pour Ms . Alors le sous-ensemble
r
(s)
G
{Xij | 1 ≤ i, j ≤ ns }
s=1

de A∗ est linéairement indépendant sur k.

Preuve. Considérons le A-module M = M1 ⊕ · · · ⊕ Mr . Appelons B l’image de A dans


Endk (M ). Alors M1 , ..., Mr sont des B-modules simples deux à deux non-isomorphes. De
plus, B est une k-algèbre de dimension finie ayant un module complètement réductible fidèle,
à savoir M . D’après le théorème 2.1.2.1 (iii) et sa preuve, B est semi-simple et le B-module
régulier B B peut être plongé dans M n pour un entier n assez grand. Tout B-module simple
est isomorphe à un sous-module de B B, donc à un sous-module de M . Ainsi B a exactement
r classes d’équivalence de modules simples, fournies par M1 , ..., Mr .
Pour s ∈ {1, . . . , r}, appelons Cs la composante simple de B correspondant au module Ms :
ainsi Cs est la composante Ms -isotypique du B-module à gauche régulier. La structure d’an-
neau produit B = C1 × · · · × Cr fait que Ct Cs = 0 dès que t 6= s ; dans ce cas, Ct est inclus
dans l’annulateur du sous-module Cs de B B, et donc Ct annule Ms .
Pour chaque s ∈ {1, . . . , r}, l’homomorphisme de B dans Endk (Ms ) est surjectif, d’après le
lemme de Schur et le théorème de Burnside ci-dessus. L’alinéa précédent dit que son noyau
contient les Ct pour t 6= s. Cet homomorphisme induit donc un isomorphisme Cs ∼ = Endk (Ms ).
(s)
Ainsi pour chaque (i, j) avec 1 ≤ i, j ≤ ns , on peut trouver a ∈ A tel que Xij (a) = 1 et que
(t)
Xlm (a) = 0 pour (l, m, t) 6= (i, j, s). À ce stade, si l’on évalue au point a une combinaison
k-linéaire
r Xnt
(t) (t)
X
αlm Xlm = 0,
t=1 l,m=1
(s)
on trouve αij = 0. 

108
Un peu de numérologie pour conclure ce paragraphe. Prenons une algèbre semi-simple A de
dimension finie n sur un corps k pas forcément algébriquement clos. On peut alors décomposer
A en produit de ses composantes simples A ∼ = Matn1 (∆1 ) × · · · × Matnr (∆r ). Ici, il y a r
(classes d’isomorphisme de) A-modules simples M1 , ... Mr , l’algèbre à division ∆i est l’opposée
de l’anneau d’endomorphismes EndA (Mi ), et ni est la longueur du ∆i -module à droite Mi (voir
la remarque 2.1.2.4). Enfin le centre Z(A) de A est isomorphe au produit des centres Z(∆i )
des algèbres à division ∆i . On voit ainsi que
r
X r
X
dimk Mi = ni dimk ∆i , dimk A = n2i dimk ∆i et dimk Z(A) = dimk Z(∆i ).
i=1 i=1

Si en outre k est algébriquement clos, alors ∆i = k pour chaque i ∈ {1, . . . , r} d’après la


proposition 3.2.2.1, d’où
r
X
dimk A = (dimk Mi )2 et dimk Z(A) = r.
i=1

3.2.5 Caractère d’une représentation

Soit A une k-algèbre. Notons A∗ l’espace vectoriel dual Homk (A, k).
Le caractère d’une représentation matricielle X : A → Matn (k) de A est la forme linéaire
χX : a 7→ tr X(a) sur A. Deux représentations équivalentes ont même caractère : si X et
Y : A → Matn (k) sont équivalentes, alors il existe une matrice inversible P ∈ GLn (k) telle
que Y (a) = P X(a)P −1 pour tout a ∈ A, ce qui implique que X(a) et Y (a) aient même trace.
De même, le caractère d’un A-module M de dimension finie sur k est la forme linéaire χM : a 7→
tr ρ(a), où ρ : A → Endk (M ) est l’homomorphisme d’algèbres définissant la structure de A-
module sur M . Évidemment χM = χX si le module M fournit la représentation matricielle X.

3.2.5.1 Proposition. Soit 0 → L → M → N → 0 une suite exacte courte de A-modules


de dimension finie sur k. Alors χM = χL + χN .

Preuve. Choisissons une base de L et une base de N . En envoyant la première et en remontant


la seconde dans M , on obtient par concaténation une base de M . Appelons X, Y et Z les
représentations matricielles de A apportées par les modules L, M et N dans ces bases. Alors
pour chaque a ∈ A, Y (a) se décompose par blocs de la façon suivante
 
X(a) ∗
Y (a) = .
0 Z(a)

La proposition traduit l’égalité tr Y (a) = tr X(a) + tr Z(a). 

À partir de maintenant et jusqu’à la fin de ce paragraphe, nous supposerons que k est al-
gébriquement clos. La proposition suivante est une conséquence immédiate du théorème de
Frobenius-Schur.

109
3.2.5.2 Proposition. Soit A une algèbre sur un corps k algébriquement clos. Si M1 , ...,
Mr sont des A-modules simples de dimension finie sur k et deux à deux non-isomorphes, alors
les formes linéaires χM1 , ..., χMr sont linéairement indépendantes dans A∗ .

Supposons que A soit de dimension finie. Jointe à la proposition 1.2.5.2, le résultat suivant
nous dit que deux A-modules de dimension finie sur k ont même caractère si et seulement s’ils
ont mêmes facteurs de composition, avec les mêmes multiplicités de Jordan-Hölder.

3.2.5.3 Proposition. Soit A une algèbre de dimension finie sur un corps k algébriquement
clos. Alors il existe un unique homomorphisme de groupes abéliens ch : G0 (A) → A∗ tel que
ch[M ] = χM pour chaque A-module de type fini. Cet homomorphisme est injectif.

Preuve. Reprenons les notations du paragraphe 1.2.5. Dans notre contexte où A est une algèbre
de dimension finie sur k, I est l’ensemble des classes d’isomorphismes de A-modules de
dimension finie sur k. Soit ch0 : Z(I ) → A∗ l’homomorphisme de groupes abéliens qui envoie
(M ) sur χM . Le diagramme de la preuve de la proposition 1.2.5.2 peut alors être complété :

(I )
i 6Z ch0
( ∗
Z(S ) h p 6A .
d
 ch
G0 (A)

Pour mémoire, l’application d ici envoie l’élément [M ] du groupe de Grothendieck sur l’élément
((M : S))S∈S . La proposition 3.2.5.1 dit que ch0 se factorise à travers p, donnant ainsi lieu à
l’homomorphisme ch. La proposition 3.2.5.2 implique que l’homomorphisme ch0 ◦i est injectif.
(Cette proposition dit en fait davantage, à savoir que l’homomorphisme de k-espaces vectoriels
de k (S ) dans A∗ déduit par changement de base de ch0 ◦i est injectif.) Puisque d est un
isomorphisme, nous obtenons l’injectivité de ch0 ◦i ◦ d = ch ◦p ◦ i ◦ d = ch. 

Exercice. Soit k un corps de caractéristique 0, pas nécessairement algébriquement clos, et


soit A une k-algèbre. Montrer que si M1 , ..., Mr sont des A-modules simples de dimension
finie sur k et deux à deux non-isomorphes, alors χM1 , ..., χMr sont linéairement indépendantes
dans A∗ . (Indication : se ramener au cas où A est une algèbre semi-simple de dimension finie
en utilisant le même procédé que dans la preuve du théorème de Frobenius-Schur. À ce stade,
évaluer les caractères χM1 , ..., χMr sur les éléments neutres des composantes simples de A.)

3.2.6 Représentations absolument irréducibles

Dans tout ce paragraphe, on se donne une algèbre A sur un corps k. Les modules considérés
sont toujours de dimension finie sur k.
Module absolument simple : un A-module M est dit absolument simple si pour toute extension
K de k, le A(K) -module M(K) est simple.
On définit de manière analogue la notion de représentation absolument irréductible.

110
3.2.6.1 Théorème. Pour un A-module M simple de dimension finie, les conditions sui-
vantes sont équivalentes :
(i) M est absolument simple.
(ii) Pour toute extension finie K de k, le A(K) -module M(K) est simple.
(iii) Il existe une extension algébriquement close Ω de k telle que le A(Ω) -module M(Ω) est
simple.
(iv) EndA (M ) = k idM .
(v) Pour toute k-algèbre B et tout B-module simple N , le A ⊗k B-module M ⊗k N est
simple.

Preuve. Supposons (iii). Le lemme de Schur 3.2.4.1 dit que EndA(Ω) M(Ω) est de dimension 1


sur Ω. L’isomorphisme de Ω-espaces vectoriels EndA(Ω) M(Ω) ∼ = EndA (M ) (Ω) de la propo-


 

sition 3.1.3.2 nous dit alors que EndA (M ) est de dimension 1 sur k. (Note : cet isomorphisme
peut être prouvé sans l’arsenal déployé au paragraphe 3.1.3 ; examiner à ce sujet la preuve du
théorème 3.2.3.1.) Cela prouve (iv).
Supposons (iv). Le théorème de Burnside 3.2.4.2 affirme que l’homomorphisme de A dans
Endk (M ) est surjectif. Prenons
 une extension K de k. L’homomorphisme de A(K) dans

Endk (M ) (K) = EndK M(K) est donc surjectif. On en déduit que M(K) est un A(K) -module
simple. Ceci étant valable quel que soit K, nous avons montré (i).
Supposons (ii). Soit Ω une clôture algébrique de k. Prenons une base (ei )i∈I P du k-espace
vectoriel sous-jacent à M . Soit m un élément non-nul de M(Ω) . Alors m s’écrit i∈I ωi ⊗ ei ,
pour une famille de scalaires (ωi ) ∈ ΩI . Soit K la sous-extension de Ω/k engendrée par les
éléments de cette famille ; ainsi K est une extension finie de k. Nous pouvons regarder M(K)
comme un sous-K-espace vectoriel de M(Ω) et A(K) comme une sous-K-algèbre de A(Ω) , et
nous avons m ∈ M(K) . Puisque nous supposons (ii), le A(K) -module M(K) est simple, donc
est engendré par m. Alors A(Ω) m = Ω ⊗K A(K) m = Ω ⊗K M(K) = M(Ω) . Ainsi le A(Ω) -
module M(Ω) est engendré par m. Ceci étant vrai pour tout élement m non-nul, M(Ω) est un
A(Ω) -module simple. (iii) est donc vérifiée.
L’implication (iv) ⇒ (v) est un cas particulier de la proposition 1.4.5.1 (iii). L’assertion (ii)
est un cas particulier de l’assertion (v). Enfin l’implication (i) ⇒ (iii) est une conséquence
immédiate de la définition. 

Soit A une k-algèbre de dimension finie. On dit que A est décomposée si tout A-module simple
est absolument simple. On dit qu’une extension K de k décompose A si la K-algèbre A(K) est
décomposée.

3.2.6.2 Proposition. Soient k un corps, K une extension de A, et A une k-algèbre de


dimension finie.

(i) L’extension K décompose A si et seulement si l’algèbre semi-simple A(K) /J A(K) est
produit d’algèbres de matrices Matn (K) à coefficients dans K.
(ii) Si K décompose A, alors toute extension E de K décompose A.

111
(iii) Si le corps K est algébriquement clos, alors il décompose A.
(iv) Il existe une extension finie de k qui décompose A.

Preuve. Soit K une extension de k. OnQ peut décomposer l’algèbre semi-simple A(K) /J A(K)


en produit de composantes simples i∈I Matni (∆i ). Chacune de ces composantes simples
correspond à un module simple Mi et l’algèbre à division ∆i est l’opposée de l’anneau d’endo-
morphismes EndA (Mi ). D’après le théorème 3.2.6.1, le A(K) -module Mi est absolument simple
si et seulement si ∆i = K. Cela donne l’équivalence annoncée dans (i).
Supposons que K décompose A. Avec (i), on peut donc écrire A(K) /J A(K) comme un pro-


duit i∈I Matni (K).  SoitQE une extension de K. Par extension des scalaires, nous avons
Q
alors A(E) /J A(K) (E) ∼= i∈I Matni (E). Cet anneau est semi-simple, donc son radical de
Jacobson est réduit à {0}. Comme J A(K) (E) est un idéal nilpotent de A(E) , il est inclus
dans le radical de Jacobson J A(E) . D’après l’exercice (7) du paragraphe 2.2.1,
 le radical de
Jacobson du quotient A(E) /J A(K) (E) est J A(E) /JQ A(K) (E) . Ainsi J A(E) = J A(K) (E)


et l’algèbre A(E) /J A(E) est isomorphe au produit i∈I Matni (E). D’après (i), cela signifie
que E décompose A. (ii) est prouvée.
Compte-tenu des théorèmes de structure des algèbres semi-simples de dimension finie et de la
proposition 3.2.2.1, l’assertion (iii) découle de (i).
Soit Ω une clôture algébrique de k. Choisissons une base (as )s∈S du k-espace vectoriel sous-
jacent à A. Le (iii), combiné au (i), donne un isomorphisme de Ω-algèbres A(Ω) /J A(Ω) ∼

=
Par ailleurs, on peut trouver une base du vectoriel sous-
Q
i∈I Mat ni (Ω). (f )
t t∈T Ω-espace
jacent à A(Ω) , avec T partitionné en T 0 t T 00 , de sorte que les  ft appartiennent au radical
J A(Ω) si t ∈ T 0 , et les images dans le quotient A(Ω) /J A(Ω) des ft restants soient envoyés
sur les matrices élémentaires par notre isomorphisme. La base (as )s∈S peut être vue comme
une base du Ω-espace vectoriel A(Ω) . On peut donc parler de la matrice de changement de
base de (as )s∈S à (ft )t∈T . Le sous-corps de Ω engendré par les coefficients de cette matrice est
une extension finie K de k. La famille (ft )t∈T peut alors être vue comme une base de l’algèbre
A(K) , et la table de multiplication dans cette base est la même dans A(K) que dans A(Ω) . En
particulier, le sous-K-espace vectoriel N engendré par les (ft )t∈T 0 est alors un idéal nilpotent
de A(K) , et les éléments restants (ft )Q t∈T 00 , qui fournissent une base du quotient A(K) /N ,
donnent un isomorphisme ∼
A(K) /N = i∈I Matni (K). Alors N est inclus dans le radical de
Jacobson J A(K) et le radical de Jacobson de A(K) /N est réduit à {0}. L’exercice (7) du


paragraphe 2.2.1 conduit alors à J A(K) = N , et l’assertion (i) nous permet de conclure que


K décompose A. Cela prouve (iv). 

Exercices.
(1) Soient A une k-algèbre de dimension finie, K une extension de k, N un A(K) -module
simple. Montrer qu’il existe un A-module simple M tel que N soit isomorphe à un
facteur de composition du A(K) -module M(K) . (Indication : N est isomorphe à un
facteur de composition du A(K) -module à gauche régulier. Par ailleurs, le foncteur
d’extension des scalaires ?(K) envoie une série de composition du A-module à gauche
régulier sur une filtration du A(K) -module à gauche régulier. Utiliser alors le théorème
de raffinement de Schreier 1.2.4.4 ou le théorème de Jordan-Hölder 1.2.4.5.)

112
(2) Soient A une k-algèbre, M et N deux A-modules de dimension finie sur k, et K une
extension de k. Montrer que M et N ont un facteur de composition commun si et
seulement si les A(K) -modules M(K) et N(K) ont un facteur de composition commun.
(Indication : il suffit de traiter le cas où M et N sont simples et non-isomorphes. L’image
B de A dans Endk (M ⊕ N ) est alors une algèbre semi-simple de dimension finie, et
on peut trouver un idempotent central ε ∈ B agissant par l’identité sur M et par zéro
sur N . Soit a ∈ A relevant ε. Alors 1 ⊗ a ∈ A(K) agit par l’identité sur M(K) et par
zéro sur N(K) . Il est alors impossible que M(K) et N(K) aient un facteur de composition
commun.)
(3) Soient A et B deux k-algèbres de dimension finie, avec A décomposée. Montrer que
J(A ⊗k B) = J(A) ⊗k B + A ⊗k J(B) et que les A ⊗k B-modules simples sont les
M ⊗k N , où M est un A-module simple et N est un B-module simple. (Indication :
utiliser l’exemple 3.1.2.1 (7) pour démontrer que A/J(A) ⊗k B/J(B) est semi-simple.
Puis utiliser l’exercice (7) du paragraphe 2.2.1 pour prouver que l’inclusion évidente
J(A ⊗k B) ⊇ J(A) ⊗k B + A ⊗k J(B) est une égalité. La simplicité des A ⊗k B-modules
M ⊗k N de l’énoncé est conséquence de la proposition 1.4.5.1 (iii). Pour conclure, utiliser
un argument de comptage.)

3.2.7 Caractères linéaires d’une algèbre, caractère central d’une représentation

Soit k un corps et A une k-algèbre. Un caractère linéaire de A est un homomorphisme d’al-


gèbres h : A → k. Autrement dit, c’est une représentation matricielle de degré 1. On peut
identifier cette représentation à son caractère (il n’y a pas grande différence entre une matrice
1 × 1 et sa trace...), ce qui justifie l’emploi du même mot qu’au paragraphe 3.2.5.
Un A-module M est dit avoir un caractère central si le centre de A agit de façon scalaire : on
demande l’existence d’un caractère linéaire h : Z(A) → k tel que chaque élément a ∈ Z(A)
agisse comme h(a) idM . On vérifie immédiatement que si M admet h comme caractère central,
tout A-module isomorphe à M admet aussi h pour caractère central.

3.2.7.1 Proposition. Tout A-module absolument simple de dimension finie sur k possède
un caractère central.

Preuve. Soit π : A → Endk (M ) l’homomorphisme d’algèbres définissant la structure de A-


module sur M . Alors π induit par restriction un homomorphisme d’algèbres de Z(A) dans
EndA (M ). La conclusion provient alors du théorème 3.2.6.1 (iv). 

3.2.7.2 Corollaire. Soit A une k-algèbre commutative. Tout A-module absolument simple
de dimension finie sur k est de dimension 1 sur k.

Preuve. Soit M un A-module absolument simple de dimension finie. D’après la proposition


précédente, M admet un caractère central h : Z(A) → k. Puisque k est commutative, Z(A) =
A. L’action de chaque a ∈ A est donc donnée par un opérateur scalaire, ce qui implique que
tout sous-espace vectoriel de M est un sous-A-module. Comme M est supposé simple, cela
force M à être de dimension 1 sur k. 

113
On notera que quand k est algébriquement clos, on peut supprimer le mot « absolument »
dans l’énoncé de cette proposition et de son corollaire (théorème 3.2.6.1 (iii)).
Supposons k algébriquement clos. Étant donnée une k-algèbre commutative A, nous notons
A∧ l’ensemble des caractères linéaire de A. Ainsi A∧ est l’ensemble des classes d’isomorphisme
de A-modules simples de dimension finie sur k. Le groupe de Grothendieck K0 (A-moddf ) de
la catégorie des A-modules de dimension finie sur K (voir le paragraphe 1.2.5) est alors un
Z-module libre de base A∧ .
Toujours avec k algébriquement clos, prenons une k-algèbre A, et supposons avoir explicité
une sous-algèbre commutative B de A. Chaque A-module M de dimension finie sur k peut
alors être vu comme un B-module, de sorte que l’on dispose du symbole [M ] ∈ K0 (B-moddf ).
Quand B est assez grosse dans A, M est entièrement déterminé par ce symbole. C’est par
exemple le cas quand A est l’algèbre enveloppante d’une algèbre de Lie semi-simple g et B est
l’algèbre enveloppante d’une sous-algèbre de Cartan h de g.

Exercices.
(1) Soient k un corps, A une k-algèbre. Montrer que les caractères linéaires de A sont des
éléments linéairement indépendants de l’espace dual A∗ . (Indication : procédant par
l’absurde, on considère une relation de dépendance linéaire non-triviale de longueur
minimale entre les caractères linéaires de A, disons a1 h1 + · · · + an hn = 0. Alors tous
les ai sont non-nuls et n ≥ 2. Trouvant y ∈ A tel que h1 (y) 6= h2 (y), on peut alors
fabriquer une relation de dépendance linéaire plus courte en soustrayant l’une de l’autre
les deux relations suivantes

h1 (y)(a1 h1 (x) + · · · + an hn (x)) = 0 et a1 h1 (yx) + · · · + an hn (yx) = 0.)

(2) Soient k un corps et A une k-algèbre de dimension finie. On note Z le centre de A et


J le radical de Jacobson de A.
(i) Montrer que le radical de Jacobson de Z est Z ∩ J et que Z/(Z ∩ J) est un produit
de corps. (Indication : utiliser le théorème 2.2.2.3 (i).)
On note (Bi )i∈I la famille des blocs de A (paragraphe 2.4). Pour chaque i ∈ I, soit εi
l’idempotent primitif central du bloc Bi . Enfin, on suppose que k est algébriquement
clos.
(ii) Montrer que pour chaque i ∈ I, il existe un unique caractère linéaire hi : Z → k tel
que hi (εi ) = δij . Montrer qu’on obtient ainsi tous les caractères linéaires de l’algèbre
Z. (Indication : soit Z le quotient Z/(Z ∩J). La structure de Z obtenue à la question
précédente permet une description complète des caractères linéaires de Z. En outre,
chaque caractère linéaire de l’algèbre Z s’annule sur le radical de Jacobson Z ∩ J, de
sorte qu’on peut identifier l’ensemble des caractères linéaires de Z avec l’ensemble
des caractères linéaires de Z. Enfin, la proposition 2.3.2.1 montre que les (εi )i∈I
sont les éléments qu’on obtient en relevant à Z les idempotents primitifs de Z.)
(iii) En déduire que deux A-modules simples appartiennent au même bloc si et seulement
s’ils ont même caractère central.
(3) Soit k un corps algébriquement clos et soit A une k-algèbre commutative de type
fini (autrement dit, A est un quotient d’une algèbre de polynômes en un nombre fini

114
d’indéterminées). Montrer que tout A-module simple M est de dimension 1 sur k.
(Note : on ne suppose pas que le module M est de dimension finie sur k. Indication :
utiliser le Nullstellensatz.)

3.3 Algèbres séparables

3.3.1 Complète réductibilité et changement de base

Algèbre séparable : une algèbre A de dimension finie est dite séparable sur k si pour toute
extension K de k, la K-algèbre A(K) est semi-simple.

Exemple. Une algèbre de matrice Matn (k) est séparable sur k. Plus généralement, une al-
gèbre A semi-simple et décomposée sur k est séparable sur k.

3.3.1.1 Proposition. Soit E une extension finie du corps k. Alors E est séparable sur k
en tant qu’algèbre si et seulement si l’extension E/k est séparable au sens de la théorie des
corps.

Preuve. Supposons que E/k soit séparable au sens de la théorie des corps. D’après le théorème
de l’élément primitif, on peut écrire E ∼
= k[X]/(P ), où P est un polynôme sans racine multiple.
Pour chaque extension K de k, on peut décomposer P = Q1 · · · Qr en produit de facteurs
irréductibles dans K[X], et les Qi sont deux à deux non-associés. Par le théorème des restes
chinois,
E(K) ∼= K[X]/(P ) ∼= K[X]/(Q1 ) × · · · × K[X]/(Qr )
est un produit de corps, donc est semi-simple. L’algèbre E est donc bien séparable sur k.
Supposons au contraire que E/k ne soit pas séparable au sens de la théorie des corps. Il existe
alors un élément x ∈ E qui est racine multiple de µ, son polynôme Q minimal sur k. Écrivons
la décomposition en facteurs irréductibles dans E[X] : µ = u i∈I νini , avec u ∈ E ∗ et les
νi polynômes unitaires irréductibles dans E[X] et deux à deux distincts. Alors un des ni est
supérieur ou égal à 2. En utilisant le théorème des restes chinois, on obtient un isomorphisme

k(x) (E) = E ⊗k k(x) ∼ = E[X]/(µ) ∼


Y
E[X]/ νini .
 
=
i∈I

ni 
Pour le i tel que ni ≥ 2, l’image de νi dans E[X]/ νi est non-nulle et nilpotente. Cela
montre que k(x) (E) possède un élément nilpotent. L’algèbre E(E) possède donc un élément
nilpotent ; comme elle est commutative, son radical de Jacobson ne peut pas être nul. Ainsi
l’algèbre E n’est pas séparable sur k. 

On dit qu’une k-algèbre A est simple centrale si elle est simple et si son centre est la droite
k1. (L’étude des algèbres simples centrales conduit à la définition du groupe de Brauer de
k, dont les propriétés dépendent de l’arithmétique du corps k.) Le lemme ci-dessous a pour
conséquence qu’une k-algèbre simple centrale est séparable.

115
3.3.1.2 Lemme. Soient A et B deux algèbres de dimension finie sur un corps k. On
suppose que la k-algèbre A est simple centrale.
(i) Un élément x de A ⊗k B qui vérifie (a ⊗ 1)x = x(a ⊗ 1) pour tout a ∈ A est de la forme
1 ⊗ b, avec b ∈ B.
(ii) L’application I 7→ A ⊗k I est une bijection de l’ensemble des idéaux bilatères de B sur
l’ensemble des idéaux bilatères de A ⊗k B.
(iii) J(A ⊗k B) = J(A) ⊗k B.

Preuve. Choisissons une base (ei )i∈I du k-espace vectoriel sous-jacent à B. Soit x un élément
de A ⊗k B vérifiant (a ⊗ 1)x = x(a ⊗ 1) pour tout a ∈ A. Il existe une unique famille (xi ) ∈ AI
telle que x = i∈I xi ⊗ ei . Pour chaque a ∈ A, l’égalité
P

X
0 = (a ⊗ 1)x − x(a ⊗ 1) = (axi − xi a) ⊗ ei
i∈I
P 
entraîne axi −xi a. Ainsi chaque xi est de la forme λi 1, avec λi ∈ k, et donc x = 1⊗ i∈I i i .
λ e
Cela montre (i).
À présent, nous regardons A ⊗k B comme un A-A-bimodule pour la multiplication à gauche
et à droite de A sur le premier facteur du produit tensoriel. Comme AL est une algèbre simple,
le A-A-bimodule régulier est simple. La décomposition A ⊗k B = i∈I A ⊗ ei en somme
directe de bimodules isomorphes à ce bimodule régulier montre que A ⊗k B est un bimodule
complètement réductible. Qui plus est, pour chaque homomorphisme f : A → A ⊗k B de
bimodules, l’élément f (1) vérifie les hypothèses de (i), donc s’écrit 1 ⊗ b. On en déduit que
chaque sous-bimodule simple de A ⊗k B est de la forme A ⊗ b pour un élément b ∈ B, puis
que chaque sous-bimodule de A ⊗k B est de la forme A ⊗ I pour un sous-espace vectoriel I de
B. L’assertion (ii) découle facilement de cela.
En particulier, le radical de Jacobson J(A ⊗k B) est de la forme A ⊗k I, où I est un idéal
bilatère de B. Comme J(A ⊗k B) est nilpotent, I est nilpotent, donc I ⊆ J(B). Dans l’autre
sens, A ⊗k J(B) est nilpotent, parce que J(B) l’est, et donc A ⊗k J(B) ⊆ J(A ⊗k B). Tout
cela prouve (iii). 

3.3.1.3 Théorème. Soit A une algèbre de dimension finie sur un corps k. Les neuf pro-
priétés suivantes sont équivalentes.
(i) L’algèbre A est séparable sur k.
(ii) Pour toute extension finie K de k, l’algèbre A(K) est semi-simple.
(iii) Il existe une extension algébriquement close Ω de k telle que A(Ω) est semi-simple.
(iv) Le centre de A est une algèbre séparable sur k.
(v) Pour toute k-algèbre semi-simple B, l’algèbre A ⊗k B est semi-simple.
(vi) Pour toute k-algèbre B de dimension finie, J(A ⊗k B) = A ⊗k J(B).
(vii) L’algèbre A ⊗k Aop est semi-simple.
(viii) Le A-A-bimodule régulier A AA est projectif.

116
P P
(ix) Il existe un élément i∈I ai ⊗ bi ∈ A ⊗k A tel que i∈I ai bi = 1 et que pour tout c ∈ A,
on ait X X
cai ⊗ bi = ai ⊗ bi c dans A ⊗k A.
i∈I i∈I

Preuve. Preuve de (iii) ⇒ (i).


Supposons (iii). Pour chaque extension K de k, il existe une extension L de k contenant à
la fois K et Ω. (On peut construire un tel L en quotientant l’algèbre K ⊗k Ω par un idéal
maximal.) Comme A(Ω) est semi-simple et  scindée, c’est un produit d’algèbres de matrices à
coefficients dans Ω, donc l’algèbre A(Ω) (L) = A(L) est un produit d’algèbres de matrices à
coefficients dans L, donc A(L) est semi-simple. Il s’ensuit que {0} est le seul idéal nilpotent
de A(L) . Comme J A(K) (L) est un idéal nilpotent de A(L) , nous avons J A(K) = {0}. Ainsi


A(K) est semi-simple, et cela est vrai pour chaque extension K de k. Ainsi (i) est vraie.
Preuve de (i) ⇔ (iv).
Pour étudier la séparabilité sur k de A ou de son centre, nous pouvons procéder composante
simple par composante simple. Sans nuire à la généralité, nous pouvons donc supposer que
A est une k-algèbre simple. Son centre Z est alors une extension de k d’après l’exercice (1)
du paragraphe 2.1.1.1 et A est une Z-algèbre simple centrale. Soit K une extension de k. Le
lemme 3.3.1.2 montre que le radical de Jacobson de
A(K) = K ⊗k A ∼ = K ⊗k Z ⊗Z A ∼
= Z(K) ⊗Z A
est J Z(K) ⊗Z A. Ainsi J A(K) est réduit à {0} si et seulement J Z(K) l’est. Les algèbres
  

A(K) et Z(K) sont donc simultanément semi-simples ou non-semi-simples. Faisant varier K,


nous obtenons l’équivalence (i) ⇔ (iv).
Preuve de (ii) ⇒ (v).
Soit B une k-algèbre semi-simple. Procédant composante simple par composante simple, nous
pouvons supposer que B est une k-algèbre simple. Appelons Z son centre ; c’est une extension
finie de k et B est une Z-algèbre simple centrale. Le lemme 3.3.1.2 montre que le radical de
Jacobson de
A ⊗k B ∼= A ⊗k Z ⊗Z B = A(Z) ⊗Z B
est J A(Z) ⊗Z B. Sous l’hypothèse (ii), ce radical de Jacobson est réduit à {0} et donc


l’algèbre A ⊗k B est semi-simple.


Preuve de (v) ⇒ (vi).
Supposons (v). Soit B une k-algèbre de dimension finie. L’idéal J(B) est nilpotent ; l’idéal
bilatère A ⊗k J(B) de A ⊗k B est ainsi nilpotent, donc inclus dans J(A ⊗k B). Par ailleurs,
l’algèbre B/J(B) est semi-simple, donc l’algèbre quotient A⊗k B/A⊗k J(B) ∼ = A⊗k B/J(B)
est semi-simple. Son radical est donc réduit à {0}. L’exercice (7) du paragraphe 2.2.1 nous dit
alors que J(A ⊗k B) = A ⊗k J(B), ce qui est la conclusion désirée.
Preuve de (vii) ⇒ (viii).
Cette implication découle du fait que sur une algèbre semi-simple, tout suite exacte courte de
modules est scindée, donc tout module est projectif.
Preuve de (viii) ⇒ (ix).
Regardons la structure de A-bimodule régulier sur A comme une structure de A ⊗k Aop -
module à gauche. L’assertion (viii) signifie alors que ce module est projectif. L’application

117
g : x ⊗ y 7→ xy de A ⊗k Aop dans A étant un épimorphisme de A ⊗k Aop -module à gauche,
il existe un homomorphisme k : AP→ A ⊗k Aop tel que g ◦ k = idA . Écrivons k(1) sous la
forme k(1) = i∈I ai ⊗ bi . Alors i∈I ai bi = g(k(1)) = 1, et pour chaque c ∈ A, l’égalité
P
(c ⊗ 1)k(1) = k((c ⊗ 1) · 1) = k(c) = k((1 ⊗ c) · 1) = (1 ⊗ c)k(1) fournit la relation
X X
cai ⊗ bi = ai ⊗ bi c dans A ⊗k A.
i∈I i∈I

Preuve de (ix) ⇒ (i).


Nous montrons d’abord que si (ix) est vraie, alors A est semi-simple. Supposons (ix). Soit M
un A-module et N un sous-module de M . Nous munissons Homk (M, N ) de sa structure de
A-A-bimodule : pour f ∈ PHomk (M, N ) et (a, b) ∈ A , l’application k-linéaire af b : M → N
2

est m 7→ af (bm). Soit i∈I ai ⊗ bi l’élément dont (ix) affirme l’existence, soit L un sous-
espace vectoriel de M supplémentaireP de N , et soit f ∈ Homk (M, N ) la projection de M sur
N parallèlement à L. Alors g = i∈I ai f bi appartient à HomA (M, N ) ⊆ Homk (M, N ) et la
restriction de g à N est l’identité de N . De là vient alors facilement que le A-module ker g est
un supplémentaire de N dans M . Ainsi un sous-module d’un A-module admet toujours un
supplémentaire ; en d’autres termes, tout A-module est complètement réductible. Cela signifie
que A est semi-simple. Cet argument peut être repris pour chaque extension K de k : si A
vérifie (ix), alors A(K) vérifie également (ix), donc A(K) est semi-simple. Nous avons prouvé
l’implication (ix) ⇒ (i).
Les implications (i) ⇒ (ii), (i) ⇒ (iii), (vi) ⇒ (v) et (v) ⇒ (vii) découlent directement des
définitions. 

3.3.1.4 Proposition. Soit A une k-algèbre de dimension finie. On suppose que A/J(A)
est séparable sur k. Alors :
(i) Pour toute k-algèbre B de dimension finie, J(A ⊗k B) = J(A) ⊗k B + A ⊗k J(B). En
particulier, pour tout A-module complètement réductible M et tout B-module complè-
tement réductible N , le A ⊗k B-module M ⊗k N est complètement réductible.

(ii) Pour toute extension K de k, J A(K) = J(A)(K) . En particulier, pour tout A-module
complètement réductible M , le A(K) -module M(K) est complètement réductible.

Preuve. Soient A et B deux k-algèbres de dimension finie. L’idéal J(A) ⊗k B + A ⊗k J(B)


de A ⊗k B est nilpotent, donc est inclus dans le radical de Jacobson J(A
 ⊗k B). D’après
l’exercice (7) du paragraphe 2.2.1, J(A ⊗k B)/ J(A) ⊗k B + A ⊗k J(B) est le radical de
Jacobson du quotient

(A ⊗k B)/ J(A) ⊗k B + A ⊗k J(B) ∼


  
= A/J(A) ⊗k B/J(B) .

Supposons que A/J(A) soit séparable. D’après le théorème 3.3.1.3 (v), le membre
 de droite
ci-dessus est semi-simple. On en déduit que J(A ⊗k B)/ J(A) ⊗k B + A ⊗k J(B) .
Maintenant, si M est un A-module complétement réductible et N est un B-module complète-
ment réductible, alors ann M ⊇ J(A) et ann N ⊇ J(B), donc l’annulateur du A ⊗k B-module
M ⊗k N contient J(A ⊗k B). Cela entraîne que M ⊗k N est un A ⊗k B-module complètement
réductible. L’assertion (i) est entièrement prouvée.

118
La preuve de l’assertion (ii) suit les mêmes lignes que celle de l’assertion (i). Les détails sont
laissés au lecteur, qui pourra d’ailleurs remarquer que quand K est une extension finie de k,
(ii) est un cas particulier de (i). 

Exercices.
(1) Soit A une k-algèbre de dimension finie, et soit trA/k : A → k l’application qui à
a ∈ A associe la trace de la multiplication à gauche par a dans A (autrement dit, trA/k
est le caractère de la représentation régulière de A). Vérifier que la forme bilinéaire
T : (a, b) 7→ trA/k (ab) sur A est symétrique. Montrer que si T est non-dégénérée, alors
A est une k-algèbre séparable. (Indication : si a ∈ J(A), alors a est nilpotent, et il
s’ensuit que trA/k (a) = 0. En déduire que si a ∈ J(A), alors T (a, b) = 0 pour chaque
b ∈ A. Ainsi J(A) = {0} dès que T est non-dégénérée. Le même raisonnement prouve
la semi-simplicité de A(K) pour chaque extension K de k.)
(2) P
(Opérateur de Reynolds) Soit A une algèbre de dimension finie séparable sur k, et soit
i∈I ai ⊗ bi un élément de A ⊗k A dont le théorème 3.3.1.3 (ix) assure l’existence. À un
A-A-bimodule M , on associe son centre Z 0 (A, M ) = {m ∈ M | am = ma}. Montrer
que l’application \ : m 7→ m\ = i∈I ai mbi est une projection k-linéaire de M sur
P
son centre. Vérifier que pour tout élément a du centre Z(A) de A et tout m ∈ M ,
on a (am)\ = am\ = m\ a = (ma)\ . Vérifier enfin que chaque homomorphisme de
A-A-bimodules f : M → N donne lieu à un diagramme commutatif

f
M /N

\ \
 
Z 0 (A, M ) / Z 0 (A, N ).
f

(3) (Relations d’orthogonalité des caractères) Soit A une algèbre de dimension finie sépa-
rable sur k, et soit i∈I ai ⊗ bi un élément de A ⊗k A dont le théorème 3.3.1.3 (ix)
P
assure l’existence. Soient M et N deux A-modules de dimension finie sur k. Montrer
que X
dimk HomA (M, N ) = χN (ai )χM (bi ).
i∈I

(Indication : on munit Homk (M, N ) de la structure de A-A-bimodule donnée par af b =


P(bm)), pour f ∈ Homk (M, N ), (a, b) ∈ A et m ∈ M . L’application linéaire
(m 7→ af 2

\ : f 7→ i∈I ai f bi de Homk (M, N ) dans lui-même est un projecteur sur le sous-espace


vectoriel HomA (M, N ). La dimension de ce dernier est donc égale à la trace de \.)

3.3.2 Cohomologie de Hochschild

Ce bref paragraphe n’a d’autre but que de préparer le terrrain pour la preuve du théorème
principal de Wedderburn, qui sera donnée au paragraphe suivant. Hormis la dernière proposi-
tion, il n’est en rien spécifique des algèbres séparables. On se fixe un corps k et une k-algèbre
A pour tout ce paragraphe.

119
Soit A une k-algèbre et M un A-A-bimodule. Pour un entier n ≥ 1, on note C n (A, M ) le
k-espace vectoriel des applications multilinéaires de An dans M . Un élément de C n (A, M )
peut aussi être vu comme une application k-linéaire de la puissance tensorielle n-ième A⊗n
dans M , où la puissance tensorielle A⊗n est le produit A ⊗k · · · ⊗k A de n facteurs. Pour n = 0,
on pose C 0 (A, M ) = Homk (k, M ) ∼= M . Les éléments de C n (A, M ) sont appelés n-cochaînes
de Hochschild.
À f ∈ C n (A, M ), on associe df ∈ C n+1 (A, M ) de la façon suivante :

df (a1 , . . . , an+1 ) = a1 f (a2 , . . . , an+1 )


Xn
+ (−1)i f (a1 , . . . , ai−1 , ai ai+1 , ai+2 , . . . , an+1 )
i=1
+ (−1)n+1 f (a1 , . . . , an )an+1 .

On définit ainsi une application k-linéaire d : C n (A, M ) → C n+1 (A, M ), appelée différentielle
de Hochschild. Un calcul rapide montre que la composée d◦d de C n−1 (A, M ) dans C n+1 (A, M )
est nulle. La suite
d
0 → C 0 (A, M ) → · · · → C n (A, M ) −
→ C n+1 (A, M ) → · · ·

s’appelle le complexe de Hochschild.


On note Z n (A, M ) le noyau de d : C n (A, M ) → C n+1 (A, M ) ; les éléments de Z n (A, M )
sont appelés les n-cocycles de Hochschild. On note B n (A, M ) l’image de d : C n−1 (A, M ) →
C n (A, M ) ; les éléments de B n (A, M ) sont appelés les n-cobords de Hochschild. L’égalité
d ◦ d = 0 entraîne l’inclusion B n (A, M ) ⊆ Z n (A, M ). On peut donc poser HH n (A, M ) =
Z n (A, M )/B n (A, M ), qu’on appelle n-ième groupe de cohomologie de Hochschild de A à
coefficients dans M . Ces groupes mesurent le défaut d’exactitude du complexe de Hochschild.
Regardons à présent quelques exemples.

Cas n = 0. Un élément de C 0 (A, M ) est une application k-linéaire de k dans M , autrement


dit un élément m ∈ M . Sa différentielle est l’application a 7→ am − ma. Ainsi Z 0 (A, M ) =
{m ∈ M | ∀a ∈ A, am = ma} est ce qu’on appelle le centre du A-A-bimodule M . On convient
de poser B 0 (A, M ) = 0, de sorte que HH 0 (A, M ) = Z 0 (A, M ).

Cas n = 1. Un élément de Z 1 (A, M ) est appelé dérivation de A à valeurs dans M . C’est une
application k-linéaire f : A → M vérifiant f (ab) = af (b) + f (a)b pour tout (a, b) ∈ A2 . Un
élément de B 1 (A, M ) est appelé dérivation intérieure : c’est une dérivation f pour laquelle
existe un élément m ∈ M tel que f (a) = ma − am pour tout a ∈ A. Le quotient HH 1 (A, M )
est parfois appelé groupe des dérivations extérieures de A à valeurs dans M .

120
Cas n = 2. Un élément de Z 2 (A, M ) est appelé ensemble de facteurs (faute d’une meilleure
traduction de l’anglais factor set). C’est une application bilinéaire f : A × A → M vérifiant
af (b, c)−f (ab, c)+f (a, bc)−f (a, b)c = 0 pour tout (a, b, c) ∈ A3 . Un élément de B 2 (A, M ) est
appelé ensemble scindé de facteurs (split factor set en anglais) : c’est un ensemble de facteurs
tel qu’il existe une application k-linéaire F : A → M telle que f (a, b) = aF (b) − F (ab) + F (a)b
pour tout (a, b) ∈ A2 .

Remarque. Ces définitions peuvent en fait s’inscrire dans un cadre plus général. Notons Ae =
A ⊗k Aop l’algèbre enveloppante de A ; elle est définie de sorte que les Ae -modules soient
exactement les A-A-bimodules. Ainsi A et M sont des Ae -modules.
Posons Cnbar (A) = A⊗n+2 . Les éléments de Cnbar (A) sont combinaisons linéaires d’éléments de
la forme a0 ⊗ a1 ⊗ · · · ⊗ an ⊗ an+1 ; on convient de simplifier la notation en écrivant plutôt
a0 [ a1 | · · · | an ] an+1 pour ce dernier. On munit Cnbar (A) d’une structure de A-A-bimodule en
faisant agir A par multiplication à gauche sur le premier facteur et par multiplication à droite
sur le dernier facteur. La suite
bar δ m
· · · → Cn+1 − Cnbar (A) → · · · → C0bar (A) −→ A → 0,
(A) →

où m est induite par la multiplication dans A (c’est-à-dire m(a ⊗ b) = ab) et où



δ a0 [ a1 | · · · | an+1 ] an+2 = (a0 a1 ) [ a2 | · · · | an+1 ] an+2
X n
+ (−1)i a0 [ a1 | · · · | ai−1 | ai ai+1 | ai+2 | · · · | an+1 ] an+2
i=1
+ (−1)n+1 a0 [ a1 | · · · | an ] (an+1 an+2 ),

est alors une suite exacte de A-A-bimodules. De plus, chaque Cnbar (A) est un Ae -module libre.
On dit que C•bar (A) est la résolution bar de A.
Le complexe de Hochschild s’obtient alors en prenant l’image par le foncteur HomAe (?, M ) de
cette résolution bar. Les méthodes de l’algèbre homologique nous assurent alors de l’existence
d’un isomorphisme canonique HH n (A, M ) ∼ = ExtnAe (A, M ).

u v
3.3.2.1 Lemme. Soit 0 → L − →M − → N → 0 une suite exacte courte de A-modules. On
munit T = Homk (N, L) de sa structure de A-A-bimodule naturelle : pour g ∈ T et (a, b) ∈ A2 ,
l’application linéaire agb : N → L est n 7→ ag(bn). Soit s : N → M une application k-linéaire
telle que v ◦ s = idN . Pour a ∈ A, l’homomorphisme de k-modules n 7→ as(n) − s(an) de N
dans M est à valeurs dans im u, donc s’écrit u ◦ (f (a)), avec f (a) ∈ Homk (N, L) uniquement
déterminé. Nous définissons ainsi une application f : A → T .
(i) L’application f est une dérivation de A à valeurs dans T , autrement dit un 1-cocyle de
Hochschild appartenant à Z 1 (A, T ).
(ii) La classe de cohomologie [f ] ∈ HH 1 (A, T ) ne dépend que de la suite exacte, et pas du
choix de s.

121
(iii) La suite exacte est scindée si et seulement si f est une dérivation intérieure, autrement
dit si et seulement si [f ] = 0 dans HH 1 (A, T ).

Preuve. Soit (a, b) ∈ A2 . Alors u ◦ (f (ab)) est l’application n 7→ abs(n) − s(abn) de N dans M ,
u ◦ (f (a)b) est l’application n 7→ as(bn) − s(abn), et la A-linéarité de u montre que u ◦ (af (b))
est l’application n 7→ a(u ◦ f (b))(n) = a(bs(n) − s(bn)). Cela prouve (i).
Soit t ∈ Homk (N, L). Les définitions montrent que quand on remplace s par s + u ◦ t, la
dérivation f est changée en f + dt. La classe de cohomologie [f ] ∈ HH 1 (A, T ) ne change donc
pas dans cette transformation. L’assertion (ii) découle ainsi du fait que toute section k-linéaire
de v s’écrit sous cette forme s + u ◦ t.
Si la suite exacte courte est scindée, alors on peut choisir une section A-linéaire s, et la
dérivation associée est f = 0. Dans l’autre sens, supposons que [f ] = 0. Alors f s’écrit dt pour
un élément t ∈ T . Le remplacement de s par s − u ◦ t fait que f est changée en f − dt = 0.
Cela signifie que s − u ◦ t est A-linéaire. Ainsi s − u ◦ t : N → M est un homomorphisme de
A-modules tel que v ◦ (s − u ◦ t) = v ◦ s = idN , ce qui montre que la suite exacte courte est
scindée. Nous avons montré (iii). 

3.3.2.2 Lemme. Soit E une k-algèbre et v : E → A un homomorphisme surjectif de k-


algèbres. Le noyau N de v est un idéal de E. On suppose que le produit de deux éléments
quelconques de N est nul. Soit u l’injection de N dans E, de façon à avoir une suite exacte
u v
courte de k-espaces vectoriels 0 → N − →E− → A → 0. On munit N d’une structure de A-A-
bimodule en décrétant que pour chaque (a, n) ∈ A × N , l’action à gauche (respectivement, à
droite) de a sur n soit le produit ãn (respectivement, nã), pour tout ã ∈ v −1 (a). (L’hypothèse
N 2 = 0 fait que le résultat ne dépend pas du choix de ã.) Soit s : A → E une application
k-linéaire telle que v ◦ s = idA . Pour (a, b) ∈ A2 , l’élément s(ab) − s(a)s(b) de E appartient à
ker v = im u, donc s’écrit u(f (a, b)). On définit ainsi une application f : A × A → N .
(i) L’application f est un ensemble de facteurs, autrement dit un 2-cocyle de Hochschild
appartenant à Z 2 (A, N ).
(ii) La classe de cohomologie [f ] ∈ HH 2 (A, N ) ne dépend que de v, et pas du choix de s.
(iii) La classe de cohomologie [f ] est nulle si et seulement s’il est possible de trouver s qui
soit un homomorphisme d’algèbres.

Preuve. La preuve, semblable en tout point à celle du lemme précédent, est laissée au lecteur.
La seule petite difficulté supplémentaire est dans la preuve de (iii) : il faut montrer que si f = 0,
alors s est un homomorphisme d’algèbres. Il est manifeste qu’alors s préserve le produit, mais
il faut aussi montrer que s préserve l’élément neutre.
Pour chaque a ∈ A, l’égalité f (1, a) = 0 signifie que s(1)s(a) = s(a). De plus, s(1) − 1
appartient au noyau de v (car v est un homomorphisme d’algèbres), donc appartient à N . Il
s’ensuit que pour chaque n ∈ N , on a (s(1) − 1)n = 0. L’ensemble des éléments x ∈ E tels que
s(1)x = x contient donc s(A) et N ; c’est donc E tout entier, et en substituant x = 1, nous
obtenons s(1) = 1. 

122
3.3.2.3 Théorème. Soit A une algèbre de dimension finie séparable sur k. Alors pour tout
A-bimodule M , on a HH n (A, M ) = 0 en tout degré n > 0.

Preuve. Prenons A, M , n comme dans l’énoncé. Soit i∈I ai ⊗ bi un élément de A ⊗k Aop


P
vérifiant les propriétés énoncées dans le théorème 3.3.1.3 (ix). Soit f : An → M un n-cocycle
de Hochschild. Définissons une n − 1-cochaîne de Hochschild g : An−1 → M par
X
g(c1 , . . . , cn−1 ) = ai f (bi , c1 , . . . , cn−1 ).
i∈I

Prenons (c1 , . . . , cn ) ∈
An . Un
Pcalcul direct etPfacile basé sur les
P définitions et utilisant les
égalités df (bi , c1 , . . . , cn ) = 0, i∈I c1 ai ⊗ bi = i∈I ai ⊗ bi c1 et i∈I ai bi = 1 donne f = dg.
Le cocycle f est donc un cobord. 

Exercice. Soit A une k-algèbre de dimension finie. Montrer que si HH 1 (A, M ) = 0 pour
tout A-A-bimodule M , alors A est séparable sur k.

3.3.3 Théorème de Wedderburn-Malcev

3.3.3.1 Théorème (Wedderburn, Malcev). Soit B une algèbre de dimension finie sur
un corps k. On note N le radical de Jacobson de B et on suppose que A = B/N est séparable
sur k.
(i) Il existe une sous-algèbre semi-simple S de B telle que B = S ⊕ N .
(ii) Si S et S 0 sont deux sous-algèbres de B telles que B = S ⊕ N = S 0 ⊕ N , alors il existe
n ∈ N tel que S 0 = (1 − n)S(1 − n)−1 .

Preuve. (i) L’assertion est vraie quand la dimension de B est 1, puisqu’alors B = k et N =


{0}. Nous pouvons donc procéder par récurrence sur la dimension de B et supposer que
(i) vaut pour toutes les algèbres de dimension plus petite que celle de B. Le lemme 3.3.2.2
et le théorème 3.3.2.3 montrent que l’assertion (i) est vraie quand N 2 = {0}. Nous nous
plaçons donc dans le cas restant N 2 6= {0}. D’après l’exercice (7) du paragraphe 2.2.1, le
radical de B = B/N 2 est N = N/N 2 . Le quotient B/N est séparable, donc par hypothèse
de récurrence, on peut trouver une sous-algèbre semi-simple S dans B telle que B = S ⊕ N .
L’image réciproque de S dans B est une sous-algèbre S1 telle que B = S1 + N et S1 ∩ N = N 2 .
L’idéal N 2 étant nilpotent, il est inclus dans le radical de Jacobson de S1 . De plus, S1 /N 2 ∼
=A
est semi-simple, et l’exercice (7) du paragraphe 2.2.1 à nouveau nous dit que N est le radical
2

de Jacobson de S1 . Nous pouvons alors appliquer notre hypothèse de récurrence à S1 , en


notant que B 6= S1 puisque N 6= N 2 . On peut donc trouver une sous-algèbre S de S1 telle que
S1 = S ⊕ N 2 . On a alors B = S ⊕ N , ce qui termine la preuve de (i).
(ii) Soit ϕ : B → A l’application de passage au quotient. La donnée des sous-algèbres S et S 0
équivaut à celle d’homomorphismes d’algèbres ψ de ψ 0 de A dans B telles que ϕ ◦ ψ = ϕ ◦ ψ 0 =
idA . Munissons N d’une structure de A-A-bimodule en posant an = ψ 0 (a)n et na = nψ(a)
pour (a, n) ∈ A × N . La fonction f : a 7→ ψ(a) − ψ 0 (a) est alors une dérivation de A à
valeurs dans N . Le théorème 3.3.2.3 dit que cette dérivation est intérieure : il existe n ∈ N
tel que f (a) = nψ(a) − ψ 0 (a)n pour chaque a ∈ A. Ainsi ψ 0 (a) = (1 − n)ψ(a)(1 − n)−1 , d’où
S 0 = (1 − n)S(1 − n)−1 . 

123
Exemple. Soient V un k-espace vectoriel de dimension finie, u un endomorphisme de V , et
µ le polynôme minimal de u. La sous-algèbre B de Endk (V ) engendrée par u est isomorphe à
k[X]/(µ). On suppose que chaque diviseur irréductible unitaire de µ est séparable sur k (c’est-
à-dire, à racines simples). Notant ν le produit des diviseurs irréductibles distincts de µ, nous
savons que le radical de Jacobson de k[X]/(µ) est (ν)/(µ) (exercice (7) du paragraphe 2.2.2).
Notons N le radical de Jacobson de B ; d’après l’exercice (6) du paragraphe 2.2.2, N est
l’ensemble des éléments nilpotents de B. L’algèbre A = B/N est isomorphe à k[X]/(ν), donc
est un produit d’extensions séparables de k, donc est une k-algèbre séparable. Nous pouvons
donc appliquer le théorème de Wedderburn-Malcev : il existe une unique sous-algèbre S de B
telle que B = S ⊕ N . Manifestement S ∼ = k[X]/(ν) ; chaque élément de S est ainsi annulé par
le polynôme ν, donc est semi-simple (exercice (3) du paragraphe 1.3.1).
Décomposons u ∈ B selon la somme directe S⊕N en u = s+n. Alors s et n sont des polynômes
en u, donc commutent. De plus, n est nilpotent car n ∈ N , et s est semi-simple car s ∈ S.
Nous montrons ainsi l’existence d’une décomposition de Jordan-Dunford de u. Examinons à
présent l’unicité. On part d’une décomposition u = s + n, avec s semi-simple, n nilpotent, et
s et n des polynômes en u (cette hypothèse affaiblit notre résultat d’unicité en comparaison
de l’énoncé habituel du théorème de Jordan-Dunford). Alors n ∈ N et B = k[s] + N , car
pour tout polynôme P ∈ k[X], on a P (u) ≡ P (s) mod (n). Par ailleurs, k[s] est une algèbre
semi-simple et commutative ; elle n’a donc pas d’élément nilpotent, d’où k[s] ∩ N = {0}. Ainsi
B = k[s] ⊕ N est la décomposition de Wedderburn-Malcev de B. Cela montre que S = k[s], et
par suite notre écriture u = s + n était celle qu’on obtenait en décomposant u selon la somme
directe B = S ⊕ N .

Remarque. L’existence de la décomposition de Jordan-Dunford est généralement prouvée par


des méthodes de décomposition spectrale. Néanmoins, il existe également une démonstration
basée sur un principe itératif semblable à la preuve du lemme de Hensel (autrement dit,
à la méthode de Newton de résolution des équations, mais dans un cadre ultramétrique).
Cette démonstration est en fait celle donnée ci-dessus, à cette différence non-négligeable près
qu’on fait abstraction de tout le matériel nécessaire au cadre non-commutatif. Du reste, en
y regardant de plus près, on constate que la preuve du théorème principal de Wedderburn
que nous avons présentée procède elle aussi par approximations successives : le cas général
N k = {0} où k > 2 est ramené au cas N 2 = {0}. Les moyens sophistiqués développés aux
paragraphes 3.3.1 et 3.3.2 sont destinés à traiter ce dernier cas.

3.3.4 Le théorème de réciprocité de Brauer

Remarque (décembre 2022). Le théorème 3.3.4.1 présenté plus loin dans ce paragraphe n’est
pas pertinent. L’énoncé suivant requiert moins d’hypothèses et sa démonstration est plus
simple.
Soient A un anneau et M un A-module de longueur finie. Rassemblons les termes isomorphes
d’une décomposition de Krull-Schmidt de M en écrivant M ∼ ⊕ni
L
= i∈I i , où les A-modules
N
Ni sont indécomposables et deux à deux non isomorphes. Posons B = EndA (M ), et pour i ∈ I,
posons Bi = EndA (Ni ) (un anneau local) et ∆i = Bi /J(Bi ) (son anneau à division résiduel).

124
(i) Le radical de JacobsonQJ(B) est formé d’éléments nilpotents et l’anneau B/J(B) est
isomorphe au produit i∈I Matni (∆i ).
(ii) Pour chaque i ∈ I, la tête Si du B-module HomA (Ni , M ) est simple. On obtient ainsi
tous les B-modules simples à isomorphisme près. L’anneau des endomorphismes de Si
est ∆op op
i et Si est un ∆i -espace vectoriel de dimension ni .
(iii) Si M est de longueur finie en tant que B-module, alors la multiplicité de Jordan-Hölder
de Si dans ce module est égale à la longueur de Ni en tant que Bi -module.

On peut même démontrer que le radical de Jacobson J(B) est un idéal nilpotent (théorème
de Small et Fisher ; voir [1], Theorem 29.2).
Esquisse de preuve. L’anneau B 0 des endomorphismes de i∈I Ni⊕ni est un ensemble de ma-
L
trices par blocs, le bloc (i, j) devant appartenir à Matni ,nj (HomA (Nj , Ni )). Si i 6= j, alors
v ◦ u ∈ J(Bi ) pour chaque (u, v) ∈ HomA (Ni , Nj ) × HomA (Nj , Ni ) ; par suite, le sous-groupe
additif J de B 0 formé des matrices dont les blocs diagonaux appartiennent à Matni (J(Bi )) est
un idéal. Chaque choix d’une décomposition de Krull-Schmidt de M définit un isomorphisme
ϕ : B → B 0 , cependant l’idéal ϕ−1 (J) est indépendante de ce choix, car deux décompositions
de Krull-Schmidt de M sont conjuguées par l’action du groupe AutA (M ). De cette observa-
tion, on déduit que les éléments ϕ−1 (J) sont nilpotents : en effet, regardons un endomorphisme
f ∈ B pour lequel la somme directe M = f ∞ (M ) ⊕ f −∞ (0) donnée par le lemme de Fitting
possède un terme f ∞ (M ) non trivial ; alors, pour l’isomorphisme ϕ défini par une décomposi-
tion de Krull-Schmidt appropriée, la matrice ϕ(f ) comporte un bloc diagonal inversible, donc
ne peut pas appartenir à J. Ceci entraîne que ϕ−1 (J) est inclus dans le radical de Jacobson
J(B), et finalement lui est égal puisque l’anneau quotient B/ϕ−1 (J) ∼ = B 0 /J est isomorphe à
i∈I Matni (∆i ) donc est semi-simple.
Q

Pour i ∈ I, notons ei ∈ B l’idempotent donné par la projection sur un facteur direct du A-


module M isomorphe à Ni ; c’est un idempotent primitif de B. Le B-module Bei est isomorphe
à HomA (Ni , M ) et est projectif (et indécomposable). Le module quotient Bei /J(B)ei s’iden-
tifie à un sous-espace de Matni (∆i ) obtenu en sélectionnant une colonne ; il est donc simple,
ce qui justifie de le noter Si . Ainsi Bei est la couverture projective de Si . Supposant que le B-
module M est de longueur finie, la multiplicité de Jordan-Hölder de Si dans ce module est alors
égale à la longueur de HomB (Bei , M ) ∼ = ei M vu comme module sur EndB (Bei )op = ei Bei
(proposition 2.3.4.4), c’est-à-dire à la longueur de Ni en tant que Bi -module. 
A priori M peut être de longueur infinie en tant que B-module. Un exemple consiste à prendre
pour M un espace vectoriel de dimension infinie sur un corps k et pour A l’ensemble des
endomorphismes de M de la forme λidM + u, où λ ∈ k et u est de rang fini.
Dans le cas où A est une algèbre sur un corps k et M est de dimension finie sur k, nous obtenons
les égalités ni = dimk Si / dimk ∆i et (M : Si ) = dimk Ni / dimk ∆i . (Le membre de droite de
la seconde égalité est bien la longueur de Ni en tant que Bi -module, car à isomorphisme près
∆i est le seul Bi -module simple.)
Le nom « théorème de réciprocité de Brauer » n’est pas opportun. De fait, dans la partie II
de [4], Brauer examine seulement le cas particulier où M est le module régulier gauche A A
de l’algèbre d’un groupe fini sur un corps algébriquement clos de caractéristique positive et
démontre que dans ce cadre le nombre de classes d’isomorphisme de A-modules projectifs
indécomposables est égal au nombre de classes d’isomorphisme de A-modules simples.

125
Le texte original de ce paragraphe 3.3.4 est reproduit ci-dessous.

3.3.4.1 Théorème. Soient A et B deux algèbres de dimension finie sur un corps k, et


soit M un A-B-bimodule de dimension finie sur k. On suppose que les images de A et B dans
Endk (M ) sont les commutants l’une de l’autre. On suppose l’existence d’une sous-algèbre A0
de A telle que A = A0 ⊕ J(A).
(i) Pour chaque A-module simple S, le B-module T = HomA0 (S, M ) est soit nul, soit
indécomposable.
(ii) L’application S 7→ T est une bijection entre l’ensemble des classes d’isomorphismes de
A-modules simples apparaissant comme sous-quotients de M et l’ensemble des classes
d’isomorphisme de B-modules indécomposables apparaissant comme facteurs directs
de M .
(iii) Soient S un A-module simple, ∆ = EndA (S)op , T = HomA0 (S, M ). La multiplicité
de Jordan-Hölder du A-module S dans M est égale à dim∆ T = dimk T / dimk ∆. La
multiplicité (de Krull-Schmidt) avec laquelle T apparaît dans les décompositions de M
en somme directe de B-modules indécomposables est égale à dim∆ S = dimk S/ dimk ∆.

Preuve. Le A0 -module M est complètement réductible, car A0 ∼ = A/J(A) est semi-simple.


Posons B 0 = EndA0 (M )op ; alors B 0 ⊇ EndA (M ) = B. Nous pouvons écrire M comme somme
de ses composantes A0 -isotypiques. D’après le paragraphe 1.4.5, cela donne l’isomorphisme
de A -B -bimodules M = ∼
(S)∈S S ⊗∆ T . Cette somme porte sur l’ensemble des classes
0 0
L

d’isomorphisme de A0 -modules simples S apparaissant comme sous-quotients de M ; ∆ =


EndA0 (S) est un anneau à division ; T = HomA0 (S, M ) est un B 0 -module simple ; enfin les
B 0 -modules T correspondant à deux A0 -modules S non-isomorphes sont non-isomorphes. En
choisissant une base du ∆-module S, lequel est nécessairement libre (Proposition 1.3.1.3), on
met en évidence que T est un facteur direct du B 0 -module M , de multiplicité dim∆ S. De
même, on voit que la multiplicité de S dans le A0 -module M est égale à dim∆ T .
Soit 0 = M0 ⊆ M1 ⊆ · · · ⊆ M`−1 ⊆ M` = M une série de composition du A-module M .
Les sous-quotients sont des A-modules simples. Étant annulés par J(A), ces sous-quotients
sont aussi simples sur l’anneau A0 . Ainsi notre série de composition est également une série de
composition de A0 -modules. Cela entraîne que la multiplicité de Jordan-Hölder d’un module
simple S dans M ne varie pas, qu’on regarde S et M comme des modules sur A ou sur A0 .
À ce stade, il nous reste à montrer que les B 0 -modules simples T sont indécomposables et
deux-à-deux non-isomorphes quand on les regarde comme des B-modules. Reprenons notre
série de composition. Pour chaque n ∈ {1, . . . , `}, nous pouvons trouver un sous-A0 -module
Nn supplémentaire de Mn−1 dans Mn . Alors M = N1 ⊕ · · · ⊕ N` en tant que A0 -module.
Fixons-nous un A-module simple S apparaissant dans M . Posons ∆ = EndA (S)op et T =
EndA0 (S, M ). Soit ϕ ∈ EndB (T ). Prenons une base (e1 , . . . , em ) du ∆-module àLdroite S et
écrivons la composante S-isotypique du A0 -module M sous la forme S ⊗∆ T = m i=1 ei ⊗ T .
Définissons ϕ̃ ∈ EndB (M ) en demandant que ϕ̃(ei ⊗ t) = ei ⊗ ϕ(t) pour chaque t ∈ T et que
ϕ̃ soit nulle sur les autres composantes isotypiques de A0 M . Par hypothèse, ϕ̃ est l’image dans
Endk (M ) d’un élément de A, élément que nous écrivons a0 + u, avec a0 ∈ A0 et u ∈ J(A).

126
Supposons qu’il existe i ∈ {1, . . . , m} tel que a0 ei = 0. Pour chaque t ∈ T , on a alors

ei ⊗ ϕ(t) = ϕ̃(ei ⊗ t) = (a0 + u)(ei ⊗ t) = u(ei ⊗ t).

On en déduit que ei ⊗ ϕk (t) = uk (ei ⊗ t). Comme u est nilpotent, il existe un k, qui ne dépend
pas de t, tel que ei appartienne au noyau de ϕk (t). Comme S est un A0 -module simple, cela
signifie que ϕk (t) = 0. Ceci étant vrai pour chaque t ∈ T , ϕ est nilpotent.
Supposons au contraire que a0 ei n’est nul pour aucun Pmindice i. Définissons alors une matrice
(αij )1≤i,j≤m d’éléments de ∆ de sorte que a ei = j=1 ej αji pour chaque i. Appelons Np1 ,
0

..., Npr ceux des sous-modules Nn qui sont isomorphes à S et choisissons des isomorphismes
de A0 -module f1 : S → Np1 , ..., fr : S → Npr . Alors (f1 , . . . , fr ) est une baseP
du ∆-module T .
r
Définissons alors une matrice (φkl )1≤k,l≤r d’éléments de ∆ par ϕ(fk ) = l=1 φkl fl . Pour
chaque i ∈ {1, . . . , m} et chaque k ∈ {1, . . . , r}, l’élément
r
X m
X
ei ⊗ φkl fl − ej αji ⊗ fk = ϕ̃(ei ⊗ fk ) − a0 (ei ⊗ fk ) = u(ei ⊗ fk )
l=1 j=1

appartient à M
  
S ⊗∆ T ∩ u Mpk = S ⊗∆ T ∩ Mpk −1 = S ⊗ fl .
l<k
Pm
On en déduit que ei φkl = 0 si l > k, et que ei φkk = j=1 ej αji . Ceci devant être valable
pour chaque i et chaque k, nous en déduisons que φkl = 0 si l > k, que αji = 0 si i 6= j,
et que les αii et P les φkk sont tous égaux. Nous voyons ainsi qu’il existe α ∈ ∆ tel que
×

ϕ(fk ) − αfk ∈ l<k ∆fl pour chaque k ∈ {1, . . . , r}. Cette conclusion n’est en rien liée au
choix de (f1 , . . . , fr ) auquel nous avons procédé ; on peut y remplacer fk par λk fk chaque fois
que c’est utile, pour n’importe quel λk ∈ ∆× , sans que la valeur de α soit altérée. Il est alors
aisé de voir que ϕ est bijective. (La dernière observation est nécessaire pour s’accomoder de
ce que ϕ n’est pas ∆-linéaire.)
Les deux étapes précédentes montrent qu’un élément ϕ de EndB (M ) est toujours nilpotent
ou inversible, d’où l’indécomposabilité du B-module M .
Supposons enfin qu’on puisse trouver deux A-modules simples S et S 0 non-isomorphes pour les-
quels existe un isomorphisme de B-modules ϕ entre T = HomA0 (S, M ) et T 0 = HomA0 (S 0 , M ).
Parmi les modules Nn de notre suite de composition, énumérons (dans l’ordre croissant des
indices) les modules Np1 , ..., Npr isomorphes à S et les modules Nq1 , ..., Nqs isomorphes
à S 0 . Quitte à échanger les rôles de S et S 0 , nous pouvons supposer que p1 < q1 . Posons
∆ = EndA (S)op , T = HomA0 (S, M ), ∆0 = EndA (S 0 )op et T 0 = HomA0 (S 0 , M ). Choisissons
une base (e1 , . . . , em ) du ∆-module à droite S et un élément non-nul
Lm e0 ∈ S 0 . La composante
S-isotypique du A -module M s’écrit sous la forme S ⊗∆ T = i=1 ei ⊗ T ; la composante S 0 -
0

isotypique de M est S 0 ⊗∆0 T 0 . Définissons ϕ̃ ∈ EndB (M ) en demandant que ϕ̃(e1 ⊗t) = e0 ⊗ϕ(t)
pour chaque t ∈ T , que ϕ(ei ⊗ t) = 0 si i > 1, et que ϕ soit nulle sur les composantes iso-
typiques de A0 M autres que S ⊗∆ T . Par hypothèse, ϕ est donnée par l’action sur M d’un
élément a de A. Soit f : S → Np1 un isomorphisme de A0 -modules. Alors

e0 ⊗ ϕ(f ) = ϕ̃(e1 ⊗ f ) = a(e1 ⊗ f ) ∈ Mp1 .

Cependant le membre de gauche appartient à la composante S 0 -isotypique du A0 -module M ,


laquelle est Nq1 ⊕ · · · ⊕ Nqs . De l’inégalité p1 < q1 vient alors que e0 ⊗ ϕ(f ) = 0. Ainsi e0

127
appartient au noyau de ϕ(f ) ∈ T 0 . Ce noyau est ainsi un sous-A0 -module non-nul de S 0 , donc
est S 0 tout entier, d’où ϕ(f ) = 0, ce qui contredit l’injectivité de ϕ. Bref notre hypothèse
de départ était absurde : deux B-modules indécomposables T et T 0 correspondant à deux
A-modules simples S et S 0 non isomorphes ne peuvent être isomorphes. 

Remarque. L’hypothèse du théorème sur l’existence d’une décomposition A = A0 ⊕ J(A)


est satisfaite dès que A/J(A) est une algèbre séparable, d’après le théorème de Wedderburn-
Malcev. Dans ce cas, on a en plus unicité de A0 à conjugaison près : pour toute autre décom-
position A = A00 ⊕ J(A), il existe n ∈ J(A) tel que A00 = (1 − n)A0 (1 − n)−1 . Alors pour chaque
A-module S, les B-modules indécomposables HomA0 (S, M ) et HomA00 (S, M ) sont isomorphes ;
en utilisant que J(A) annule S, on vérifie en effet sans peine qu’une application f : S → M
est A0 -linéaire si et seulement si l’application g : S → M définie par g(s) = (1 − n)f (s)
est A00 -linéaire. Ainsi la correspondance bijective mise en place dans l’assertion (ii) du théo-
rème 3.3.4.1 est indépendante du choix de A0 .

128
4 Représentations des groupes

Introduction

Le père fondateur de la théorie des représentations est Ferdinand Georg Frobenius (1849–
1917). Le problème qui a initié ses recherches était le calcul du Gruppendeterminant. Partant
d’un groupe fini G, on introduit une famille d’indéterminées (Xg )g∈G . On regarde la matrice
(Xgh )(g,h)∈G2 , dont les coefficients sont des indéterminées, et on cherche à calculer son déter-
minant, qui est un polynôme homogène de degré égal à l’ordre de G. Le cas où G est un groupe
abélien avait été traité par Dedekind pour des travaux sur les bases normales des extensions
galoisiennes : sur C, le polynôme se factorise en produit de facteurs de degré 1. Dedekind avait
signalé à Frobenius que le cas général était une question ouverte. Frobenius a prouvé que le
Gruppendeterminant avait s facteurs irréductibles distincts, où s est le nombre de classes de
conjugaison de G, que chaque facteur irréductible apparaissait avec une multiplicité égale à
son degré, et que les degrés des facteurs irréductibles divisaient l’ordre de G.
Une représentation linéaire d’un groupe G est un homomorphisme de G dans un groupe de
matrices GLn (k). Le but est d’utiliser les outils du calcul matriciel pour pouvoir ensuite dire
des choses sur G. Une autre façon de dire cela est d’avoir la prétention de penser connaître
suffisamment bien le groupe concret GLn (k) pour en tirer des informations sur tous les autres
groupes. On peut justifier cette approche à travers deux résultats dûs à Schur, et dont on
pourra trouver une preuve dans le chapitre 36 de [6] :
— Soit G un sous-groupe de GLn (C). On suppose que G est engendré par un nombre fini
d’éléments et que tout élement de G est d’ordre fini. Alors G est fini.
— Soit G un sous-groupe de GLn (C). On suppose que tout élement de G est d’ordre fini.
Alors G possède un sous-groupe abélien distingué d’indice au plus
√ 2 √ 2
( 8n + 1)2n − ( 8n − 1)2n .
Un autre point de vue est le suivant. Un groupe n’existe qu’à travers ses actions. Vu que l’al-
gèbre linéaire est un pilier de notre culture mathématique, il est naturel d’étudier les actions
d’un groupe sur un espace vectoriel. Des applications apparaissent alors, tant en géométrie
élémentaire (l’existence de l’icosaèdre reflète l’existence d’une représentation réelle de dimen-
sion 3 du groupe alterné A5 ) qu’en analyse (la théorie des séries de Fourier permet d’écrire
une fonction sur U(1) comme combinaison linéaire de caractères du groupe U(1)).
Enfin, la théorie a aussi des applications dans le grand monde, puisque ce dernier est écrit en
caractères mathématiques. Par exemple, le formalisme de la mécanique quantique est basé sur
les espaces de Hilbert. Toute symétrie d’un système physique provient donc d’une action d’un
groupe sur un espace de Hilbert. Ainsi le spin des particules élémentaires, si important pour
la résonance magnétique nucléaire par exemple, provient d’une représentation de SU(2) sur
l’espace des états internes de la particule.

4.1 Définition, premiers exemples et constructions

Bien qu’il soit parfois utile d’examiner des représentations de groupes sur des anneaux com-
mutatifs quelconques, nous conviendrons dans tout ce chapitre que k est un corps.

129
4.1.1 k-algèbre d’un groupe

Représentation matricielle d’un groupe : soient G un groupe et k un corps. Une représentation


matricielle de G sur k est un homomorphisme de groupes de G dans un groupe linéaire GLn (k).
Ici n est un entier strictement positif, appelé degré de la représentation.
Une variante sans coordonnée de cette définition est la suivante. Une représentation k-linéaire
d’un groupe G est une action de G sur un k-espace vectoriel (souvent de dimension finie),
chaque élément de G agissant par un automorphisme de V . Autrement dit, une représentation
k-linéaire de G est la donnée d’un k-espace vectoriel V et d’un homomorphisme de groupes
de G dans GL(V ).
Expliquons tout de suite comment cette notion se rapporte aux chapitres précédents du cours.
Donnons-nous G et k comme ci-dessus. On peut alors définir une k-algèbre, notée kG (ou
k[G]), et appelée la k-algèbre du groupe G, de la façon P
suivante. Comme k-espace vectoriel,
kG est l’ensemble des combinaisons k-linéaires formelles g∈G ag g, où (ag )g∈G est une famille
d’éléments de k presque tous nuls. Autrement dit, kG est le k-espace vectoriel de base G, ce
qui permet d’identifier G à un sous-ensemble de kG.
Le produit sur kG est défini par bilinéarité à partir du produit de G :
! ! !
X X X X X
ag g bh h = ag bh (gh) = agh−1 bh g.
g∈G h∈G (g,h)∈G2 g∈G h∈G

Si e désigne l’élement neutre du groupe G, alors le neutre multiplicatif de l’anneau kG est 1e,
qu’on note plus simplement 1 ou e.

4.1.1.1 Proposition. Soit G un groupe, k un corps, et A une k-algèbre. Tout homomor-


phisme de groupes de G dans A× se prolonge en un unique homomorphisme de k-algèbres de
kG dans A. Réciproquement, la restriction à G d’un homomorphisme d’algèbres de kG dans
A est un homomorphisme de groupes de G dans A× .

Preuve. Soit π un homomorphisme de groupes de G dans A× . La seule application k-linéaire


de kG dans A qui prolonge π est donnée par
X X
ag g 7→ ag π(g).
g∈G g∈G

On vérifie alors sans peine que cette application est un homomorphisme d’algèbres, c’est-à-dire
qu’elle préserve le produit et le neutre multiplicatif. Les détails et la preuve de la réciproque
sont laissés en exercice au lecteur. 

Appliquée à la k-algèbre A = Matn (k), cette proposition montre que la donnée d’une repré-
sentation matricielle de G sur k est équivalente à la donnée d’une représentation matricielle de
kG de même degré. Appliqué à la k-algèbre A = Endk (V ), où V est un k-espace vectoriel, cette
proposition montre que la donnée d’une représentation linéaire de G sur V est équivalente à
la donnée d’une structure de kG-module sur V .

130
Dans la suite, nous utiliserons ainsi librement le langage établi au chapitre 3. Seule variation :
si M et N sont deux représentations de G sur k, on note souvent HomG (M, N ) au lieu de
HomkG (M, N ).

Exercice. Soit k un anneau commutatif, soient G et H deux groupes. Construire un iso-


morphisme naturel de k-algèbres k(G × H) ∼
= kG ⊗k kH.

4.1.2 Exemples

4.1.2.1 Représentations de permutation. Soit G un groupe agissant sur un ensemble fini


Ω. Soit k un corps. Construisons le k-espace vectoriel V = k (Ω) de base (eω )ω∈Ω . À g ∈
G, on associe l’automorphisme eω 7→ egω de V ; dans la base (eω )ω∈Ω , la matrice de cet
automorphisme est une matrice de permutation. On obtient ainsi un homomorphisme de
groupes de G dans GL(V ), ce qui munit V d’une structure de kG-module. On dit que V est
la représentation de permutation associée au G-ensemble Ω.

4.1.2.2 Caractères linéaires. Une représentation de degré 1 d’un groupe G s’appelle un


caractère linéaire de G. C’est donc un homomorphisme de G dans le groupe abélien GL1 (k) ∼
=
k . Une telle représentation est évidemment irréductible.

Si λ et µ sont deux caractères linéaires, alors leur produit g 7→ λ(g)µ(g) est encore un caractère
linéaire. L’ensemble des caractères linéaires de G est ainsi un groupe abélien : l’élement neutre
est le caractère unité g 7→ 1, et l’inverse d’un caractère linéaire λ est g 7→ λ(g)−1 .

4.1.2.3 Groupe cyclique Cn . Ici nous prenons k = C. Soit g un générateur de Cn . Pour


chaque racine n-ième ζ de l’unité dans C, il existe un caractère linéaire de G qui envoie g
sur ζ. On obtient ainsi n caractères linéaires, qui sont autant de représentations irréductibles
deux à deux non-équivalentes.

4.1.2.4 Groupe diédral Dn . Ici nous prenons k = R ou C. Le groupe diédral Dn possède


2n éléments ; il est engendré par deux éléments r et s, qui vérifient rn = s2 = (rs)2 = 1. On
voit facilement que chaque élément de Dn s’écrit rk ou rk s, avec k ∈ {0, . . . , n − 1} unique.
L’élement r engendre un sous-groupe cyclique d’ordre n et d’indice 2 (donc distingué). Posons
θ = 2π/n.
L’application constante égale à 1 et l’application appelée « signature »

ε : rk 7→ 1, rk s 7→ −1,

toutes deux de G dans k ∗ , sont des caractères linéaires de Dn . Nous avons donc déjà trouvé
deux représentations irréductibles de Dn .

131
Pour n impair, Dn possède 2 + (n − 1)/2 classes de conjugaison : {1}, {rk s | 0 ≤ k < n}, et
les paires {rj , r−j } pour j entier entre 1 et (n − 1)/2. Pour chaque tel j, posons
   
cos jθ − sin jθ 1 0
Rj = et S = .
sin jθ cos jθ 0 −1

Ces matrices appartiennent à GL2 (k) et vérifient les relations (Rj )n = S 2 = (Rj S)2 = I. Il
existe donc un homomorphisme de groupes de Dn dans GL2 (k) qui envoie r sur Rj et s sur
S ; dans cet homomorphisme,
   
cos jkθ − sin jkθ cos jkθ sin jkθ
k
r 7→ et r s 7→
k
.
sin jkθ cos jkθ sin jkθ − cos jkθ

Cette représentation est irréductible, car Rj et S n’ont pas de vecteur propre commun (ni sur
R, ni sur C). Nous obtenons ainsi (n − 1)/2 représentations irréductibles de degré 2 de Dn .
Elles sont par ailleurs deux à deux non-équivalentes : les matrices Rj ont des traces différentes,
donc appartiennent à des classes de conjugaison différentes dans GL2 (k). Au total, nous avons
donc construit 2 + (n − 1)/2 représentations irréductibles de Dn .
Pour n pair, Dn possède 3 + n/2 classes de conjugaison : {1}, {rn/2 }, {r2k s | 0 ≤ k < n/2},
{r2k+1 s | 0 ≤ k < n/2}, et les paires {rj , r−j } pour j entier entre 1 et n/2 − 1. Pour chaque
tel j, nous pouvons à nouveau poser
   
cos jθ − sin jθ 1 0
Rj = et S = ,
sin jθ cos jθ 0 −1

constater que ces matrices appartiennent à GL2 (k) et vérifier les relations (Rj )n = S 2 =
(Rj S)2 = I. Il existe donc une représentation de degré 2 de Dn qui envoie r sur Rj et s sur
S. Nous obtenons ainsi n/2 − 1 représentations irréductibles distinctes de degré 2 de Dn . Par
ailleurs, le groupe Dn possède deux autres caractères linéaires, donnés par

rk 7→ (−1)k , rk s 7→ (−1)k et rk 7→ (−1)k , rk s 7→ (−1)k+1 .

Au total, nous avons construit 3 + n/2 représentations irréductibles deux à deux non-équi-
valentes de Dn .

4.1.2.5 Groupe quaternionique Q d’ordre 8. Ici nous prenons k = C. Le groupe Q est le


sous-groupe du groupe des quaternions inversibles formé par les 8 éléments ±1, ±i, ±j, ±k.
On a les relations i2 = j 2 = k 2 = ijk = −1 et (−1)2 = 1. Le centre de Q est le sous-groupe
{±1} à deux éléments. Il y a cinq classes de conjugaison : {1}, {−1}, {±i}, {±j} et {±k}.
Les quatre homomorphismes suivants de Q dans C∗

±1 7→ 1, ±i 7→ 1, ±j 7→ 1, ±k 7→ 1
±1 7→ 1, ±i 7→ 1, ±j 7→ −1, ±k 7→ −1
±1 7→ 1, ±i 7→ −1, ±j 7→ 1, ±k 7→ −1
±1 7→ 1, ±i 7→ −1, ±j 7→ −1, ±k 7→ 1

132
fournissent quatre représentations de degré 1 de Q. Par ailleurs, les trois matrices (de Pauli)
     
0 1 0 −i 1 0
σx = , σy = et σz =
1 0 i 0 0 −1

vérifient (−iσx )2 = (−iσy )2 = (−iσz )2 = (−iσx )(−iσy )(−iσz ) = −I. Il existe donc une
représentation matricielle de Q de degré 2 qui envoie −1, i, j et k sur −I, −iσx , −iσy et −iσz ,
respectivement. Cette représentation de Q est irréductible, car −iσx , −iσy et −iσz n’ont pas
de vecteur propre commun.
Une remarque pour conclure : adoptons les notations usuelles pour l’algèbre H des quaternions.
En particulier, H est un R-espace vectoriel de dimension 4, de base (1, i, j, k). L’ensemble
Sp(1) = {q ∈ H | q q̄ = 1} des quaternions de norme 1 est un groupe, homéomorphe à la
sphère de dimension 3. Le plongement de R-algèbres
 
a − id −c − bi
a + bi + cj + dk 7→
c − bi a + id

de H dans Mat2 (C) induit par restriction un isomorphisme de groupes de Sp(1) sur SU(2).
La représentation de Q de degré 2 que nous venons de définir est la composée

Q ,→ Sp(1) ∼
= SU(2) ,→ GL2 (C).

4.1.3 Opérations sur les représentations

On se fixe un groupe G et un corps k.


Représentation unité (ou triviale) : c’est l’homomorphisme constant g 7→ (1) de G dans
GL1 (k). On la note 1, ou k quand on veut indiquer le corps de base.
Somme directe : soient deux représentations linéaires de G, sur des k-espaces vectoriels V et
W . On définit une représentation linéaire de G sur V ⊕ W en faisant agir G diagonalement,
c’est-à-dire simultanément sur les deux termes de la somme : l’action de g ∈ G sur un élément
v ⊕ w est donnée par g(v ⊕ w) = gv ⊕ gw. On peut dire cela d’une autre manière : étant donnés
deux représentations matricielles X : G → GLm (k) et Y : G → GLn (k), on définit X ⊕ Y :
G → GLm+n (k) comme la composée de l’homomorphisme de groupes g 7→ (X(g), Y (g)) avec
le plongement GLm (k) × GLn (k) ,→ GLm+n (k) obtenu en bâtissant une matrice carrée de
taille (m + n) × (m + n) à partir de deux blocs diagonaux de taille m × m et n × n.
Produit tensoriel : soient deux représentations linéaires de G, sur des k-espaces vectoriels V et
W . On définit une représentation linéaire de G sur V ⊗k W en faisant P agir G simultanément
sur
Ples deux facteurs
 P du produit : l’action de g ∈ G sur un tenseur i∈I vi ⊗ wi est donnée par
g i∈I vi ⊗ wi = i∈I gvi ⊗ gwi . On peut dire cela d’une autre manière : étant donnés deux
homomorphismes de groupes X : G → GLm (k) et Y : G → GLn (k), on définit X ⊗ Y : G →
GLmn (k) comme la composée de l’homomorphisme g 7→ (X(g), Y (g)) avec le plongement

133
GLm (k) × GLn (k) ,→ GLmn (k) provenant de l’isomorphisme de k-algèbres Matm (k) ⊗k
Matn (k) ∼
= Matmn (k) de l’exemple 3.1.2.1 (7) 15 .
Le produit tensoriel de deux représentations est une opération commutative quand on ne
regarde les représentations qu’à équivalence près. De fait,
P étant données
P deux représentations
linéaires de G sur des espaces vectoriels V et W , le flip i∈I vi ⊗wi 7→ i∈I wi ⊗vi de V ⊗k W
sur W ⊗k V est un isomorphisme de kG-modules. De la même manière, la somme directe de
deux représentations est une opération commutative quand on ne regarde les représentations
qu’à équivalence près.
Contragrédiente : soit V un kG-module à gauche. Alors le k-espace vectoriel V ∗ = Homk (V, k)
est muni d’une structure de kG-module à droite, ainsi que nous l’avons observé dans la re-
marque 3.2.1.1. On peut transformer cette action à droite de G sur V ∗ en une action à gauche
en utilisant l’involution g 7→ g −1 de G. Concrètement, l’action de g sur une forme linéaire
f ∈ V est donnée par gf = m 7→ f (g m) . On peut dire cela d’une autre manière : étant
∗ −1


donné un homomorphisme de groupes X : G → GLn (k), on définit X ∗ : G → GLn (k) en


disant que X ∗ (g) est la transposée de X(g −1 ).
Homk (?, ?) : soient deux représentations linéaires de G, sur des k-espaces vectoriels V et W .
On définit une représentation de G sur l’espace Homk (M, N ) en décrétant  que l’action de
g ∈ G sur une application k-linéaire f est donnée par gf = m 7→ gf (g m) . On peut définir
−1

cette action d’une autre manière, en transportant à Homk (M, N ) la structure de kG module
par l’isomorphisme naturel de k-modules M ∗ ⊗k N ∼ = Homk (M, N ) (voir l’exercice du para-
graphe 3.1.1). Vice-versa, la représentation contragrédiente M ∗ s’identifie à la représentation
Homk (M, k), le deuxième kG-module k étant ici la représentation unité.
Puissances tensorielles, symétriques et extérieures : si on se donne une représentation linéaire
de G sur un espace vectoriel V , alors chaque Tn V est muni d’une action linéaire de G (par
itération de la construction ci-dessus du produit tensoriel de deux représentations). Ainsi G
agit par automorphismes sur l’algèbre T V . Les noyaux des applications canoniques de T V
sur S V et V sont des idéaux et des V sous-kG-modules de T V : cela permet V de définir une
V
action de G sur les quotients S V et V . Alors chaque pièce graduée Sn V et n V est l’espace
d’une représentation linéaire de G. Enfin les complexes de Koszul (théorème 3.1.4.6) sont des
suites exactes de kG-modules.
Invariants : soit π : G → GL(V ) une représentation d’un groupe T G sur un k-espace vectoriel
V . L’espace des invariants est le sous-espace vectoriel invG V = g∈G ker(π(g) − idV ) ; c’est
le plus grand sous-espace sur lequel l’action de G est triviale. (On note souvent V G au lieu
de invG V , mais cette notation prête confusion avec celle employée pour indiquer la puissance
d’un ensemble ou l’induite d’une représentation.)
Coinvariants : soit
P π : G → GL(V ) une représentation d’un groupe G sur un k-espace vectoriel
V . Posons J = g∈G im(π(g) − idV ). L’espace des coinvariants est l’espace vectoriel quotient
coinvG V = V /J ; c’est le plus grand quotient de V sur lequel l’action de G est triviale.
15. L’isomorphisme Matm (k) ⊗k Matn (k) ∼ = Matmn (k) n’est pas canonique, mais déterminé seulement à
composition par un automorphisme de Matmn (k) près. Cependant, l’exercice (2) du paragraphe 2.1.1 montre
que les automorphismes de la k-algèbre Matmn (k) sont de la forme A 7→ SAS −1 , où S ∈ GLmn (k). Le
plongement GLm (k) × GLn (k) ,→ GLmn (k) est donc déterminé à conjugaison près, et la représentation
matricielle X ⊗ Y est déterminée à équivalence près.

134
Exercices.
(1) Soient V et W deux k-représentations de G. Montrer que HomG (V, W ) est l’espace des
G-invariants de la représentation Homk (V, W ).
(2) Soient G un groupe et V une représentation de G sur un corps k. Construire des
isomorphismes canoniques de k-espaces
∗ vectoriels HomG (k, V ) = invG V , coinvG V =
k ⊗kG V et HomG (V, k) = coinvG V , où k est la représentation unité de G.
(3) Soit V une k-représentation de G. Montrer que invG V et J sont des sous-kG-modules de
V . Montrer que si le kG-module V est complètement réductible, alors V = invG V ⊕ J
et la composée invG V ,→ V  coinvG V est un isomorphisme d’espaces vectoriels.
(Indication : pour montrer que V = invG V ⊕ J, on commencera par traiter le cas où
π est irréductible en distinguant selon que π est la représentation triviale ou non.)

4.1.4 Fonctions centrales et caractères

4.1.4.1 Rappels sur la trace d’une application linéaire. Soit k un corps. Dans ces rappels,
tous les espaces vectoriels seront des k-espaces vectoriels de dimension finie.
(1) La trace d’une matrice carrée A est la somme tr A des éléments diagonaux de A. Si
m et n sont deux entiers strictement positifs, si A ∈ Matm,n (k) et B ∈ Matn,m (k),
alors tr(AB) = tr(BA). Deux matrices A et B carrées de même taille et semblables ont
même trace. Une matrice a même trace que sa transposée.
(2) Soit f un endomorphisme d’un espace vectoriel V . La trace de la matrice représentant
f ne dépend pas du choix de la base utilisée ; on la note tr f .
(3) Si V et W sont deux espaces vectoriels, si f : V → W et g : W → V sont deux
applications linéaires, alors tr(f ◦ g) = tr(g ◦ f ). La forme bilinéaire (f, g) 7→ tr(f ◦ g)
de Homk (V, W ) × Homk (W, V ) dans k est non-dégénérée et permet d’identifier chacun
des espaces Homk (V, W ) et Homk (W, V ) au dual de l’autre.
(4) Soit Vun espace vectoriel de dimension finie et V ∗ le dual de V . L’application i∈I vi∗ ⊗
P

vi 7→ w 7→ i∈I vi∗ (w)vi de V ∗ ⊗ V dans Endk (V ) est un isomorphisme d’espaces
P

vectoriels ; notons le Φ. Alors tr ◦Φ : V ∗ ⊗ V → k est la forme linéaire i∈I vi∗ ⊗ vi 7→


P

P
i∈I hvi , vi i.
(5) Soient V et W deux espaces vectoriels et soient f ∈ Endk (V ) et g ∈ Endk (W ). Notons
f ⊕ g l’endomorphisme de V ⊕ W défini comme v P P De même, soit
⊕ w 7→ f (v) ⊕ g(w).
f ⊗ g l’endomorphisme de V ⊗k W défini comme i∈I vi ⊗ wi 7→ i∈I f (vi ) ⊗ g(wi ).
Alors tr(f ⊕ g) = (tr f ) + (tr g) et tr(f ⊗ g) = (tr f )(tr g).
(6) Soit V un espace vectoriel et f ∈ Endk (V ). Par définition, la transposée de f est
l’endomorphisme Homk (f, k) : v ∗ 7→ v ∗ ◦ f de V ∗ . Si B est une base de V et B ∗ est la
base duale de V ∗ , alors la matrice de la transposée de f dans B ∗ est la transposée de
la matrice de f dans B. On en déduit que f et sa transposée ont même trace.

Donnons-nous un groupe G et un corps k.


Fonction centrale (ou fonction de classe) : une fonction ϕ : G → k est dite centrale si elle est
constante sur chaque classe de conjugaison. En formules, cela signifie que ϕ(ghg −1 ) = ϕ(h)

135
pour tout couple (g, h) ∈ G2 . On note cf k (G) le k-espace vectoriel des fonctions centrales sur
G à valeurs dans k.
Caractère d’une représentation : soit π : G → GL(V ) une représentation linéaire d’un groupe
G sur un k-espace vectoriel V de dimension finie. Le caractère de π est la fonction χπ : g 7→
tr π(g) de G à valeurs dans k. Le caractère χπ appartient à cf k (G), car
χπ (ghg −1 ) = tr π(ghg −1 ) = tr(π(g)π(h)π(g)−1 ) = tr(π(h)π(g)−1 π(g)) = tr π(h) = χπ (h).

Si on choisit une base de V et qu’on appelle X la représentation matricielle définie par π dans
cette base, on a χπ (g) = tr X(g) pour tout g ∈ G. On notera éventuellement χX au lieu de
χπ . De même, si on sous-entend que V est un kG-module et non un simple espace vectoriel,
on pourra noter χV au lieu de χπ .

4.1.4.2 Remarque. Dans le paragraphe 3.2.5, nous avons défini le caractère d’une représen-
tation d’une algèbre A comme une forme linéaire sur A. Le lien avec la notion de caractère
définie ci-dessus est le suivant. L’algèbre A utilisée est évidemment l’algèbre kG du groupe,
de façon à pouvoir identifier représentations de G et représentations de A. Une forme linéaire
sur A est déterminée dès qu’on se donne ses valeurs sur une base de A. Comme G est une
base de A, cela signifie qu’on peut identifier l’espace des formes linéaires sur A avec l’espace
des fonctions sur G.

Opérateurs d’Adams : soit m ∈ Z un entier. Pour chaque fonction centrale ϕ, on note ψm (ϕ)
la fonction g 7→ ϕ(g m ). Manifestement ψm (ϕ) est une fonction centrale et l’application ψm :
cf k (G) → cf k (G) est un endomorphisme de la k-algèbre cf k (G). Quand m ≥ 1, ψm est appelé
opérateur d’Adams. L’opérateur ψ−1 est une involution, et est habituellement noté avec une
étoile : ψ−1 (ϕ) = ϕ∗ .

4.1.4.3 Théorème. Soient k un corps et G un groupe.


(i) Deux représentations équivalentes de G ont même caractère.
(ii) Soit 0 → L → M → N → 0 une suite exacte de représentations de G sur k. Alors
χM = χL + χN .
(iii) Soit π : G → GL(M ) une représentation k-linéaire de G sur un espace vectoriel M .
Soit {S1 , . . . , Sr } un ensemble de représentations irréductibles de G, deux à deux in-
équivalentes, telles que tout sous-quotient irréductible de M soit isomorphe à une de
ces représentations. Enfin, soit (M : Si ) la P multiplicité de Jordan-Hölder de Si dans
M , pour chaque i ∈ {1, . . . , r}. Alors χM = ri=1 (M : Si )χSi .
(iv) Soient deux représentations k-linéaires de G, sur des ∗ espaces vectoriels V et W . Alors
χV ⊕W = χV + χW , χV ⊗k W = χV χW , χV ∗ = χV , et χHomk (V,W ) = (χV )∗ χW . Par
ailleurs, le caractère de la représentation triviale est la fonction constante égale à 1.
(v) Supposons que k soit de caractéristique 0. Soit V une représentation de G sur k. Alors
on a des égalités entre séries formelles à coefficients dans cf k (G)
! !
X X tm X X tm
tn χSn V = exp ψm (χV ) et (−t)n χVn V = exp − ψm (χV ) .
m m
n≥0 m≥1 n≥0 m≥1

136
Preuve. L’assertion (i) est presque évidente (et a été considérée comme telle dans le para-
graphe 3.2.5). On peut par exemple dire que si X et Y : G → GLn (k) sont deux représenta-
tions matricielles équivalentes, alors il existe P ∈ GLn (k) telle que Y (g) = P X(g)P −1 pour
chaque g ∈ G, d’où tr X(g) = tr Y (g).
L’assertion (ii) a été prouvée dans un contexte plus général à la proposition 3.2.5.1. L’asser-
tion (iv) résulte des définitions et des rappels 4.1.4.1 (5) et (6).
L’assertion (iii) résulte de la proposition 3.2.5.3. La preuve qui en a été alors donnée peut être
réécrite sans faire appel à la notion de groupe de Grothendieck. On raisonne par récurrence
sur le degré de la représentation (c’est-à-dire sur la dimension du k-espace vectoriel M ). Si M
est une représentation irréductible, alors r = 1, S1 = M , et il n’y a rien à démontrer. Sinon,
M contient un sous-espace vectoriel non-banal L stable par l’action de tous les éléments du
groupe. On obtient alors une suite exacte courte 0 → L → M → N → 0 de représentations
de G, avec N = M/L. Puisque les dimensions de L et M sont strictement Pr inférieures à la
dimension
Pr de M , l’hypothèse de récurrence nous permet d’écrire χ L = i=1 (L : Si )χSi et
χN = i=1 (N : Si )χSi . Les égalités (M : Si ) = (L : Si ) + (N : Si ) et χM = χL + χN , prouvées
respectivement dans la proposition 1.2.5.1 et dans l’assertion (ii), entraînent alors la formule
souhaitée pour χM . Ceci achève la preuve de (iii).
Il reste à prouver l’assertion (v). Quitte à passer à une extension du corps de base, on peut
supposer que k est algébriquement clos. Soit π : G → GL(V ) l’homomorphisme de groupes
définissant la structure de kG-module de V . Soit g ∈ G. Il existe une base (e1 , . . . , ep ) de V
dans laquelle la matrice de π(g) est triangulaire supérieure, avec les valeurs (ξ1 , . . . , ξp ) sur la
diagonale. Alors pour chaque entier m ≥ 1,

ψm (χV )(g) = χV (g m ) = tr π(g)m = ξ1m + · · · + ξpm .

Appelons Cn (p) l’ensemble des suites croissantes de n éléments i1 ≤ · · · ≤ in d’éléments de


{1, . . . , p} et munissons Sn V de la base {ei1 · · · ein | (i1 , . . . , in ) ∈ Cn (p)}, conformément au
théorème 3.1.4.2. Si nous ordonnons Cn (p) lexicographiquement, alors la matrice par laquelle
g agit sur Sn V est triangulaire supérieure, avec

{ξi1 · · · ξin | (i1 , . . . , in ) ∈ Cn (p)}

pour valeurs diagonales. La trace de cette matrice est donc


X
χSn V (g) = ξi1 · · · ξin .
1≤i1 ≤···≤in ≤p

Nous pouvons maintenant calculer


X X
tn χSn V (g) = (tξi1 ) · · · (tξin )
n≥0 n≥0
1≤i1 ≤···≤in ≤p
Yp
= (1 + tξi + (tξi )2 + · · · )
i=1
p
Y 1
=
1 − tξi
i=1

137
p
!
X
= exp − log(1 − tξi )
i=1
p X m
!
X t m
= exp ξ
m i
i=1 m≥1
!
X tm
= exp ψm (χV )(g) .
m
m≥1

Ceci fournit la première égalité voulue. La seconde résulte d’un calcul analogue, qui débute
par
X X p
Y
tn χVn V (g) = (tξi1 ) · · · (tξin ) = (1 + tξi ).
n≥0 n≥0 i=1
1≤i1 <···<in ≤p

Les détails de ce second calcul sont laissés au lecteur. 

On note ch kG le sous-groupe additif de cf k (G) engendré par les caractères des


P représentations
de G sur k. Ainsi chaque élément de ch kG s’écrit comme une somme finie i∈I ni chVi , avec
ni ∈ Z. Le théorème 4.1.4.3 (iv) montre alors que ch kG est en fait un sous-anneau de cf k (G)
stable par l’involution *. Cet anneau ch kG a été introduit par Brauer. Ses éléments sont
appelés caractères virtuels de G (sur k).

4.1.4.4 Théorème. Soit G un groupe et k un corps. Supposons que l’une des trois hypo-
thèses suivantes soit satisfaite :
(a) k est algébriquement clos.
(b) k est de caractéristique 0.
(c) G est fini.
Si M1 , ..., Mr sont des kG-modules simples de dimension finie sur k et deux à deux non-
isomorphes, alors les caractères χM1 , ..., χMr sont linéairement indépendants dans cf k (G).

Preuve. Le résultat a déjà été prouvé sous l’hypothèse (a) (c’était notre proposition 3.2.5.2)
et sous l’hypothèse (b) (voir l’exercice du paragraphe 3.2.5). La preuve sous l’hypothèse (c)
nécessite un peu de théorie de Galois ; je renvoie au paragraphe (17.3) de [7]. 

Ce théorème montre en particulier que sous n’importe laquelle des hypothèses (a), (b) ou
(c), une représentation irréductible de G est déterminée à équivalence près par son caractère.
Plutôt que de parler de classe d’équivalence de représentation irréductible, nous parlerons
donc de caractère irréductible. Nous notons Irr(G) l’ensemble des caractères irréductibles de
G sur k.

4.1.4.5 Théorème. Soit G un groupe et k un corps de caractéristique 0. Alors ch kG est


un Z-module libre de base Irrk (G).

138
Preuve. D’après le théorème 4.1.4.4, Irrk (G) est une partie linéairement indépendante du k-
espace vectoriel cf k (G). D’après le théorème 4.1.4.3 (iii), c’en est aussi une partie génératrice.


On peut résumer les théorèmes de ce paragraphe en disant que si k est de caractéristique 0,


alors le caractère d’une représentation de G sur k détermine les multiplicités de Jordan-Hölder
de cette représentation. Il détermine donc la classe d’isomorphisme de cette représentation si
celle-ci est complètement réductible. Nous verrons dans le prochain paragraphe que c’est tou-
jours le cas si G est fini (théorème de Maschke 4.2.1.4). On peut alors utiliser concurremment
les mots « caractères » et « classes d’isomorphisme de représentations ».

Exercices.
(1) (i) Soit G un groupe fini agissant sur un ensemble fini Ω et soit k un corps de carac-
téristique 0. Soit χ le caractère de la représentation de permutation de G sur k (Ω)
(paragraphe 4.1.2.1). Montrer que pour chaque g ∈ G, χ(g) est le nombre de points
fixes de g dans Ω. Montrer que la dimension de l’espace des G-invariants dans k (Ω) ,
le nombre d’orbites de G dans Ω, et |G| 1
g∈G χ(g) sont trois quantités égales.
P

(ii) Soit F un corps fini et soit G = GL3 (F). On fait agir G à gauche sur l’ensemble
Ω = F3c des vecteurs colonnes de la façon habituelle. On munit l’ensemble Ω0 = F3l
des vecteurs lignes d’une action de G en posant g · v = vg −1 , le membre de droite
étant le produit matriciel ordinaire d’un vecteur ligne par une matrice. Enfin, soit
k un corps de caractéristique 0. Montrer que les représentations de permutation
0
de G sur k (Ω) et k (Ω ) ont même caractère. (Note : ces deux représentations de
permutation sont donc isomorphes. On montre cependant sans grande difficulté
qu’il n’existe pas de bijection G-équivariante entre les ensembles Ω et Ω0 .)
(2) Soit k un corps de caractéristique 0, soit G un groupe, soit π : G → GL(V ) une
représentation de G sur un k-espace vectoriel V . Calculer χS2 π et χV2 π en fonction de
χπ et de ψ2 (χπ ).
(3) Soit k un corps de caractéristique 0, soit G un groupe, soit π : G → GL(V ) une
représentation de G sur un k-espace vectoriel V . Montrer que pour tout entier n ≥ 1,
n
X
(−1)p χSn−p V χVp V = 0.
p=0

(Indication : on peut utiliser soit le théorème 3.1.4.6, soit le théorème 4.1.4.3 (v).)
(4) Soient k un corps de caractéristique 0 et G un groupe. On note A = cf k (G)[[t]] l’anneau
des séries formelles en t à coefficients dans cf k (G). Construire deux homomorphismes
de groupes abéliens Ht et Et de cf k (G) dans A× tels que pour chaque k-représentation
V de G, on ait
X X
Ht (χV ) = tn χSn V et Et (χV ) = t n χV n V .
n≥0 n≥0

139
4.1.5 Anneau de Grothendieck

Le théorème 4.1.4.5 met le doigt sur un petit inconvénient des caractères : la théorie ne marche
bien que sur un corps de caractéristique 0. Pour pallier cette limitation, on utilise le groupe
de Grothendieck G0 (kG) 16 , qu’on munit d’une structure d’anneau. Rappelons brièvement la
construction.
Soit I l’ensemble des classes d’équivalence de représentations de G sur k. Le groupe abélien
libre Z(I ) possède une base naturelle, en bijection avec I : à la classe d’équivalence d’une
représentation X correspond un élément (X) de la base de Z(I ) . Les éléments de Z(I ) sont
les combinaisons Z-linéaires des symboles (X), où il y a un symbole par classe d’équivalence
de k-représentation de G. On munit Z(I ) d’une structure d’anneau en définissant le produit
des vecteurs de base par la formule (X)(Y ) = (X ⊗ Y ) ; l’unité multiplicative est alors le
symbole (k) correspondant à la représentation triviale de G. On munit Z(I ) d’une involution
∗ en posant (X)∗ = (X ∗ ).

4.1.5.1 Proposition. Soit J le sous-groupe de Z(I ) engendré par les éléments de la forme
(Y ) − (X) − (Z), chaque fois qu’il existe une suite exacte courte 0 → X → Y → Z → 0 de
k-représentations (vues comme des kG-modules à gauche). Alors J est un idéal stable par
l’involution ∗.

Preuve. Soit T une k-représentation de G, et montrons que J est stable par multiplication à
gauche par (T ). Considérons un générateur de J, disons (Y ) − (X) − (Z), où 0 → X → Y →
Z → 0 est une suite exacte de k-représentations de G. Regardons cette suite comme une suite
exacte de kG-modules à gauche et appliquons le foncteur T ⊗k ?. Puisque le k-module T est
libre, donc plat, nous obtenons une suite exacte de k-modules

0 → T ⊗k X → T ⊗k Y → T ⊗k Z → 0.

Munissant chacun des k-espaces vectoriels de sa structure de représentation de G, nous  ob-


tenons une suite exacte de k-représentations de G. Le produit (T ) (Y ) − (X) − (Z) dans
l’anneau Z(I ) est égal à (T ⊗k Y ) − (T ⊗k X) − (T ⊗k Z) ; la suite exacte ci-dessus montre
que cet élément appartient à J. Ainsi J est bel et bien stable par multiplication à gauche par
(T ). L’anneau Z(I ) étant commutatif, nous en déduisons que J est un idéal.
Montrons que J est stable sous l’involution ∗. Considérons un générateur de J, disons (Y ) −
(X) − (Z), où 0 → X → Y → Z → 0 est une suite exacte de k-représentations de G. En
appliquant le foncteur D = Homk (?, k), nous obtenons une suite exacte 0 →→ D(Z) →
D(Y ) → D(X) → 0 de kG-modules à droite. C’est une suite exacte 0 → Z ∗ → Y ∗ → X ∗ → 0
reliant les représentations contragrédientes. L’image par ∗ de notre générateur (Y )−(X)−(Z),
égale à (Y ∗ ) − (Z ∗ ) − (X ∗ ), appartient donc à J. Ainsi J est stable par ∗. 

On définit l’anneau de Grothendieck G0 (kG) comme étant le quotient Z(I ) /J, où J est l’idéal
construit dans l’énoncé de la proposition 4.1.5.1. On note [X] l’image de (X) dans G0 (kG) ;
16. Stricto sensu, le groupe G0 (kG) introduit ci-dessous ne coïncide avec celui du paragraphe 1.2.5 que quand
kG est de dimension finie, c’est-à-dire quand G est fini.

140
d’après la proposition 1.2.5.2, sa donnée est équivalente à celle des multiplicités de Jordan-
Hölder des représentations irréductibles dans X.
Tout élément de G0 (kG) est égal à une différence [X] − [Y ], où X et Y sont deux k-
représentations de G ; pour le voir, il suffit d’écrire que dans G0 (kG),
" # " #
X M M
nX [X] = X ⊕nX − X ⊕(−nX ) .
X∈I nX >0 nX <0

Le théorème 4.1.4.3 (ii) et (iv) implique l’existence d’un homomorphisme d’anneaux

ch : G0 (kG) → cf k (G)

tel que ch[M ] = χM pour chaque représentation M de G sur k ; son image est ch kG. La
proposition 1.2.5.2 et les théorèmes 4.1.4.3 (iii) et 4.1.4.4 montrent que ch est injectif dès que
le corps k est de caractéristique 0.

Exercices.
(1) Soient k un corps, G un groupe, M une représentation
Pn k-linéaire de G, et n un en-
k Vn−k
tier strictement positif. Montrer que dans G0 (kG), k=0 (−1) [S M ][
k M ] = 0.
(Indication : utiliser le théorème 3.1.4.6.)
(2) Soient k un corps, G un groupe, et n un entier strictement positif. Montrer que pour
toute suitePexacte courte 0 → L → M → N → 0 de k-représentations de G, l’égalité
[Sn M ] = ni=0 [Sn−i L][Si N ] a lieu dans l’anneau G0 (kG). En déduire que si M est une
k-représentation de G, alors [Sn M ] ne dépend que de [M ] et pas de M . (Indication :
pour la première question, construire explicitement une filtration 0 = P0 ⊂ P1 ⊂
· · · ⊂ Pn+1 = S n M telle que Pi+1 /Pi ∼
=S
n−i
L ⊗ Si N . Pour la seconde, raisonner par
récurrence sur la longueur de M .)
(3) Soient k un corps, G un groupe, et n un entier strictement positif. Montrer que pour
toute
Vn suiteP exacte courteV0 → L → M → N → 0 de k-représentations de G, l’égalité
n Vn−i
[ M ] = i=0 [ L][ i N ] a lieu
V dans l’anneau G0 (kG). En déduire que si M est
une k-représentation de G, alors [ n M ] ne dépend que de [M ] et pas de M .
(4) Soient k un corps, G un groupe, et n un entier strictement positif. Soit ξ ∈ G0 (kG). Il
existe alors des k-représentations M et N de G telles que ξ = [M ] − [N ]. On pose
n
X n
X
Sn ξ = (−1)i [Sn−i M ][ i N ] et (−1)i [ n−i M ][Si N ].
V Vn V
ξ=
i=0 i=0

Montrer que Sn ξV et n ξ ne dépendent que de ξ et pas du choix de M et N . Comparer


V
Sn (−ξ) et (−1)n n ξ. (Indication : soit ξ = [M 0 ] − [N 0 ] une autre écriture de ξ. Alors
[M ⊕ N 0 ] = [M 0 ⊕ N ] dans G0 (kG). Pour chaque (j, k) ∈ N2 tel que j + k ≤ n, on a
alors [Sn−j−k (M ⊕ N 0 )] = [Sn−j−k (M 0 ⊕ N )], ce qui donne
n−j−k
X n−j−k
X
n−i−j−k i
[S 0
M ][S N ] = [Sn−i−j−k M 0 ][Si N ].
i=0 i=0

141
En multipliant cette formule par (−1)j+k [ j N ][ k N 0 ], en sommant sur j et k et en
V V
utilisant la relation provenant du complexe de Koszul, on trouve
n
X Xn
n−j
j
(−1) [S M ][ j N ] = (−1)k [Sn−k M 0 ][ k N 0 ].
V V
j=0 k=0

Ainsi Sn ξ est bien défini. Le cas deV n ξ se traite de manière analogue ou bien en
V
utilisant la formule Sn (−ξ) = (−1)n n ξ.)

4.2 Représentations ordinaires des groupes finis

Dans toute cette section, G sera un groupe fini et k sera un corps dont la caractéristique ne
divise pas l’ordre de G.

4.2.1 Séparabilité

4.2.1.1 Théorème. L’algèbre kG est séparable sur k. Plus précisément, l’élément


1 X
g ⊗ g −1
|G|
g∈G

de kG ⊗k kG vérifie la condition (ix) du théorème 3.3.1.3.

Preuve. Une réindexation de la somme montre que pour chaque h ∈ G, l’égalité


1 X 1 X
hg ⊗ g −1 = g ⊗ g −1 h
|G| |G|
g∈G g∈G

a lieu dans kg ⊗k kG. Par linéarité, on en déduit l’égalité


1 X 1 X
cg ⊗ g −1 = g ⊗ g −1 c
|G| |G|
g∈G g∈G

pour chaque c ∈ kG. 

Remarque. Ce théorème entraîne que J(kG) = {0}, et donc que kG/J(kG) est séparable.
On peut en fait montrer (voir [7], paragraphe (7.10)) que kG/J(kG) est séparable pour tout
groupe fini G, quelle que soit la caractéristique de k.

Le théorème 3.3.1.3, et plus particulièrement l’implication (ix) ⇒ (i), montre que tout kG-
module est complètement réductible. Par commodité pour le lecteur, nous allons redonner
cette preuve ici en faisant appel à l’opérateur de Reynolds. (Le lien avec l’exercice (2) du
paragraphe 3.3.1 est le suivant : une représentation de G sur un espace vectoriel V peut être
vu comme un kG-kG-bimodule en faisant agir G à droite sur V de façon triviale ; de cette

142
façon, l’espace des invariants invG V est vu comme le centre Z 0 (kG, V ) du bimodule ainsi
obtenu.)
Opérateur de Reynolds : soit π : G → GL(V )P une représentation k-linéaire de G. L’opérateur
de Reynolds est l’application linéaire \ = |G|
1
g∈G π(g) de V dans lui-même.

Rappelons-nous de la définition de l’espace des invariants et de T l’espace des coinvariants


de la représentation π (paragraphe 4.1.3) : on pose inv G V = g∈G ker(π(g) − idV ), J =
g∈G im(π(g) − idV ) et coinvG V = V /J. L’espace des invariants est le plus grand sous-espace
P
de V lequel l’action de G est triviale ; l’espace des coinvariants est le plus grand quotient de
V sur lequel l’action de G est triviale.

4.2.1.2 Proposition.
P
(i) Soit π : G → GL(V ) une représentation linéaire de G. Posons J = g∈G im(π(g) −
idV ). Alors V = invG V ⊕ J, et l’opérateur de Reynolds \ est le projecteur d’image
invG V et de noyau J.
(ii) L’opérateur de Reynolds commute à l’action de G sur V ; autrement dit, c’est un en-
domorphisme de π.
(iii) L’opérateur de Reynolds est naturel : chaque homomorphisme de représentations f :
V → W donne lieu à un diagramme commutatif

f
V /W

\ \
 
invG V / invG W.
f

Preuve. Pour chaque g ∈ G, on a π(g)◦\ = \◦π(g) = \. Cela montre que l’image de \ est incluse
dans invG V et que le noyau de \ contient J. Par ailleurs, idV −\ = |G|
1 P
g∈G (idV −π(g)) ; ainsi
invG est inclus dans le noyau de idV − \ et J contient l’image de idV − \. Nous en déduisons
que invG V ∩ J ⊆ ker(idV − \) ∩ ker \ = 0, que invG V + J ⊇ im \ + im(idV − \) = V , donc que
V = invG V ⊕ J. De plus, \ s’annule sur J et idV − \ s’annule sur invG V . Tout cela montre
l’assertion (i). Chemin faisant, nous avons aussi montré l’assertion (ii).
Soit π̂ : kG → Endk (V ) l’homomorphisme d’algèbres de kG dans Endk (V ) qui définit la
structure de représentation
P linéaire
 de G sur V ; autrement dit, π̂ est le prolongement k-linéaire
de π. Soit e l’élement g∈G g /|G| de kG. L’opérateur de Reynolds sur V est \ = π̂(e). Par
définition, un homomorphisme de représentations est un homomorphisme de kG-modules,
c’est-à-dire une application linéaire qui commute à l’action de kG. Cela donne l’assertion (iii).


4.2.1.3 Corollaire. Soit π : G → GL(V ) une représentation linéaire de dimension finie


de G. Alors
1 X
dim(invG V ) = χπ (g).
|G|
g∈G

143
Preuve. L’opérateur de Reynolds est un projecteur sur invG V . La dimension de cet espace
est donc égale à
!
1 X 1 X 1 X
tr \ = tr π(g) = tr π(g) = χπ (g).
|G| |G| |G|
g∈G g∈G g∈G

4.2.1.4 Théorème de Maschke. Soient G un groupe fini, k un corps de caractéristique


première à l’ordre de G, et V un k-espace vectoriel muni d’une action linéaire de G. Alors
tout sous-espace vectoriel G-stable de V possède un supplémentaire G-stable.

Preuve. Soit W un sous-espace vectoriel G-stable de V . On considère la représentation E =


Homk (V, V ) de G et on choisit un projecteur p : V → V d’image W . On regarde à présent
l’action sur E de l’opérateur de Reynolds. L’application linéaire p\ est définie par l’égalité
1 X
p\ (v) = gp(g −1 v),
|G|
g∈G

pour tout v ∈ V . Cette formule montre que p\ prend ses valeurs dans W et que p\ (w) = w pour
chaque w ∈ W . Ainsi p est un projecteur sur W , de sorte que son noyau est un supplémentaire
de W . Par ailleurs, p\ est un élément G-invariant de E, donc appartient à HomG (V, V ) (voir
éventuellement l’exercice (1) du paragraphe 4.1.3). Son noyau est donc un sous-espace G-
stable. C’est le supplémentaire G-stable de W cherché. 

Le théorème de Maschke affirme que tout kG-module est complètement réductible, autrement
dit que l’algèbre kG est semi-simple 17 .
Le théorème de Maschke a la conséquence très importante suivante, déjà signalée à la fin du
paragraphe 4.1.4, et que nous ne répéterons jamais assez : quand k est de caractéristique 0,
le caractère d’une représentation de dimension finie de G détermine cette représentation à
isomorphisme près.
À présent, démontrons la première relation d’orthogonalité entre les caractères, selon les lignes
de l’exercice (3) du paragraphe 3.3.1.

4.2.1.5 Proposition. Soient G un groupe fini, k un corps de caractéristique première à


|G|, et V et W deux k-espaces vectoriels munis d’une action linéaire de G. Alors
1 X
χV g −1 χW g .
 
dim HomG (V, W ) =
|G|
g∈G

Preuve. Le caractère de la représentation de G sur l’espace Homk (V, W ) est la fonction cen-
trale (χV )∗ χW . Il suffit alors d’appliquer le corollaire 4.2.1.3 pour déterminer la dimension de
l’espace HomG (V, W ) = invG Homk (V, W ). 
17. Pour une algèbre A de dimension finie sur un corps k, il y a équivalence entre les assertions : (i) toute
représentation de dimension finie sur k est complètement réductible ; (ii) A est un anneau semi-simple ; (iii) tout
A-module est complètement réductible. En fait, (i) entraîne que le A-module régulier à gauche est complètement
réductible, d’où (ii) ; (ii) entraîne (iii) en vertu du théorème 2.1.2.1 ; et l’implication (iii) ⇒ (i) est banale.

144
Exercice. Soit k un corps algébriquement clos de caractéristique 0. Soit G un groupe et
soit π : G → GL(V ) une représentation linéaire de G sur un k-espace vectoriel V . On regarde
l’action par automorphismes de G sur l’algèbre S V ∗ des fonctions polynomiales sur V . Notons
I = invG S V ∗ le sous-espace des invariants de G dans S V ∗ ; ainsi I ∩ Sn V ∗ = invG Sn V ∗ .
 

(i) Vérifier que I est une sous-algèbre de S V ∗ et que I = n∈N I ∩ Sn V ∗ .


L 

(ii) Soit f ∈ Endk (V ), et soit {ξ1 , . . . , ξp } l’ensemble des valeurs propres de f , répétées
selon leurs multiplicités. Introduisons une indéterminée t et étendons les scalaires de k
à k(t) ; ainsi id − tfQest un endomorphisme du k(t)-espace vectoriel k(t) ⊗k V . Vérifier
que det(id − tf ) = pi=1 (1 − tξi ).
(iii) (Théorème de Molien) Montrer que dans l’anneau k[[t]] des séries formelles en t,
X 1 X 1
tn dimk I ∩ Sn V ∗ =

.
|G| det(id − tπ(g))
n≥0 g∈G

4.2.2 Caractères irréductibles

Commençons avec un groupe fini G. Énumérons les classes de conjugaison de G : C1 , ..., Cs .


Pour chaque i ∈ {1, . . . , s}, posons Ci = g∈Ci g. Ainsi Ci est un élément de l’algèbre du
P
groupe kG, appelé somme de la classe Ci .

4.2.2.1 Proposition. Le centre Z(kG) de l’algèbre du groupe de G est de dimension s sur


k ; la famille (Ci )1≤i≤s en forme une base. L’espace vectoriel cf k (G) est de dimension s.

Preuve. Un élément x = g∈G ag g de kG appartient au centre de kG si et seulement si


P
yx = xy pour chaque y ∈ kG. Par linéarité, il suffit d’exigerP que hx = xh P pour chaque
h ∈ G. Multipliant à gauche par h−1 , cette condition se réécrit g∈G agP g = g∈G ag h−1 gh.
Un changement de variable montre que le membre de droite est égal à g∈G ahgh−1 g. Ainsi
x ∈ Z(kG) si et seulement si ag = ahgh−1 pour chaque (g, h) ∈ G2 , autrement dit si et
seulement si ag ne dépend que de la classe de conjugaison à laquelle g appartient, et pas de g
lui-même.
Ceci montre que chaque Ci appartient à Z(kG), et que la famille (Ci )1≤i≤s engendre Z(kG)
en tant que k-espace vectoriel. Enfin, on voit que les Ci sont k-linéairement indépendants en
observant qu’ils font intervenir des paquets disjoints de vecteurs de la base naturelle de kG.
De la même manière, on observe que les fonctions indicatrices des Ci forment une base de
cf k (G) ; cet espace vectoriel est donc de dimension s. 

À présent, et jusqu’à la fin du paragraphe, nous supposons que le corps k est tel que l’algèbre
kG est décomposée (voir le paragraphe 3.2.6). D’après la proposition 3.2.6.2, il suffit pour cela
que k soit algébriquement clos ; en outre, on peut trouver un tel k qui est une extension finie
de Q ou de Fp . Afin de disposer des résultats du paragraphe 4.2.1, nous demandons que la
caractéristique de k ne divise pas l’ordre de G.
D’après le théorème de Maschke, kG est une algèbre semi-simple. Le théorème 2.1.2.1 dit
alors que kG s’écrit comme le produit de ses composantes simples. Il y en a autant que de

145
classes d’isomorphisme de kG-modules simples. Prenons un représentant de chacune des classes
d’isomorphisme de kG-modules simples : S1 , ..., St . Pour chaque m ∈ {1, . . . , t}, l’anneau des
endomorphismes de Sm est EndG (Sm ) = k id, d’après la proposition 3.2.6.1. Appelons zm
la dimension sur k de Sm . D’après le théorème de Wedderburn-Artin 2.1.1.1, la composante
simple Bm de kG correspondant à Sm est isomorphe à Matzm (k) ; en tant que Bm -module
régulier à gauche, Bm est complètement réductible, somme directe de zm sous-modules simples
isomorphes à Sm . La remarque 2.1.2.4 dit enfin que l’annulateur dans kG du module Sm est
n6=m Bn .
L

Ainsi kG ∼ = m=1 Matzm (k) en tant qu’anneau, et kG ∼


Qt Lt ⊕zm en tant que kG-
= m=1 (Sm )
module à gauche (le membre de gauche est ici le kG-module à gauche régulier). Nous en
déduisons l’égalité
t
X t
X
2
|G| = dimk kG = dimk Matzm (k) = zm .
m=1 m=1

Par ailleurs, le centre de kG est le produit des centres de chacune des algèbres Matzm (k),
d’où Z(kG) ∼ = k t . Le nombre de classes d’isomorphismes de kG-modules simples (c’est-à-dire
de représentations irréductibles de G sur k) est égal à la dimension sur k de Z(kG).

4.2.2.2 Théorème. Le groupe G possède autant de caractères irréductibles sur k que de


classes de conjugaison. L’ensemble Irrk (G) est une base de cf k (G).

Preuve. Le nombre t de classes d’équivalence de représentations irréductibles de G sur k est


égal à la dimension du centre de kG. D’après la proposition 4.2.2.1, cette dimension est égale
au nombre s de classes de conjugaison dans G.
Ceci établi, la proposition 4.2.2.1 affirme que la dimension de cf k (G) est égale au nombre
de caractères irréductibles de G sur k. Par ailleurs, ces caractères irréductibles forment une
famille linéairement indépendante dans cf k (G), d’après le théorème 4.1.4.4. 

Donnons-nous deux représentations k-linéaires irréductibles de G sur des espaces V et W .


Si V et W ne sont pas isomorphes, alors HomG (V, W ) = 0, d’après le lemme de Schur.
Si V et W sont isomorphes, alors HomG (V, W ) ∼ = EndG (V ) est de dimension 1, d’après la
proposition 3.2.6.1. La relation d’orthogonalité 4.2.1.5 s’écrit alors
(
1 X −1
  1 si V ∼ = W,
χV g χW g =
|G|
g∈G
0 sinon.

L’indépendance linéaire dans cf k (G) des caractères des représentations irréductibles, procla-
mée dans le théorème 4.1.4.4, se déduit facilement de cette relation d’orthogonalité.
On note ζ (m) le caractère de la représentation Sm . Ainsi, on a une énumération des caractères
irréductibles de G sur k : Irrk (G) = ζ (1) , . . . , ζ (s) . En général, on numérote de sorte que ζ (1)


soit le caractère de la représentation triviale : ζ (1) (g) = 1 pour tout g ∈ G. De la même façon,
on arrange la numérotation des classes de conjugaison de sorte que C1 = {1}.

146
On note hi le nombre d’éléments dans la classe de conjugaison Ci ; ainsi hi est l’indice dans G
du centralisateur de chaque élément dans Ci .
Pour chaque i ∈ {1, . . . , s}, l’ensemble {g −1 | g ∈ Ci } est une classe de conjugaison de G ;
disons que c’est Ci∗ . On définit ainsi une involution i 7→ i∗ sur l’ensemble {1, . . . , s}.
(m)
La fonction ζ (m) prend une valeur constante sur Ci ; on note ζi cette valeur.

4.2.2.3 Relations d’orthogonalité. Avec les notations ci-dessus,


s s
X (m) (n)
X (m) (m) |G|
hi ζi ζi∗ = δmn |G| et ζi ζj ∗ = δij .
hi
i=1 m=1

Preuve. La première relation a été vue au début de ce paragraphe, comme conséquence de la


(m)
proposition 4.2.1.5. Introduisons la matrice Z = (ζi ), de taille s × s. Ici m est l’indice de
ligne et i est l’indice de colonne. Soit D la matrice diagonale, avec h1 , ..., hs comme coefficients
diagonaux. La relation d’orthogonalité que nous venons d’obtenir est ZD t Z = |G|I. On en
déduit que Z est inversible, d’inverse |G|
1
D t Z, d’où t ZZ = |G|D−1 . C’est notre seconde relation
d’orthogonalité. 

4.2.2.4 Table des caractères. On prend k de caractéristique 0. La table des caractères de G


(i)
est le tableau à s lignes et s colonnes formé des valeurs des ζj .
(m)
(1) Les degrés des caractères irréductibles sont dans la table de caractères : zm = ζ1 .
(Noter ici que l’entier zm est entièrement déterminé par son image dans k, vu que k est
de caractéristique 0.)
(2) En faisant i = j = 1 dans la seconde relation d’orthogonalité, on trouve sm=1 zm 2 =
P
|G|. Cette information nous était aussi livrée par nos considérations au début de ce
paragraphe.
(3) La remarque précédente montre que la table des caractères contient assez d’information
pour qu’on puisse déterminer l’ordre de G. En utilisant la seconde relation d’orthogo-
nalité, on voit que les hi sont eux aussi déterminés par la table des caractères.

4.2.2.5 (In)dépendance par rapport au choix du corps k. La théorie des caractères est es-
sentiellement indépendante du choix de k, pourvu que celui-ci soit de caractéristique 0 et que
l’algèbre kG soit décomposée. Expliquons brièvement pourquoi.
Prenons d’abord un corps k de caractéristique 0 et tel que l’algèbre kG soit décomposée. Soit
K une extension de k. Alors l’algèbre KG est décomposée (proposition 3.2.6.2 (ii)). Chaque
représentation irréductible X : G → GLn (k) de G sur k fournit alors par extension des
scalaires une représentation de G sur K, et cette dernière est irréductible, par définition du
fait que kG est décomposée. On obtient ainsi une bijection entre classes d’isomorphisme de
représentations de G sur k et classes d’isomorphisme de représentation de G sur K. Plus
précisément, appelant ι le plongement de k dans K, l’application χ 7→ ι ◦ χ est une bijection
de Irrk (G) sur IrrK (G).

147
Maintenant, soient k et k 0 sont deux corps de caractéristique 0 tels que les algèbres kG et k 0 G
soient décomposées. On peut alors trouver une extension commune K de k et k 0 : il suffit de
prendre un quotient de k ⊗Z k 0 par un idéal maximal. Les plongements k ,→ K et k 0 ,→ K
induisent des bijections Irrk (G) ∼
= IrrK (G) ∼
= Irrk0 (G), dans lesquelles les tables des caractères
de G sur k, K et k se trouvent identifiées.
0

Des considérations analogues valent quand k et k 0 sont de caratéristique différentes. Soit en


effet p un nombre premier qui ne divise pas l’ordre de G. Soit K une extension finie du corps
Qp des nombres p-adiques telle que l’algèbre KG soit décomposée (l’existence de K est assurée
par la proposition 3.2.6.2 (iv)). Soit O l’anneau des entiers de K, soit k le corps résiduel de
O. Alors k est de caractéristique p. Quitte à grossir K, on peut supposer que l’algèbre kG
est décomposée. On peut alors mettre en place une correspondance bijective entre caractères
de KG et caractères de kG. Cela se fait en passant par les OG-modules projectifs, voir par
exemple [6], §82. Dans notre contexte p - |G|, la matrice de décomposition est nécessairement
une matrice de permutation (on le montre en utilisant que le nombre de caractères irréductibles
et la somme des degrés des caractères irréductibles est le même sur k et sur K).

Exercices.
(1) Déterminer les degrés des caractères irréductibles du groupe alterné A5 .
(2) Comparer les tables des caractères du groupe diédral D4 et du groupe quaternionique
Q, tous deux d’ordre 8.
(3) Dresser la table des caractères du groupe alterné A4 et construire les représentations
correspondantes.
(4) Soient k un corps algébriquement clos de caractéristique zéro, G un groupe fini et H
un sous-groupe distingué de G. Considérant l’action de G sur G/H par translations à
gauche, on construit une représentation de permutation V de G sur k. Déterminer les
multiplicités des représentations simples dans V . (Indication : considérer V comme une
représentation de G/H plutôt que comme une représentation de G.)
(5) (Calcul du Gruppendeterminant) Soit G un groupe fini. On conserve les notations intro-
duites plus haut : s est le nombre de classes de conjugaison, les zm sont les dimensions
des kG-modules simples. On introduit une famille d’indéterminées (xg )g∈G . On regarde
la matrice (xgh−1 )(g,h)∈G2 , dont les lignes et les colonnes sont indexées par G. Son dé-
terminant ∆ est un polynôme à coefficients entiers, homogène de degré |G|. Montrer
que la factorisation de ∆ sur C en produit de facteurs irréductibles s’écrit δ1z1 · · · δszs ,
où chaque δm est homogène de degré zm en les indéterminées xg . (Indication : on consi-
dère l’élément X = g∈G xg g, qui vit dans l’algèbre du groupe de G à coefficients dans
P
l’anneau des polynômes en les xg . La matrice deQl’énoncé donne l’action de X dans la
représentation régulière. L’isomorphisme CG ∼ s
= m=1 Matzm (C) conduit à réécrire X
comme une famille (Ym ) de matrices : les coefficients ym,i,j de Ym sont des polynômes
homogènes de degré 1 en les xg , algébriquement indépendants. Soit δm le déterminant
de la matrice Ym . Le résultat annoncé traduit le fait que chaque représentation simple
de G intervient dans la représentation régulière avec une multiplicité égale à son degré.)

148
4.2.3 Un peu d’analyse hilbertienne

Dans ce paragraphe, nous prenons k = C. Soit G un groupe fini. Une représentation complexe
de G est une représentation C-linéaire de G. Un caractère complexe de G est le caractère
d’une représentation C-linéaire de G ; c’est une fonction de G dans C.

4.2.3.1 Proposition. Soit G un groupe fini et ζ un caractère complexe de G de degré


n = ζ(1).
(i) Chaque valeur ζ(g) est une somme de n racines |G|-ièmes de l’unité. On a ζ ∗ = ζ, où
le membre de droite est le conjugué complexe de ζ.
(ii) Soit X : G → GLn (C) une représentation matricielle de G dont ζ est le caractère.
Pour chaque g ∈ G, |ζ(g)| ≤ ζ(1), avec égalité si et seulement si X(g) est une matrice
scalaire.

Preuve. Adoptons les notations de l’énoncé. Posons N = |G|. Soit g ∈ G. Alors g N = 1, donc
X(g)N = I, ce qui montre que X(g) annule le polynôme T n − 1. Ce polynôme étant séparable
sur k (sans racine multiple), X(g) est diagonalisable, et ses valeurs propres ξ1 , ..., ξn (répétées
selon leurs multiplicités) sont des racines de T N − 1 dans k.
On a alors ζ(g) = ξ1 + · · · + ξn . Puisque les valeurs propres de X g −1 sont ξ1−1 , ..., ξn−1 , avec


multiplicité, on a aussi

ζ ∗ g = ζ g −1 = ξ1−1 + · · · + ξn−1 = ξ1 + · · · + ξn = ζ(g).


 

Enfin pour que |ζ(g)| = n, il faut et il suffit que les ξi soient tous égaux. Alors X(g) est
semblable, donc égale, à une matrice scalaire. 

L’assertion (i) de la proposition 4.2.3.1 explique comment se lit l’involution i 7→ i∗ sur la table
(m) (m)
des caractères complexes de G : on a ζi∗ = ζi pour chaque m{1, . . . , s}.
On définit un produit scalaire hermitien sur l’espace CG des fonctions sur G à valeurs com-
plexes en posant
1 X
(ϕ, ψ)G = ϕ(g)ψ(g)
|G|
g∈G

pour ϕ, ψ ∈ CG . Par restriction, le sous-espace cf C (G) des fonctions de classe est alors muni
lui aussi d’un produit scalaire hermitien.

4.2.3.2 Proposition.
(i) La famille Irrk (G) est une base orthonormée de cf C (G).
(ii) Soient deux représentations linéaires V et W de G sur C. Alors dim HomG (V, W ) =
(χV , χW )G .
(iii) Décomposons une représentation linéaire de G sur un C-espace vectoriel V en somme
directe de sous-représentations simples. Alors la multiplicité avec laquelle la représen-
tation simple de caractère ζ (m) apparaît dans V est égale à (ζ (m) , χV )G .

149
(iv) Une fonction ϕ ∈ cf C (G) appartient à l’anneau des caractères virtuels ch CG si et
seulement si (ζ (m) , ϕ)G ∈ Z pour chaque m ∈ {1, . . . , s}.
(v) Une fonction centrale ϕ : G → C est un caractère irréductible si et seulement si
(a) ϕ ∈ ch CG ; (b) (ϕ, ϕ)G = 1 ; (c) ϕ(1) ≥ 0.

Preuve. Le théorème 4.2.2.2 dit que IrrC (G) est une base de cf C (G). Compte-tenu de la propo-
sition 4.2.3.1, l’assertion (i) découle directement de la première relation d’orthogonalité 4.2.2.3.
L’assertion (ii) est la relation d’orthogonalité 4.2.1.5.
Considérons une représentation de G sur un espace vectoriel V . Décomposons cette repré-
sentation en somme directe de sous-représentations simples et appelons am P la multiplicité
avec laquelle la représentation simple de caractère ζ (m) intervient. Alors χV = sm=1 am ζ (m) .
D’après (i), on a donc am = (ζ (m) , χV ).
Pour chaque fonction de classe ϕ, nous pouvons écrire, compte-tenu de (i),
s
X
ϕ= (ζ (m) , ϕ)G ζ (m) .
m=1

L’assertion (iv) est ainsi une réécriture du théorème 4.1.4.5.


Enfin, soit ϕ une
Ps fonction(m)centrale vérifiant les conditions (a), (b) et (c) de l’énoncé (v).
Écrivons ϕ = m=1Pam ζ . La condition (a) signifie que chaque am appartient à Z. La
condition (b) s’écrit sm=1 |am |2 = 1 ; compte tenu de (a), tous les am sont nuls sauf un, qui
vaut ±1. La condition (c) impose alors que le am non-nul est +1. Alors ϕ = ζ (m) est bien un
caractère irréductible. 

Exemple et application.
(1) Le caractère ρ de la représentation régulière de G est donné par
(
|G| si g = 1,
ρ(g) =
0 si g =
6 1.

D’après la proposition 4.2.3.2 (iii), la multiplicité avec laquelle la représentation linéaire


de caractère ζ (m) apparaît dans CG est égale au produit scalaire (ζ (m) , ρ)G = ζ (m) (1) =
zm . On retrouve par cette voie l’isomorphisme CG ∼ s ⊕zm du début du
L
= m=1 (Sm )
paragraphe 4.2.2.
(2) Les caractères irréductibles de G forment une base de l’algèbre cf C G des fonctions
de classe. Les constantes de structure (c’est-à-dire la table de multiplication) de cette
algèbre dans cette base décrivent la façon dont le produit tensoriel de deux représen-
tations simples se décompose en somme directe de représentations simples. Utilisant
la proposition 4.2.3.2 (iii), nous obtenons le résultat suivant : étant données trois re-
présentations irréductibles de G sur des espaces vectoriels complexes L, M et N , la
multiplicité avec laquelle L apparaît dans le produit tensoriel M ⊗C N est égale au
produit scalaire (χL , χM χN )G .

150
D’autres propriétés des représentations de groupes s’inscrivent agréablement dans le cadre de
l’analyse hilbertienne. Le lecteur est ici invité à consulter le paragraphe 4.4.6 ; il y trouvera
notamment une autre voie d’accès au théorème de Maschke 4.2.1.4 et à une partie de la
proposition 4.2.3.1.

Exercice. Soient G et H deux groupes finis. À (ϕ, ψ) ∈ cf C (G) × cf C (H), on associe la


fonction ϕ × ψ : (g, h) 7→ ϕ(g)ψ(h) sur G × H. Montrer que l’application (ϕ, ψ) 7→ ϕ × ψ
induit une bijection de IrrC (G) × IrrC (H) sur IrrC (G × H).

4.2.4 Cas particulier des groupes abéliens

En appliquant le corollaire 3.2.7.2 à l’algèbre d’un groupe, on obtient le résultat suivant.

4.2.4.1 Proposition. Soient G un groupe abélien et k un corps algébriquement clos. Alors


toute représentation irréductible de G est de degré 1.

Le cas des groupes abéliens est ainsi relativement simple. On cherche donc à y ramener le cas
d’un groupe G quelconque. Cela peut être fait de deux manières : en regardant des quotients
commutatifs de G ou en regardant les sous-groupes commutatifs de G. Regardons à ce propos
les quotients commutatifs de G.
Sous-groupe dérivé : soit G un groupe. Le sous-groupe dérivé de G est le sous-groupe de G
engendré par les commutateurs (g, h) = ghg −1 h−1 , avec (g, h) ∈ G2 . C’est un sous-groupe
distingué, noté G0 ou D(G).
Le sous-groupe dérivé G0 est contenu dans le noyau de tout homomorphisme de G dans un
groupe abélien. Le groupe quotient G/G0 est le plus grand quotient abélien de G, au sens où
un sous-groupe distingué H de G contient G0 si et seulement si G/H est abélien.
Un caractère linéaire d’un groupe G, c’est-à-dire un homomorphisme de G dans k ∗ (voir le
paragraphe 4.1.2.2), se factorise ainsi à travers l’abélianisé G/G0 . Il y a donc une bijection
canonique entre l’ensemble des caractères linéaires de G et l’ensemble des caractères linéaires
de G/G0 . En outre si k est algébriquement clos, ce dernier est l’ensemble des caractères irré-
ductibles de G/G0 , d’après la proposition 4.2.4.1.
Revenons au cas particulier d’un groupe abélien fini G. Pour fixer les choses, nous prenons k =
C. Pour G, les notions de (classes d’équivalence de) représentation irréductible, de caractère
irréductible, et de caractère linéaire sont identiques. Plutôt que IrrC (G), nous noterons dans
ce paragraphe G∧ l’ensemble des caractères irréductibles de G. D’après le théorème 4.2.2.2,
c’est un ensemble qui possède autant d’éléments que G, puisque les classes de conjugaison de
G sont réduites à un élément.
Nous savons que l’ensemble des caractères linéaires de G est un groupe (paragraphe 4.1.2.2) 18 .
On peut en fait voir G∧ comme un ensemble de fonctions jamais nulles de G à valeurs com-
18. En utilisant le théorème 4.1.4.3 (iv), on voit que le produit sur G∧ n’est autre que le produit tensoriel
des représentations.

151
plexes, c’est-à-dire comme un sous-groupe du groupe des éléments inversibles de l’algèbre CG .
Le théorème 4.2.2.2 dit que G∧ est une base de CG . Nous pouvons donc identifier l’algèbre du
groupe CG∧ à l’algèbre CG .
Enfin comme G∧ est un groupe abélien fini, on peut itérer la construction et considérer (G∧ )∧ .
Chaque élément g ∈ G fournit alors un caractère linéaire de G∧ , à savoir l’évaluation evg :
λ 7→ λ(g). On obtient ainsi un homomorphisme ev de G dans (G∧ )∧ .

4.2.4.2 Théorème. Soient G et H deux groupes abéliens finis. Conservons les notations
ci-dessus.
(i) L’application ev : G → (G∧ )∧ est un isomorphisme de groupes.
(ii) À deux caractères linéaires λ ∈ G∧ et µ ∈ H ∧ , associons le caractère linéaire λ × µ :
(g, h) 7→ λ(g)µ(h) de G × H. Alors l’application (λ, µ) 7→ λ × µ est un isomorphisme
de groupes de G∧ × H ∧ sur (G × H)∧ .
(iii) Les groupes G et G∧ sont isomorphes.

Preuve. Soient g et h deux éléments distincts de G. L’espace des fonctions ζ : G → C qui


prennent la même valeur en g et en h est un hyperplan de CG . En tant que base de CG , G∧
ne peut pas être inclus dans cet hyperplan. Il existe donc λ ∈ G∧ tel que λ(g) 6= λ(h). Cela
signifie que evg 6= evh . Ainsi ev est un homomorphisme injectif de groupes. Pour des raisons
de cardinalité, c’est un isomorphisme. Nous avons montré (i).
L’assertion (ii) est de démonstration immédiate : avec les notations de l’énoncé, on vérifie que
λ × µ est bien un caractère linéaire de G × H et que l’application (λ, µ) 7→ λ × µ est un
homomorphisme injectif de groupes. On conclut en remarquant que G∧ × H ∧ et (G × H)∧ ont
même ordre.
L’exemple 4.1.2.3 montre que si G est un groupe cyclique d’ordre n, alors G∧ est isomorphe au
groupe des racines n-ièmes de l’unité dans C, lequel est aussi cyclique. L’assertion (iii) vaut
donc quand G est cyclique. Grâce à (iii) et au théorème de structure des groupes abéliens finis
(exemple 1.2.3.7), elle vaut aussi dans le cas général. 

On peut pousser plus loin le développemement de cette théorie. D’une part, on peut mettre en
place une correspondance entre sous-groupes de G et quotients de G∧ (et vice-versa). Ensuite,

on peut identifier CG au dual de CG et CG au dual de CG∧ (voir la remarque 4.1.4.2) ; ceci
fait, la transposée de l’isomorphisme CG∧ ∼ = CG du (ii) de la proposition ci-dessus s’identifie


à l’isomorphisme CG = C . Enfin, cette théorie n’est autre que la transformation de Fourier
G

discrète. Elle rejoint la théorie des séries de Fourier et de la transformation de Fourier dans
le cadre plus vaste de la dualité de Pontrjagin entre groupes localement compacts abéliens ;
pour plus de détails, je renvoie à Walter Rudin, Fourier analysis on groups, Pure and Applied
Mathematics, Vol. XII, Interscience Publishers (John Wiley & Sons), 1962.

Exercice. Soit G un groupe fini. Montrer que le nombre de caractères linéaires de G est
égal à l’indice dans G du sous-groupe dérivé G0 .

152
4.2.5 Centre de l’algèbre du groupe

Nous reprenons notre groupe fini G et un corps k algébriquement clos de caractéristique


première à |G|.
D’après la proposition 3.2.7.1, chaque représentation linéaire irréductible π : G → GL(V )
de G sur un k-espace vectoriel de dimension finie possède un caractère central : il existe un
homomorphisme de k-algèbres ω : Z(kG) → k tel que pour chaque x ∈ Z(kG), π(x) =
ω(x) idV . De plus, deux représentations irréductibles équivalentes ont même caractère central.
Nous nous étions donné une énumération ζ (1) , ..., ζ (s) des caractères irréductibles de G. Elle
correspond à une énumération S1 , ..., Ss des représentations irréductibles de G. Nous noterons
ω (1) , ..., ω (s) les caractères centraux de ces représentations.
Concomitamment, nous avons une énumération B1 , ..., Bs des composantes simples de l’al-
gèbre kG. Appelons εm le neutre multiplicatif de l’algèbre Bm : dans l’isomorphisme Bm ∼ =
Matzm (k), εm correspond à la matrice identité. Le centre de Bm est donc la droite kεm , ce
qui montre que la famille (ε1 ,. . . , εs ) est une base de Z(kG). La base duale de cette famille
n’est autre que ω (1) , . . . , ω (s) , car l’élément εm agit par l’identité sur Sm et par zéro sur les
Sn pour n 6= m.
Notons enfin que les εm sont des idempotents ; en fait, ce sont les idempotents primitifs de
Z(kG) (voir le paragraphe 2.4.1 pour plus de détails).
Nous disposons donc de deux bases de Z(kG) : la base (C1 , . . . , Cs ) formée des sommes de
classe, et la base (ε1 , . . . , εs ) des idempotents primitifs de Z(kG). Nous voulons déterminer
la matrice de passage entre ces deux bases. Pour cela, nous nous plaçons dans le cas où k
(m)
est de caractéristique 0 et nous posons ωi = ω (m) (Ci ). Appelant X (m) une représentation
(m)
matricielle de caractère ζ (m) et prenant la trace de l’équation X (m) (Ci ) = ωi I, nous obtenons
(m) (m)
zm ωi = hi ζ i .

4.2.5.1 Proposition. Les idempotents primitifs centraux sont reliés aux sommes de classe
par les formules
s (m) s
X ζi zm X (m)
Ci = hi εm et εm = ζi∗ Ci .
zm |G|
m=1 i=1

Preuve. Comme (ω (1) , . . . , ω (s) ) est la base duale de la base (ε1 , . . . , εs ), on a


s s
(m)
X X
Ci = ω (m) (Ci )εm = ωi εm .
i=1 i=1

(m)
La matrice de passage de la base (εm ) à la base Ci est donc (hi ζi /zm ). Les relations d’or-
(m)
thogonalité 4.2.2.3 montrent que l’inverse de cette matrice est (zm ζi∗ /|G|). Cela donne la
seconde égalité. 

153
Dans la base des sommes de classe, l’élément Pneutre pour la multiplication est C1 . La mul-
s
tiplication s’écrit avec des formules Ci Cj = k=1 cijk Ck , où pour chaque z ∈ Ck , cijk est le
nombre de couples (x, y) ∈ Ci × Cj tels que xy = z. Les cijk sont des entiers naturels.
En revanche, dans la base des idempotents primitifs, la multiplication de Z(kG) est donnée
par une règle très simple : εm εn = δmn εm , l’élement neutre étant 1 = ε1 + · · · + εs .
Le passage de la base « naturelle » de Z(kG) donnée par les sommes de classe à la base
des idempotents primitifs fournie par la théorie des représentations permet de passer d’une
table de multiplication compliquée à une table de multiplication très simple. Le coût de cette
opération est la connaissance de la table des caractères de G. Il n’y a donc rien de surprenant
à ce que la connaissance de la table des caractères de G entraîne celle des constantes cijk . Une
formule fermée existe :
s (m) (m) (m)
hi hj X ζi ζj ζk∗
cijk = .
|G| zm
m=1

Réciproquement, la connaissance des cijk permet de calculer la table des caractères de G. La


(m)
proposition suivante explique comment déterminer les ωi en fonction des cijk .

(1) (s) 
4.2.5.2 Proposition. Fixons i ∈ {1, . . . , s}. Alors ωi , . . . , ωi sont les valeurs propres
de la matrice (cijk )1≤j,k≤s , avec multiplicité.

Preuve. Appliquant le caractère central ω (m) à la relation Ci Cj = sk=1 cijk Ck , nous obtenons
P
(m) (m) Ps (m) (m) (m) 
ωi ωj k=1 cijk ωk . Cette relation dit que le vecteur ω1 , . . . , ωs est un vecteur
(m)
propre de la matrice (cijk )1≤j,k≤s pour la valeur propre ωi .
Par ailleurs, les relations d’orthogonalité s’écrivent ici
s
X 1 (m) (n) |G|
ωj ωj ∗ = δmn
hj zm zn
j=1

(m) (m) 
pour 1 ≤ m, n ≤ s. Étant orthogonaux, les vecteurs ω1 , . . . , ωs sont linéairement in-
dépendants, pour 1 ≤ m ≤ s. Nous avons ainsi décrit une base de diagonalisation pour la
matrice (cijk )1≤j,k≤s . 

Ainsi la connaissance des constantes de structures cijk permet en théorie de déterminer les
(m)
ωi . Elle donne également les hi = cii∗ 1 . On trouve alors les degrés zm par la relation
s
X 1 (m) (m) |G|
ω ωi ∗ = 2 ,
hi i zm
i=1

(m) (m)
puis enfin les ζi = zm ωi /hi .
À présent, et jusqu’à la fin de ce paragraphe, nous prenons pour k un sous-corps algébriquement
clos de C. La proposition précédente a alors un corollaire remarquable.

154
(m)
4.2.5.3 Corollaire. Les ωi sont des entiers algébriques.

(m)
Preuve. Fixons i ∈ {1, . . . , s}. La proposition 4.2.5.2 affirme que ωi est une valeur propre
de la matrice à coefficients entiers (cijk )1≤j,k≤s . Le polynôme caractéristique de cette matrice,
(m)
qui est unitaire et à coefficients entiers, annule donc ωi . Ceci montre que ce nombre est un
entier algébrique. 

4.2.5.4 Théorème. Le degré de chaque caractère irréductible de G divise |G|.

(m)
Preuve. Insérant zm ωi = hi ζi (m) dans la première relation d’orthogonalité 4.2.2.3, nous
obtenons
s
X (m) (m) |G|
ωi ζi∗ = .
zm
i=1
(m) (m)
Maintenant, chaque ωi est un entier algébrique d’après le corollaire 4.2.5.3 et chaque ζi∗
est un entier algébrique d’après la proposition 4.2.3.1. Ainsi |G|/zm est un entier algébrique.
Comme c’est un rationnel, c’est un entier. 

Exercice. Soit G un groupe fini et g ∈ G. Montrer que le nombre de couples (x, y) ∈ G2


tels que g = xyx−1 y −1 est égal à
X ζ(g)
|G| .
ζ(1)
ζ∈IrrC (G)

(Indication : soit C1 , ..., Cs une énumération des classes de conjugaison dans G. Prenons une
représentation irréductible complexe de G, de caractère ζ et de caractère central ω. Pour
chaque i ∈ {1, . . . , s}, P
notons ζi la valeur de ζ en un point de Ci et ωi la valeur de ω sur la
somme de classe Ci = g∈Ci g. Montrer qu’alors
s
1 X  X |G|
ζ xyx−1 y −1 = ζi ωi∗ = .
|G| 2
ζ(1)
(x,y)∈G i=1

Conclure en observant que la quantité ϕ(g) cherchée définit une fonction de classe ϕ ∈ cf C G.)

4.2.6 Théorème pa q b de Burnside

Nous en arrivons à un très beau résultat, prouvé par Burnside en 1911. La théorie des caractères
fournit une preuve particulièrement courte et élégante. Rappelons qu’un groupe est dit simple
s’il ne possède pas de sous-groupe distingué non-banal.

4.2.6.1 Proposition. Soient q un nombre premier et d un entier strictement positif. Un


groupe G ayant une classe de conjugaison de cardinal q d ne peut pas être simple.

155
Preuve. Soit k une extension finie de Q telle que l’algèbre de groupe kQ soit décomposée
(l’existence de k est assurée par la proposition 3.2.6.2). Nous pouvons plonger k dans C. Nous
(m)
utilisons nos notations habituelles Ci , ζi , etc. Appelant O l’anneau des éléments de k entiers
(m)
sur Z, la proposition 4.2.3.1 montre que chaque ζi appartient à O.
Supposons que G soit un groupe ayant une classe de conjugaison, disons Cj , de cardinal
hj = q d . De la seconde relation d’orthogonalité
s s
(m) (m) (m)
X X
0= ζ1 ζj =1+ zm ζj ,
m=1 m=2

(m) (m)
on tire l’existence d’un m > 1 tel que zm ζj 6∈ qO, et donc tel que q - zm et ζj 6= 0.
(m) (m)
Le corollaire 4.2.5.3 dit que ωj = hj ζ j /zm est un entier algébrique. Comme hj et zm sont
(m)
premiers entre eux, υ = ζj /zmest aussi un entier algébrique. (Pour le voir, on multiplie υ
par une relation de Bézout 1 = ahj + bzm ; chaque terme de la somme donnant υ appartient
alors à O, d’où υ ∈ O.)
(m)
La proposition 4.2.3.1 dit que ζj est somme de zm racines complexes de l’unité. Il en est
de même des conjugués algébriques de ce nombre. Cela entraîne que les conjugués algébriques
(m)
de ζj sont tous de module au plus zm . Les conjugués algébriques de υ sont donc tous de
module au plus 1. Le produit Υ de tous les conjugués de υ est donc de module au plus 1, avec
égalité si et seulement si |υ| = 1.
Un peu de théorie de Galois à présent : Υ est un nombre rationnel. C’est aussi un entier
(m)
algébrique. C’est donc un entier rationnel. Comme ζj 6= 0, on a υ 6= 0, et donc Υ 6= 0.
L’inégalité |Υ| ≤ 1 de l’alinéa précédent est donc une égalité, ce qui force |υ| = 1, c’est-à-dire
(m)
ζj = zm .
D’après la proposition 4.2.3.1, cela signifie que dans la représentation matricielle X dont
ζ (m) est le caractère, chaque élément de Cj est envoyé sur une matrice scalaire. L’image
réciproque par X de l’ensemble des matrices scalaires est alors un sous-groupe distingué de G
qui contient Cj .
À présent, raisonnons par l’absurde. Supposons que G soit simple. Alors ce sous-groupe est
G tout entier. Autrement dit, chaque élément de G est représenté par une matrice scalaire.
Comme X est une représentation irréductible, elle est de degré 1. Comme m > 1, cela entraîne
que G possède au moins deux caractères linéaires. Or tout caractère linéaire se factorise à
travers l’abélianisé G/G0 de G (paragraphe 4.2.4). L’existence de deux caractères distincts se
factorisant à travers G/G0 interdit à G/G0 d’être réduit à un seul élément. Ainsi G0 est un
sous-groupe distingué de G différent de G. Mais G est supposé simple. Finalement, G0 est
réduit à l’élément neutre, donc G est abélien. Nous obtenons alors une contradiction avec
l’hypothèse que G possède une classe de conjugaison de cardinal q d > 1. Cette contradiction
montre que G est simple. 

4.2.6.2 Théorème. Un groupe fini dont l’ordre est de la forme pa q b , avec p et q deux
nombres premiers, ne peut être simple que s’il est cyclique d’ordre premier.

156
Preuve. Supposons qu’il existe un groupe simple non-abélien d’ordre pa q b . Alors le centre de
G est réduit à l’élément neutre (c’est un sous-groupe distingué de G, différent de G tout entier
puisque G n’est pas abélien).
Soit P un p-Sylow de G. Soit h un élément du centre de P autre que l’élément neutre. Le
centralisateur CG (h) de h dans G est un sous-groupe de G qui contient P . L’indice dans G de
CG (h) divise l’indice de P , donc est de la forme q d . Certainement d > 0, car h n’appartient
pas au centre de G. Le cardinal de la classe de conjugaison de h est alors égal à q d , et nous
nous trouvons donc en situation d’appliquer la proposition 4.2.6.1. La contradiction que nous
obtenons montre l’absurdité de notre hypothèse de départ. 

Ainsi l’ordre d’un groupe simple non-abélien fait intervenir au moins trois nombres premiers ;
on vérifie ce phénomène sur l’exemple du groupe alterné A5 , d’ordre 60 = 22 · 3 · 5. Un résultat
dû à Feit et Thomson, de démonstration beaucoup plus longue que le théorème 4.2.6.2, dit
qu’un groupe simple non-abélien est d’ordre pair.
Un groupe G est dit résoluble s’il existe une suite de sous-groupes {e} = H0 ⊆ H1 ⊆ · · · ⊆
Hn = G tels que chaque Hm est distingué dans Hm+1 et Hm+1 /Hm est abélien. Le théo-
rème 4.2.6.2 entraîne alors par une récurrence immédiate le résultat suivant.

4.2.6.3 Théorème (Burnside). Un groupe fini dont l’ordre est de la forme pa q b , avec p
et q deux nombres premiers, est résoluble.

4.3 Représentations et caractères induits

Dans toute cette section, k est un corps quelconque (voire un anneau commutatif quelconque).

4.3.1 Restriction, induction, coinduction

4.3.1.1 Restriction. Soient G un groupe et H un sous-groupe de G. Chaque représentation


π : G → GL(V ) de G sur un espace vectoriel V donne lieu à une représentation de H sur V ,
obtenue en restreignant le domaine de π à H. On note resG
H V le résultat de cette opération.

4.3.1.2 Induction. Une des technique les plus efficaces pour construire des représentations
de G est la méthode des représentations induites. Cette notion généralise les représentations
de permutation vues au paragraphe 4.1.2.1. Là, nous partions d’un ensemble Ω muni d’une
action de G, considérions le k-espace vectoriel k (Ω) de base (eω )ω∈Ω , et définissions un ho-
momorphisme de groupes de G dans GL k (Ω) . Cette représentation de G se décompose en
somme directe d’une façon dictée par la partition en G-orbites de Ω. Pour qui ne s’intéresse
qu’aux représentations indécomposables, il est suffisant de se limiter aux ensembles Ω sur
lesquels G agit transitivement. Plaçons-nous dans ce cas.
Pour ω ∈ Ω, le vecteur eω est fixé par le stabilisateur StabG (ω) de ω dans G. Une idée qui
vient à l’esprit est de remplacer la droite keω de k (Ω) par une représentation Wω de StabG (ω).

157
Pour que la somme directe V = ω∈Ω Wω soit une représentation de G, il faut disposer, pour
L
chaque g ∈ G, d’un isomorphisme d’espace vectoriel entre Wω et Wgω qui échange l’action de
StabG (ω) sur Wω avec l’action de g StabG (ω)g −1 = StabG (gω) sur Wgω . On voit ainsi que si
l’on se donne un seul Wω , les autres sont dictés par la condition d’avoir une représentation de
G sur V tout entier.
Fixons donc un point ω ∈ Ω et appelons H son stabilisateur. L’application g 7→ gω induit
donc une bijection G-équivariante de G/H sur Ω. Donnons-nous une représentation W de H
et fabriquons l’espace M
V = k (G/H) ⊗k W = kegH ⊗k W.
gH∈G/H

Supposant Ω fini, H est d’indice fini dans G et la somme directe est finie. Prenons une famille
(gi )i∈I de représentants dans G des classes à gauche modulo H. Ainsi G/H = {gi H | i ∈ I}.
On note gi ⊗ W au lieu de kegi H ⊗k W . On peut alors définir une action de G sur V de la façon
suivante : pour g ∈ G et i ∈ I, il existe j ∈ I et h ∈ H tel que ggi = gj h, et pour w ∈ W , on
pose g(gi ⊗ w) = gj ⊗ (hw).
Reformulons cette construction en termes d’algèbres de groupe. On constate que kG est un
kH-module à droite libre de base (gi )i∈I . Voyant W comme un kH-module à gauche, on peut
former le produit tensoriel kG ⊗kH W . Par distributivité du produit tensoriel sur la somme
directe, on a !
M M 
kG ⊗kH W = gi kH ⊗kH W = gi kH ⊗kH W ,
i∈I i∈I

où chaque terme gi kH ⊗kH W est un espace vectoriel isomorphe à W , vu que gi kH est un


kH-module à droite libre de rang 1. Identifiant gi ⊗ W à gi kH ⊗kH W par l’application
évidente (gi ⊗ w est envoyé sur lui-même), on obtient un isomorphisme d’espaces vectoriels
V ∼= kG ⊗kH W . On vérifie alors que l’action de kG sur V correspond à l’action de kG sur
kG ⊗kH W par multiplication à gauche sur le premier facteur.
Conclusion : soient G un groupe, H un sous-groupe d’indice fini de G, et W une représentation
de H sur un espace vectoriel W . L’induite à G de la représentation W de H est le kG-module
kG ⊗kH W , où l’action de kG est la multiplication à gauche sur le premier facteur. On note
indGH W cette représentation de G. Son degré est (G : H) fois le degré de W . On notera qu’on
a une application injective ιW : w 7→ 1 ⊗ w de W dans indG H W . On vérifie facilement que ιW
est un homomorphisme de kH-modules de W dans resG H ind H W.
G

Exemples.
(1) Soit Ω un ensemble fini muni d’une action transitive d’un groupe G. Soit H le sta-
bilisateur d’un point de Ω. Alors la représentation de permutation de G sur k (Ω) est
isomorphe à l’induite à G de la représentation triviale de H.
(2) Soit G un groupe fini. La représentation régulière de G, c’est-à-dire le kG-module
régulier à gauche, est isomorphe à l’induite à G de la représentation triviale du sous-
groupe trivial {1}.

158
4.3.1.3 Coinduction. La coinduction est une technique duale de la technique d’induction.
Repartons d’un ensemble Ω sur lequel G agit. Une forme linéaire sur k (Ω) est spécifiée par les
valeurs qu’elle donne des vecteurs de base eω . On a ainsi une bijection entre l’espace k (Ω) ∗


des formes linéaires sur k (Ω) etl’espace k Ω des fonctions sur Ω. L’espace k (Ω) étant une repré-
sentation de G, son dual k (Ω) ∗ peut être vu comme l’espace sous-jacent à la représentation
contragrédiente. Ainsi k Ω est l’espace d’une représentation  de G, l’action d’un g ∈ G sur une
fonction f : Ω → k étant donnée par gf = ω 7→ f (g −1 ω) .
À nouveau, nous allons généraliser cette construction. Nous supposons que l’action de G sur Ω
est transitive, nous choisissons ω ∈ Ω et appelons H son stabilisateur dans G. Toute fonction
de Ω ∼= G/H dans k s’identifie alors à une fonction sur G constante sur chaque classe à gauche
gH. Considérant une représentation linéaire de H sur un espace vectoriel W , nous pouvons
considérer une variante de cette construction en regardant
V = f : G → W ∀(g, h) ∈ G × H, f (gh−1 ) = hf (g) 19 .


On définit une action linéaire de G sur cet espace V en posant gf = f g −1 ? , pour g ∈ G et




f ∈V.
Cette construction se traduit aisément en termes d’algèbres de groupes. De fait, kG est un
kH-module grâce à la multiplication à gauche ; ce module est libre, n’importe quel système de
représentants des classes Pà droite en formant une base. À une fonction f : G → W , on associe
l’application linéaire fˆ : g∈G ag g 7→ g∈G ag f (g −1 ) de kG dans W . Cette correspondance
P

f 7→ fˆ est un isomorphisme d’espaces vectoriels V ∼= HomkH (kG, W ). L’action à droite de kG


sur lui-même définit une structure de kG-module à gauche sur HomkH (kG, W ), qui coïncide
avec la représentation de G sur V .
Conclusion : soient G un groupe, H un sous-groupe d’indice fini de G, et W une représentation
de H sur un espace vectoriel W . La coinduite à G de la représentation W de H est le kG-
module HomkH (kG, W ), où l’action de kG est induite par la multiplication à droite sur le
domaine. On note coindG H W cette représentation de G ; son degré est (G : H) fois le degré de
W . On note qu’on a une application κW : f 7→ f (1) de coindGH W dans W . On vérifie que κW
est un homomorphisme de kH-modules de resG H coind G
H W dans W.

Notre résultat de changement de base (paragraphe 1.4.4) donne alors immédiatement :

4.3.1.4 Théorème (réciprocité de Frobenius). Soient G un groupe, H un sous-groupe


d’indice fini de G, V une représentation linéaire de G, W une représentation linéaire de H.
Alors les applications
f 7→ f ◦ ιW et f 7→ κW ◦ f
définissent des isomorphismes
HomG (indG ∼ G
HomG (V, coindG ∼ G
H W, V ) = HomH (W, resH V ) et H W ) = HomH (resH V, W ).

19. Faisons agir H sur G × W par la règle h · (g, w) = (gh−1 , hw). L’ensemble des orbites (G × W )/H est noté
G ×H W ; on note traditionnellement [g, w] l’image dans G ×H W d’un élément (g, w) de G × W . L’ensemble
G ×H W est un fibré au dessus de G/H et l’espace V s’identifie à l’ensemble des sections de ce fibré : à f ∈ V
correspond la section gH 7→ [g, f (g)].

159
Afin de pouvoir rester en dimension finie, nous avons limité notre définition des représentations
induites et coinduites au cas des sous-groupes d’indice fini. Cette restriction peut être levée,
le prix à payer étant évidemment d’accepter les contraintes de l’étude des représentations de
dimension infinie. Toutefois, le cas des sous-groupes d’indice fini présente une autre particu-
larité : il n’y a pas de différence fondamentale entre représentation induite et représentation
coinduite (voir l’exercice ci-dessous). Autrement dit, on peut oublier la coinduction et penser
à l’induction comme l’adjoint à gauche et à droite du foncteur de restriction.

Exercice. Soient H un sous-groupe d’indice fini d’un groupe G et W une représentation


de H. Soit (gi )i∈I un système de représentants des classes à gauche de G selon H ; ainsi
G/H = {gi H | i ∈ I}. Montrer qu’on définit un isomorphisme de kG-modules de indG
H W sur
coindG
H W en envoyant gi ⊗ w sur la fonction
(
(g −1 gi )w si g −1 gi ∈ H,
g 7→
0 si g −1 gi 6∈ H,

pour chaque i ∈ I et w ∈ W .

4.3.2 Propriétés de l’induction

4.3.2.1 Proposition. Soit k un corps.


(i) Soit G un groupe, H un sous-groupe de G. L’induction indG H ? est un foncteur additif
de la catégorie des kH-modules dans la catégorie des kG-modules.
(ii) Soient K ⊆ H ⊆ G des inclusions de groupes. Il existe un isomorphisme canonique de
foncteurs indG H ∼ G
H (indK ?) = indK ? de la catégorie des kK-modules dans la catégorie des
kG-modules.

Preuve. L’assertion (i) provient directement de la définition indG


H ? = kG⊗kH ?. Soit W un
kK-module. Alors

indG H G
 
H (indK W ) = kG ⊗kH kH ⊗kK W = kG ⊗kH kH ⊗kK W = kG ⊗kK W = indK W.

Cela montre (ii). 

Soient k un corps et H un sous-groupe d’indice fini d’un groupe G. On choisit une famille (gi )i∈I
de représentants des classes à gauche de G modulo H. À une fonction de classe λ ∈ cf k (H)
sur H, on associe la fonction λG : G → k définie par
X
λ̇ gi−1 ggi ,

g 7→
i∈I

où λ̇ : G → k est la fonction qui coïncide avec λ sur H et qui vaut 0 hors de H. À une fonction
de classe µ ∈ cf k (G) sur G, on associe sa restriction µH , qui est une fonction sur H à valeurs
dans k.

160
4.3.2.2 Proposition. Partant des objets ci-dessus, nous avons les propriétés suivantes.
(i) Si λ ∈ cf k (H), alors λG ∈ cf k (G). Si λ est le caractère d’une représentation de H sur
un espace vectoriel W , alors λG est le caractère de l’induite indG H W . Si λ ∈ ch kH,
G
alors λ ∈ ch kG.
(ii) Si µ ∈ cf k (G), alors µH ∈ cf k (H). Si µ est le caractère d’une représentation de G sur
un espace vectoriel V , alors µH est le caractère de la restriction resG
H V . Si µ ∈ ch kG,
alors µH ∈ ch kH.
Supposons que k soit de caractéristique 0. Pour chaque λ ∈ cf k (H), on a λG (g) =
(iii) 
−1
P 
x∈G λ̇ x gx /|H|.

(iv) Prenons k = C et supposons que G soit un groupe fini. Munissons cf C (H) et cf C (G) des
produits scalaires hermitiens du paragraphe 4.2.3. Soient λ ∈ cf C (H) et µ ∈ cf C (G).
Alors (λG , µ)G = (λ, µH )H .

Preuve. Plaçons-nous dans le cadre de l’assertion (i). Chaque x ∈ G induit par multiplication
à gauche une permutation de l’ensemble G/H. Il existe donc une permutation σ de I et des
éléments hi de H tels que xgi = gσ(i) hi pour chaque i ∈ I. Pour chaque g ∈ G, on a alors
X  X  X
λG (x−1 gx) = λ̇ gi−1 x−1 gxgi = λ̇ h−1 −1 −1
ggσ(i) = λG (g).

i gσ(i) ggσ(i) h i = λ̇ gσ(i)
i∈I i∈I i∈I

Ainsi λG ∈ cf k (G).
Supposons que λ soit le caractère d’une représentation de H sur un espace vectoriel W . Prenant
une base (w1 , . . . , wm ) de W , nous obtenons une représentation matricielle X : H → GLm (k).
Prolongeons X en une application Ẋ : G → Matm (k) en décrétant que Ẋ(g) = 0 si g 6∈ H. À
réindexation près, nous pouvons supposer que I = {1, . . . , n}. Munissant indG H W de la base
(g1 ⊗ w1 , . . . , g1 ⊗ wm , g2 ⊗ w1 , . . . , g2 ⊗ wm , . . . , gn ⊗ w1 , . . . , gn ⊗ wm ), on vérifie que l’induite
à G de notre représentation de H est fournie par la représentation matricielle

Ẋ(g1−1 gg1 ) . . . Ẋ(g1−1 ggn )


 

g 7→  .. ..
. . .
 

Ẋ(gn−1 gg1 ) . . . Ẋ(gn−1 ggn )

Le caractère de cette représentation est λG .


Ce qui précède montre que λG est un caractère de G dès que λ est un caractère de H. Par
Z-linéarité, on en déduit que λG est un caractère virtuel de G dès que λ est un caractère
virtuel de H. Cela achève la preuve de l’assertion (i).
La preuve de l’assertion (ii) est du même genre (en plus simple). L’assertion (iii) se montre
en sommant par paquets, obtenus en partitionnant G selon ses classes à gauche modulo H.

161
Enfin, l’assertion (iv) provient du calcul suivant :
!
1 X 1 X
(λG , µ)G = λ̇(x−1 gx) µ(g)
|G| |H|
g∈G x∈G
!
1 X 1 X
= λ̇(x−1 gx)µ(x−1 gx)
|G| |H|
x∈G g∈G
1 X
= λ̇(z)µ(z)
|H|
z∈G
1 X
= λ(h)µ(h)
|H|
h∈H
= (λ, µH )H .

Dans le cas où λ est le caractère d’une représentation de H et µ est le caractère d’une repré-
sentation de G, l’assertion (iv) traduit la réciprocité de Frobenius (théorème 4.3.1.4), compte
tenu de l’interprétation du produit scalaire comme dimension d’un espace d’homomorphismes
(proposition 4.2.3.2 (ii)). 

Exemple. Prenons k = C et G = Dn le groupe diédral à 2n éléments, engendré par r et s


comme au paragraphe 4.1.2.4. Soit H le sous-groupe cyclique d’ordre n engendré par r et soit
θ = 2π/n. Pour 0 ≤ j < n entier, soit λj le caractère linéaire de H qui envoie r sur eijθ . Des
calculs montrent alors que :
(1) indG
H λ0 est la somme de deux caractères linéaires, à savoir le caractère trivial 1 et la
signature ε.
(2) Pour j entier entre 1 et n − 1, indG
H λj = indH λn−j .
G

(3) Si n est impair (respectivement, pair), alors pour chaque j entier entre 1 et (n − 1)/2
(respectivement, n/2 − 1), la fonction indG H λj est le caractère de la représentation
r 7→ Rj , s 7→ S de Dn construite dans le paragraphe 4.1.2.4.
(4) Si n est pair, alors indG
H λn/2 est la somme des deux caractères linéaires de Dn définis
à la fin du paragraphe 4.1.2.4.

On trouvera dans les livres bon nombre d’autres résultats basiques concernant les représen-
tations et les caractères induits. Citons ici pour mémoire les résultats classiques de Mackey
(voir par exemple [7], §10B) :
(1) Quand H et K sont deux sous-groupes d’un groupe G, avec H d’indice fini, on peut
décrire explicitement la restriction de l’induction resG
K (indH W ) d’une représentation
G

W de H en termes d’induites indL (resg−1 Lg (W )), où chaque L est un sous-groupe de


K H

la forme gHg −1 ∩ K.
(2) Quand H et K sont deux sous-groupes d’indice fini de G et W et X sont des représen-
tations de H et K respectivement, on peut décrire explicitement le produit tensoriel
H W ) ⊗k (indK X) des représentations induites en termes d’induites indL Y , où
(indG G G

chaque L est un sous-groupe de la forme gHg −1 ∩ K.

162
Exercice. Soit H un sous-groupe d’un groupe fini G. Soient λ ∈ cf k (H) et µ ∈ cf k (G).
Montrer que λ µ = λ µH .
G
G

4.3.3 Trois théorèmes de Brauer

Dans tout ce paragraphe, G est un groupe fini.


Un sous-groupe de G est dit p-élémentaire, pour un nombre premier p, s’il est le produit
direct d’un p-groupe et d’un groupe cyclique. Un sous-groupe de G est dit élémentaire s’il est
p-élémentaire pour un certain nombre premier p.
Nous admettrons le résultat suivant. Pour une preuve, le lecteur est invité à consulter [6], §40,
ou [7], §15B.

4.3.3.1 Théorème d’induction de Brauer. Chaque caractère complexe de G est une


combinaison Z-linéaire de caractères induits à partir de caractères linéaires de sous-groupes
élémentaires de G.

Tout sous-groupe cyclique de G étant élémentaire, chaque élément de G appartient à un sous-


groupe élémentaire de G. Un caractère de G est donc entièrement déterminé par la donnée de
ses restrictions aux sous-groupes élémentaires de G. Plus étonnant est le résultat suivant.

4.3.3.2 Critère pour les caractères virtuels. Une fonction de classe ϕ ∈ cf C (G) appar-
tient à ch CG si et seulement si ϕH appartient à ch CH pour chaque sous-groupe élémentaire
H de G.

Preuve. Le sens direct est conséquence immédiate de la proposition 4.3.2.2 (ii). Réciproque-
ment, soit ϕ ∈ cf C (G) tel que ϕH ∈ ch CH pour chaque sous-groupe élémentaire H. Le
théorème d’induction de Brauer dit qu’on peut écrire le caractère trivial de G comme une
combinaison Z-linéaire 1 = i∈I ai λG i d’induits de caractères linéaires λi de sous-groupes élé-
P
mentaires Hi de G. Chaque restriction ϕHi étant un caractère virtuel de Hi , l’induite (ϕHi λi )G
est un caractère virtuel de G. Utilisant l’exercice du paragraphe 4.3.2, nous pouvons donc ex-
primer X X
ϕ=ϕ1= ai ϕ λG
i = ai (ϕHi λi )G
i∈I i∈I

comme combinaison Z-linéaire de caractères virtuels de G. Ainsi ϕ ∈ ch CG, comme désiré. 

Soit k un corps de caractéristique 0. On dit que k est un corps de décomposition pour G si


l’algèbre kG est décomposée. Cela est équivalent à dire que chaque représentation irréductible
de G sur k est absolument irréductible (paragraphe 3.2.6), ou encore que l’algèbre des endo-
morphismes d’un kG-module simple M est égale à k idM . Une condition suffisante est que k
soit algébriquement clos.
Le paragraphe 4.2.2.5 prouve qu’un sous-corps k de C est un corps de décomposition pour
G si et seulement si chaque représentation matricielle irréductible de G sur C est réalisable

163
sur k, c’est-à-dire équivalente sur C à une représentation matricielle de G sur k. La proposi-
tion 3.2.6.2 (iv) affirme l’existence d’une extension finie de Q qui décompose G. Le résultat
suivant est plus précis.

4.3.3.3 Théorème du corps de décomposition. Soit n l’exposant de G, c’est-à-dire le


ppcm des ordres des éléments de G. Soit ω une racine primitive n-ième de l’unité dans C.
Alors l’extension cyclotomique Q(ω) est un corps de décomposition de G.

Preuve. Soit H un sous-groupe élémentaire de G. Toute représentation de degré 1 de H est


un caractère linéaire du groupe abélien H/H 0 , donc est réalisable sur Q(ω) (si besoin est,
réexaminer la preuve du théorème 4.2.4.2 et l’exemple 4.1.2.3). L’induite à G d’une telle
représentation est donc réalisable sur Q(ω).
Maintenant soit T une représentation de G sur C et soit ζ le caractère de T . Le théorème
d’induction de Brauer permet d’écrire
X
ζ= ai λG
i ,
i∈I

avec ai ∈ Z et λi un caractère linéaire d’un sous-groupe élémentaire de G. Réarrangeant les


termes, nous écrivvons
! !
X X
ζ= ai λG
i − (−ai )λG
i = µ − ν.
ai >0 ai <0

Le premier alinéa montre que chaque λG i est le caractère d’une représentation de G réalisable
sur Q(ω). Il existe donc des représentations matricielles X et Y de G sur Q(ω) dont µ et ν
sont les caractères, respectivement. L’égalité ζ + ν = µ se traduit alors par un isomorphisme
T ⊕Y(C) ∼ = X(C) , où X(C) et Y(C) sont les représentations X et Y , vues comme représentations
sur C.
En décomposant X et Y en somme directe de représentations simples sur Q(ω), on par-
vient à une décomposition X ∼ = X 0 ⊕ Z et Y ∼ = Y 0 ⊕ Z telle que X 0 et Y 0 n’aient aucune
composante irréductible en commun, ce qui se traduit par HomG (X 0 , Y 0 ) = 0. La proposi-
tion 3.1.3.2 (ou l’argument dans la preuve du théorème de Noether-Deuring 3.2.3.1) dit qu’alors
0 ,Y 0 c’est-à-dire que X(C)
0 et Y(C)
0 n’ont aucune composante irréductible

HomG X(C) (C) = 0,
en commun (voir aussi l’exercice (2) du paragraphe 3.2.6). L’isomorphisme T ⊕ Y(C) 0 ∼ 0
= X(C)
amène alors Y(C)0 = 0, et ainsi T est réalisée sur Q(ω) par X 0 .

Nous avons donc montré que chaque représentation T de G sur C est réalisable sur Q(ω). Le
théorème est prouvé. 

4.4 Représentations continues des groupes compacts

4.4.1 Groupes topologiques

Groupe topologique : une topologie sur un groupe G est dite compatible avec la structure de
groupe si le produit (g, h) 7→ gh et l’inversion g 7→ g −1 sont des applications continues de

164
G × G ou G dans G. Un groupe muni d’une topologie compatible est dit groupe topologique.
Tout groupe fini, muni de la topologie discrète, est un groupe topologique.
Espaces vectoriels topologiques : ici k est un corps valué complet non discret, par exemple
R, C ou Qp . Sur un k-espace vectoriel V de dimension finie existe une topologie canonique
obtenue en transportant la topologie produit sur k dim V à V grâce au choix d’une base de V (le
résultat ne dépend pas du choix de la base). Le groupe GL(V ), en tant qu’ouvert de l’espace
vectoriel de dimension finie Endk (V ), est lui aussi muni d’une topologie canonique ; c’est en
fait un groupe topologique.
Représentation continue : soit G un groupe topologique et k un corps valué complet non
discret. Soit π : G → GL(V ) une représentation linéaire de G sur un k-espace vectoriel V de
dimension finie. Alors les trois conditions suivantes sont équivalentes :
(1) π : G → GL(V ) est une application continue ;
(2) l’action (G × V → V, (g, v) 7→ π(g)(v)) est une application continue ;
(3) pour chaque vecteur v ∈ V et chaque forme linéaire v ∗ ∈ V ∗ , la fonction (appelée
« coefficient matriciel ») g 7→ hv ∗ , π(g)(v)i sur G à valeurs dans k est continue.
Si ces conditions sont vérifiées, on dit que π est continue. Nous n’étudierons pas le cas des
représentations de dimension infinie, pour lequel plusieurs définitions différentes sont utilisées
de manière concurrente.

4.4.2 Coefficients d’une représentation

Dans ce paragraphe, G est un groupe et k est un corps, sans hypothèse supplémentaire.


La k-algèbre kG du groupe G est un k-espace vectoriel. Son dual s’identifie à l’espace k G des
fonctions de G dans k (voir la remarque 4.1.4.2).
Nous munissons kG de sa structure de kG-bimodule régulier. L’espace k G des fonctions sur
G à valeurs dans k peut être identifié au dual de kG (voir la remarque 4.1.4.2) ; il se trouve
ainsi muni d’une structure de kG-bimodule. Concrètement, les actions à gauche et à droite
d’un élément g ∈ G ⊆ kG sur une fonction ϕ ∈ k G sont données par

g · ϕ = (h 7→ ϕ(hg)) et ϕ · g = (h 7→ ϕ(gh)).

Enfin si ϕ ∈ k G est une fonction sur G, on note ϕ∗ la fonction g 7→ ϕ(g −1 ), prolongeant ainsi
la notation du paragraphe 4.1.4 pour les fonctions de classe.
Soit π une représentation de G dans un k-espace vectoriel V . On munit V ∗ de la structure de
kG-module à droite induite par la structure de kG-module à gauche sur V . L’espace V ⊗k V ∗
se trouve ainsi muni d’une structure de P kG-bimodule : les actions à gauche et à droite d’un
élément g ∈ G ⊆ kG sur un tenseur t = vi ⊗ fi sont données par
X X
g·t= π(g)(vi ) ⊗ fi et t · g = vi ⊗ (t π(g))(fi ).
i i

Pour v ∈ V et v ∗ ∈ V ∗ , on note θπ (v, v ∗ ) la fonction g 7→ hv ∗ , π(g)(v)i sur G. Les θπ (v, v ∗ ),


pour v ∈ V and v ∗ ∈ V ∗ , s’appellent les coefficients de π. L’application θπ de V × V ∗ dans k G

165
définit alors une application linéaire de V ⊗k V ∗ dans k G , que nous noterons également θπ .
On note Mπ = θπ (V ⊗k V ∗ ) ; c’est le sous-espace vectoriel de k G engendré par les coefficients
de π. Le caractère χπ de π appartient à Mπ .

4.4.2.1 Proposition. Soit π : G → GL(V ) une représentation de G. Alors l’application


θπ : V ⊗k V ∗ → k G est un homomorphisme de kG-bimodules. Son image Mπ est un sous-kG-
bimodule de k G .

Preuve. Soient g ∈ G, v ∈ V et v ∗ ∈ V ∗ . Alors


g · θπ (v, v ∗ ) = h 7→ θπ (v, v ∗ )(hg) = h 7→ hv ∗ , π(h)π(g)vi = θπ (π(g)v, v ∗ )
 

et
θπ (v, v ∗ ) · g = h 7→ θπ (v, v ∗ )(gh) = h 7→ ht π(g)v ∗ , π(h))vi = θπ (v, t π(g)v ∗ ).
 

La première assertion de la proposition se déduit facilement de ces égalités par linéarité, et la


seconde est conséquence de la première. 

4.4.2.2 Remarques.
(1) Soit π : G → GL(V ) une représentation de G. Alors l’orthogonal dans kG de Mπ ,
relativement à la dualité entre kG et k G , est l’annulateur du kG-module V . Supposons
que V soit de dimension finie sur k. Alors Mπ est de dimension finie, et donc, par
bidualité, Mπ est l’orthogonal dans k G de ann V .
(2) Plaçons-nous dans les hypothèses de l’énoncé de la proposition 4.4.2.1. En confondant
V ⊗k V ∗ avec l’espace vectoriel Homk (V, V ), nous identifions θπ à l’application qui
envoie u ∈ Homk (V, V ) sur la fonction g 7→ tr(u ◦ π(g)). Considérons la représentation
de G sur Homk (V,
 V ) et munissons k Gd’une action à gauche de G en posant g · ϕ =
G

h 7→ ϕ(g hg) , pour g ∈ G et ϕ ∈ k . Notre application u 7→ tr(u ◦ π(?)) est alors


−1

un homomorphisme de représentations, qui envoie idV sur le caractère χπ .

La proposition suivante découle immédiatement des définitions du paragraphe 4.1.3.

4.4.2.3 Proposition.
(i) Soit 1 : G → GL1 (k) la représentation triviale. Alors M1 est l’ensemble des fonctions
constantes sur G à valeurs dans k.
(ii) Soient π : G → GL(V ) et ρ : G → GL(W ) deux représentations de G, soient v ∈ V ,
v ∗ ∈ V ∗ , w ∈ W et w∗ ∈ W ∗ . On considère v ∗ ⊕ w∗ comme un élément de (V ⊕ W )∗
grâce à l’isomorphisme V ∗ ⊕ W ∗ ∼ = (V ⊕ W )∗ . Alors θπ⊕ρ (v ⊕ w, v ∗ ⊕ w∗ ) = θπ (v, w∗ ) +
θ (w, w ). On a Mπ⊕ρ = Mπ + Mρ .
ρ ∗

(iii) Soient π : G → GL(V ) et ρ : G → GL(W ) deux représentations de G, soient v ∈ V ,


v ∗ ∈ V ∗ , w ∈ W et w∗ ∈ W ∗ . On considère v ∗ ⊗ w∗ comme un élément de (V ⊗k
W )∗ grâce au plongement V ∗ ⊗ W ∗ ⊆ (V ⊗k W )∗ . Alors θπ⊗ρ (v ⊗ w, v ∗ ⊗ w∗ ) =
θπ (v, v ∗ )θρ (w, w∗ ). On a Mπ⊗ρ = Mπ Mρ .
(iv) Soit π : G → GL(V ) une représentation de G, soient v ∈ V et v ∗ ∈ V ∗ . On note
π ∗ : G → GL(V ∗ ) la représentation contragrédiente de π et on voit v comme une

forme linéaire sur V ∗ . Alors θπ (v ∗ , v) = (θπ (v, v ∗ ))∗ . On a Mπ∗ = (Mπ )∗ .

166
On note (kG)◦ la somme dans k G de tous les espaces Mπ , où π décrit l’ensemble des re-
présentations de dimension finie de G. D’après les propositions 4.4.2.1 et 4.4.2.3, c’est un
sous-kG-bimodule et une sous-algèbre de k G stable par l’involution ∗.

4.4.2.4 Proposition. L’espace (kG)◦ coïncide avec les trois ensembles suivants :
— L’ensemble des fonctions ϕ : G → k telles que le sous-espace vectoriel engendré par
l’ensemble {g · ϕ | g ∈ G} des translatées à droite de ϕ est de dimension finie.
— L’ensemble des fonctions ϕ : G → k telles que le sous-espace vectoriel engendré par
l’ensemble {ϕ · g | g ∈ G} des translatées à gauche de ϕ est de dimension finie.
— L’ensemble des fonctions ϕ : G → k telles que le sous-espace vectoriel engendré par
l’ensemble {g · ϕ · h | (g, h) ∈ G2 } de toutes les translatées de ϕ est de dimension finie.

Preuve. Un sous-espace Mπ est de dimension finie et stable par les translations à gauche et à
droite. Il est donc inclus dans chacun des trois ensembles de l’énoncé.
À présent, soit ε : k G → k l’évaluation d’une fonction en l’élément neutre de G et soit
ρ : G → GL(k G ) la représentation linéaire de G sur k G donnée par la translation à droite.
Alors chaque fonction ϕ ∈ k G est égale au coefficient matriciel θρ (ϕ, ε).
Montrons l’inclusion du premier ensemble de l’énoncé dans (kG)◦ . Soit ϕ : G → k une fonction
et soit V le sous-espace vectoriel engendré par {g · ϕ | g ∈ G}. Certainement V est un sous-
kG-module à gauche de k G ; ρ se restreint donc en une sous-représentation π : G → GL(V ).
Alors ϕ = θπ (ϕ, ε) appartient à Mπ . Donc ϕ ∈ (kG)◦ dès que V est de dimension finie.
L’inclusion du second ensemble de l’énoncé dans (kG)◦ se démontre de façon analogue (ou en
utilisant l’involution ∗). Enfin, le troisième ensemble de l’énoncé est inclus dans le premier et
le second. 

4.4.2.5 Remarque. Dans le cas où G est un groupe topologique et k est un corps valué
complet non discret, l’espace C(G, k) des fonctions continues de G dans k est un sous-kG-
bimodule de k G . Si π est une représentation continue, Mπ est un sous-kG-bimodule de C(G, k).
On peut alors énoncer des résultats pour les représentations continues de dimension finie
analogues aux propositions 4.4.2.1, 4.4.2.3 et 4.4.2.4 et aux remarques 4.4.2.2.

4.4.3 Mesure invariante

Soit G un groupe fini et k un corps dont la caractéristique ne divise pas l’ordre de G. On peut
alors définir la moyenne d’une fonction f : G → k par la formule |G|1 P
g∈G f (g).

Cette construction d’une moyenne s’étend aux groupes compacts à condition de prendre R
ou C comme corps de base et de se restreindre aux fonctions continues. Pour une preuve du
résultat suivant, voir par exemple John von Neumann, Zum Haarschen Maß in topologischen
Gruppen, Compositio Math. 1 (1934), 106–114.

167
4.4.3.1 Théorème. Soit G un groupe topologique compact et soit C(G, R) l’espace des
fonctions continues sur G à valeurs réelles. Alors il existe une unique forme R-linéaire sur
C(G, R) → R, appelée moyenne, satisfaisant aux conditions (i) à (iii) ci-dessous. Elle satisfait
en outre aux conditions (iv) et (v).
(i) La moyenne d’une fonction à valeurs positives est positive.
(ii) La moyenne d’une fonction constante est égale à la valeur de cette fonction.
(iii) Pour toute fonction f ∈ C(G, R) et tout g ∈ G, la fonction h 7→ f (g −1 h) a même
moyenne que f .
(iv) Si une fonction continue positive est de moyenne nulle, alors elle est identiquement
nulle.
(v) Pour toute fonction f ∈ C(G, R) et tout g ∈ G, les fonctions h 7→ f (hg), h 7→ f (g −1 hg)
et h 7→ f (h−1 ) ont même moyenne que f .

D’après le théorème de représentation de Riesz, la donnée d’une forme linéaire positive sur
C(G, R) est équivalente à la donnée d’une mesure de Radon positive sur G. La moyenne cor-
respond ainsi à une mesure positive sur G, qu’on appelle mesure de Haar ou mesure invariante,
et que nous noterons µ. On peut alors intégrer sur G toute fonction borélienne bornée à valeurs
dans un R-espace vectoriel de dimension finie. On peut aussi parler de fonctions mesurables
et considérer les espaces Lp (G, R) et l’espace de Hilbert complexe L2 (G, C).

4.4.3.2 Exemples.
(1) Si G = R/2πZ, alors la moyenne d’une fonction continue f : G → R est
R
R 2π Gf dµ =
1 it
2π 0 f (e ) dt.
(2) Si G1 , ..., Gn sont des groupes compacts et si µ1 , ..., µn sont leurs mesures de Haar,
alors la moyenne d’une fonction f : G → R sur le groupe produit G = G1 × · · · × Gn
est donnée par
Z Z Z
f dµ = ··· f (g1 , . . . , gn ) dµ1 (g1 ) · · · dµn (gn ).
G G1 Gn

4.4.4 Théorème de Maschke et relations d’orthogonalité

Dans ce paragraphe, G est un groupe compact et k est R ou C. Toutes les représentations


considérées sont continues et de dimension finie.
Grâce à la mesure invariante, on peut définir l’opérateur de Reynolds de la même façon qu’au
paragraphe 4.2.1. De façon précise, si π : G
R → GL(V ) une représentation de G, l’opérateur
de Reynolds est l’application linéaire \ = G π(g) dµ(g) de V dans lui-même. Ici, on intègre
une fonction continue à valeurs dans un espace vectoriel de dimension finie, ce qui est licite.
La proposition 4.2.1.2 et le théorème de Maschke 4.2.1.4 restent valables sans changement. La
formule du corollaire 4.2.1.3 devient
Z
dim(invG V ) = χπ dµ.
G

168
Celle de la proposition 4.2.1.5 devient
Z
χV g −1 χW g dµ(g).
 
dim HomG (V, W ) =
G

De ces relations d’orthogonalité entre caractères, on déduit que les caractères des représen-
tations de dimension finie irréductibles et continues sont linéairement indépendants. Joint
au théorème de Maschke, ce fait implique que le caractère d’une représentation continue de
dimension finie de G détermine cette représentation à isomorphisme près.
Sur C, on a également une relation d’orthogonalité pour les coefficients d’une représentation.
(Cette relation d’orthogonalité aurait pu être établie au paragraphe 4.2.1 pour un groupe fini
G et un corps de base k algébriquement clos et de caractéristique ne divisant pas l’ordre de
G ; nous n’en aurions cependant pas eu l’usage.) Reprenons le contexte du paragraphe 4.4.2,
dans le cadre de la remarque 4.4.2.5.

4.4.4.1 Proposition. Soient π : G → GL(V ) et ρ : G → GL(W ) deux représentations


irréductibles de G. Soient v ∈ V , v ∗ ∈ V ∗ , w ∈ W , w∗ ∈ W ∗ . Alors

si π ∼

Z 0
 6 ρ,
=

π ∗ −1 ρ ∗
θ (v, v )(g )θ (w, w )(g) dµ(g) = hw∗ , f (v)ihv ∗ , f −1 (w)i s’il existe un isomorphisme
G 

deg π f ∈ HomG (π, ρ).

Preuve. On considère la représentation de G sur Homk (V, W ), d’où un opérateur de Reynolds


\ sur Homk (V, W ). Soit u ∈ Homk (V, W ) l’application linéaire x 7→ hv ∗ , xiw. Le membre de
gauche dans la formule de la proposition est hw∗ , u\ (v)i.
Les invariants de Homk (V, W ) sont les homomorphismes de représentations. Si π n’est pas
isomorphe à ρ, alors invG Homk (V, W ) = HomG (V, W ) = 0 d’après le lemme de Schur, et
donc u\ = 0. Cela montre le résultat dans ce cas.
Si π est isomorphe à ρ, alors HomG (V, W ) est une droite vectorielle complexe engendrée par
chaque isomorphisme de kG-modules f : V → W , toujours d’après le lemme de Schur. On
peut alors écrire
tr(f −1 ◦ u\ ) tr(f −1 ◦ u\ )
u\ = f = f.
tr(f −1 ◦ f ) deg π
Pour achever la démonstration, il nous reste à calculer la trace de f −1 ◦ u\ . On observe que
l’application y 7→ tr(f −1 ◦ y) est un homomorphisme de représentations de Homk (V, W ) dans
k, car pour g ∈ G et y ∈ Homk (V, W ),

tr f −1 ◦ (g · y) = tr f −1 ◦ ρ(g) ◦ y ◦ π(g)−1 = tr π(g)−1 ◦ f −1 ◦ ρ(g) ◦ y = tr f −1 ◦ y .


    

En utilisant la proposition 4.2.1.2 (iii), on calcule alors


\
tr f −1 ◦ u\ = tr(f −1 ◦ u) = tr f −1 ◦ u = tr x 7→ hv ∗ , xif −1 (w) = hv ∗ , f −1 (w)i,
   

ce qui achève la démonstration. 

169
Remarque. Le caractère d’une représentation π est une combinaison linéaire de coefficients
de π. Les relations d’orthogonalité entre les caractères peuvent ainsi être vues comme une
conséquence directe de la proposition 4.4.4.1.

On note M la somme des sous-espaces Mπ dans C(G, C), quand π parcourt l’ensemble des
représentations continues de dimension finie. C’est une sous-algèbre et un sous-kG-bimodule
stable par l’involution ∗ de C(G, C). Par ailleurs, notons G∧ l’ensemble des classes d’isomor-
phisme de représentations linéaires irréductibles continues de dimension finie de G.

4.4.4.2 Proposition.
(i) Soit π : G → GL(V ) un élément de G∧ . Alors θπ est un isomorphisme kG-bimodules
de V ⊗k V ∗ sur Mπ .
(ii) Les sous-espaces Mπ sont en somme directe dans k G , pour π décrivant G∧ .
(iii) M = π∈G∧ Mπ .
L

Preuve. Munissons C(G, C) d’une forme bilinéaire B en posant


Z
ϕ g −1 ψ g dµ(g).
 
B(ϕ, ψ) =
G

Cette forme bilinéaire est symétrique, d’après le théorème 4.4.3.1 (v).


Soit π : G → GL(V ) un élément de G∧ . Prenons une base (vi )i∈I de V , soit (vi∗ )i∈I la base
duale de V ∗ . Appliquant B(θπ (vl , vk∗ ), ?) à une relation de dépendance linéaire
X
λij θπ (vi , vj∗ ) = 0,
(i,j)∈I 2

on trouve que chaque λkl = 0 en utilisant les relations d’orthogonalité 4.4.4.1. Les coefficients
θπ (vi , vj∗ ) forment donc une famille libre dans C(G, C). Cela montre l’injectivité de θπ : V ⊗k
V ∗ → C(G, C). Par définition, l’image de cette application est Mπ . Nous prouvons ainsi (i).
Les relations d’orthogonalité disent que les espaces Mπ sont deux à deux orthogonaux pour la
forme bilinéaire B. Comme la restriction de B à chaque Mπ est non-dégénérée, cela entraîne
que les Mπ sont en somme directe, d’où (ii).
Enfin, l’assertion (iii) provient de (ii), de la proposition 4.4.2.3 (ii), et du théorème de Maschke.


Remarques. Les assertions (i) et (ii) de la proposition ci-dessus peuvent être vues comme
des cas particuliers du théorème de Frobenius-Schur 3.2.4.3. Notre preuve ici basée sur les
relations d’orthogonalité présente l’avantage de ne pas faire appel au théorème de structure
de Wedderburn-Artin, et l’inconvénient de nécessiter l’emploi de la mesure invariante.

Nous notons C le sous-espace vectoriel de C(G, C) engendré par les caractères des repré-
sentations continues de dimension finie de G. C’est une sous-algèbre de C(G, C) stable par
l’involution ∗ et formée de fonctions de classe.

170
4.4.4.3 Proposition. L’ensemble {χπ | π ∈ G∧ } des caractères des représentations irré-
ductibles continues est une base de C . L’algèbre C est exactement l’ensemble des fonctions de
classe appartenant à M .

Preuve. Chaque caractère χπ appartient à l’espace Mπ . La proposition 4.4.4.2 (ii) montre que
les χπ sont linéairement indépendants. Le théorème de Maschke et le théorème 4.1.4.3 (iv)
montrent que chaque caractère est combinaison Z-linéaire de caractères irréductibles. On dé-
duit de tout cela que {χπ | π ∈ G∧ } est bien une base de C .
Faisons agir G sur C(G, C) par g · ϕ = h 7→ ϕ(g −1 hg) . Les invariants de cette action sont


les fonctions de classe.


Soit π : G → GL(V ) une représentation continue de dimension finie. D’après la proposi-
tion 4.4.4.2 (i) et la remarque 4.4.2.2 (2), θπ induit un isomorphisme de représentations de
Homk (V, V ) dans C(G, C), d’image Mπ . D’après le lemme de Schur, les invariants sous l’ac-
tion de G dans Homk (V, V ) sont les éléments de la droite C idV . Les invariants sous l’action
de G dans Mπ sont donc les éléments de la droite Cχπ .
Soit ϕ ∈ M . La proposition 4.4.4.2 (iii) permet d’écrire ϕ = π∈G∧ ϕπ , de façonP unique, avec
P
ϕπ ∈ Mπ . Pour l’action par conjugaison définie plus haut, nous avons g · ϕ = π∈G∧ g · ϕπ
pour chaque g ∈ G, avec g · ϕπ ∈ Mπ car chaque Mπ est une sous-représentation de C(G, C).
Pour que ϕ soit fixé par tous les g ∈ G, il est nécessaire et suffisant que chacun des ϕπ soit
fixé par g. En d’autres termes, pour que ϕ soit une fonction de classe, il faut et il suffit que
chaque ϕπ appartienne à la droite Cχπ . Cela prouve la seconde assertion de la proposition. 

Remarque. Dans le cas où G est fini, toutes les représentations sont continues, de sorte que
l’espace M coïncide avec l’espace (kG)◦ du paragraphe 4.4.2, qui est lui-même égal à k G tout
entier d’après la proposition 4.4.2.4. De la proposition 4.4.4.2, on déduit que |G| = dim k G =
π∈G∧ (deg π) , un résultat que nous avions prouvé dans le paragraphe 4.2.2 en faisant appel
2
P
au théorème de Wedderburn-Artin. La proposition 4.4.4.3 affirme pour sa part que le nombre
de représentations irréductibles de G est égal à la dimension de C , qui ici est l’algèbre cf C (G)
toute entière puisque M = k G . Utilisant la proposition 4.2.2.1, on retrouve que G a autant
de représentations irréductibles que de classes de conjugaison.

4.4.5 Le théorème de Peter-Weyl

4.4.5.1 Théorème (Peter, Weyl). Soit G un groupe compact. Alors M est une sous-
algèbre dense de C(G, C) pour la norme de la convergence uniforme.

Preuve. On définit le produitRde convolution de deux fonctions continues ϕ et ψ sur G comme


étant la fonction ϕ ∗ ψ : g 7→ G ϕ(gh−1 )ψ(h) dµ(h). Les propriétés du produit de convolution
classique, étudiées dans tout bon cours d’analyse fonctionnelle, sont vraies dans ce cadre.
On se donne une fonction ϕ ∈ C(G, C) et un réel ε > 0. Il existe un voisinage U de l’unité
dans G tel que |ϕ(gh) − ϕ(h)| ≤ ε pour tous g ∈ U et h ∈ G. Le lemme d’Urysohn montre
l’existence d’une fonction ρ continue sur G à valeurs positives, nulle en dehors de U ∩ U −1 , et

171
d’intégrale 1. Alors kρ ∗ ϕ − ϕk ≤ ε pour la norme de la convergence uniforme dans C(G, C).
En outre, quitte à remplacer ρ par (ρ + ρ∗ )/2, nous pouvons supposer que ρ = ρ∗ .
L’opérateur ρ∗? sur C(G, C) s’étend en un opérateur K sur l’espace de Hilbert H = L2 (G, C).
Cet opérateur K est autoadjoint, puisque nous avons pris soin d’imposer ρ = ρ∗ . Il est compact,
car c’est un opérateur à noyau intégral. Enfin, son image est incluse dans C(G, C), vu ici
comme un sous-espace de L2 (G, C).
D’après le théorème spectral pour les opérateurs autoadjoints compacts, K est diagonalisable
en base hilbertienne. Plus précisément, soit σ(K) l’ensemble des valeurs propres de K, et pour
λ ∈ σ(K), soit Hλ = ker(K − λ idH ) l’espace propre correspondant. On sait que Hλ est de
dimension finie si λ 6= 0, que H est la somme directe hilbertienne des Hλ , et que l’on peut
ranger les éléments de σ(K) \ {0} en une suite (éventuellement finie) (λn )n≥0 tendant vers 0.
Si λ est une valeur propre non-nulle de K, alors Hλ est inclus dans im K, donc dans C(G, C).
L’opérateur K agit sur une fonction ψ en faisant une moyenne, selon la mesure ρ(h) dµ(h),
de translatées à gauche de ψ. Cette opération commute avec l’action de G par translations à
droite. Cela entraîne que cette dernière laisse stables les espaces propres de K. Les Hλ sont
donc des sous-espaces de dimension finie de C(G, C), stables sous l’action de G par translations
à droite. La proposition 4.4.2.4 dit alors que Hλ est inclus dans M .
Développons ϕ sur la somme directe H = λ∈σ(K) Hλ en écrivant ϕ = λ∈σ(K) ϕλ . Cette
L P
série est convergente pour la norme de H , autrement dit en moyenne quadratique. En utili-
sant l’inégalité de Cauchy-Schwarz, on montre alors que la série K(ϕ) = λ∈σ(K) K(ϕλ ) est
P
convergente dans C(G, C) pour la norme de la convergence uniforme. D’après l’alinéa précé-
dent, chaque K(ϕλ ) appartient à M . Ainsi K(ϕ) = ρ ∗ ϕ est limite dans C(G, C) d’une suite
d’éléments de M .
Prenant alors ε = 1/n et faisant tendre n vers l’infini, on en déduit que ϕ est limite dans
C(G, C) d’une suite d’éléménts de M . 

L’ensemble des fonctions de classe continues est une sous-algèbre fermée de C(G, C). On la
munit de la norme de la convergence uniforme.

4.4.5.2 Corollaire. Soit G un groupe compact. Alors C est une sous-algèbre dense de
l’algèbre des fonctions de classe continues pour la norme de la convergence uniforme.

Preuve. Soit ϕ une fonction de classe continue et soit ε > 0. Le théorème de Peter-Weyl
garantit l’existence d’une fonction ψ ∈ M telle que kϕ − ψk ≤ ε.
Nous munissons C(G, C) de l’action de G par conjugaison, comme dans la preuve de la pro-
position 4.4.4.3. Chaque Mπ en est une sous-représentation de dimension finie, ce qui permet
d’introduire un opérateur de Reynolds \ : Mπ → invG Mπ . On peut donc appliquer \ à ψ et
obtenir un élément ψ \ ∈ C .
Pour chaque h ∈ H, ψ \ (h) = G ψ(g −1 hg) dµ(g), puis en utilisant que ϕ est centrale :
R
Z Z
\ −1
|ϕ(h) − ψ (h)| = (ϕ − ψ)(g hg) dµ(g) ≤ kϕ − ψk dµ(g) = kϕ − ψk ≤ ε.
G G

Ainsi kϕ − ψ\k ≤ ε. Ceci achève la démonstration. 

172
4.4.6 Représentations unitaires

Considérons un groupe G, pas nécessairement compact. On dit qu’une représentation linéaire


π : G → GL(V ) sur un C-espace vectoriel complexe V est unitarisable s’il existe un produit
scalaire hermitien (?, ?) sur V qui fait de V un espace de Hilbert et qui est invariant sous G.
Cette dernière condition signifie que pour tous g ∈ G et (v, w) ∈ V 2 , on a (π(g)v, π(g)w) =
(v, w) ; autrement dit, chaque opérateur π(g) est unitaire.

4.4.6.1 Proposition. Soit π : G → GL(V ) une représentation linéaire complexe unitari-


sable d’un groupe G. Fixons un produit scalaire hermitien (?, ?) G-invariant sur V ; V devient
ainsi un espace de Hilbert.
(i) Si W est un sous-espace vectoriel fermé de V stable par l’action de chaque π(g), alors
le polaire (l’orthogonal) de W dans V pour le produit scalaire est un supplémentaire de
W , stable par l’action de chaque π(g).
(ii) Si V est de dimension finie, alors c’est une représentation complètement réductible de
G (autrement dit, c’est un kG-module complètement réductible).

Preuve. Plaçons-nous dans les hypothèses de (i). Le fait que le polaire W ◦ de W est un
supplémentaire de W dans V est un résultat classique de théorie des espaces de Hilbert. Soit
g ∈ G. Comme π(g) est unitaire, son adjoint est son inverse π g −1 . Par hypothèse, cet adjoint
laisse stable W . Un argument classique montre alors que π(g) laisse stable le polaire W ◦ de
W , achevant la preuve de (i).
L’assertion (ii) est une conséquence immédiate de l’assertion (i). 

4.4.6.2 Proposition. Soit π : G → GL(V ) une représentation linéaire complexe unitari-


sable de dimension finie d’un groupe G. Fixons un produit scalaire hermitien (?, ?) G-invariant
sur V . Pour v ∈ V , notons v ∗ la forme linéaire (v, ?) sur V . Enfin, notons ζ le caractère de
cette représentation.
(i) Pour chaque g ∈ G et (v, w) ∈ V 2 , θπ (v, w∗ ) g −1 = θπ (w, v ∗ )(g).


(ii) Pour chaque g ∈ G, ζ g −1 = ζ(g).




(iii) Pour chaque g ∈ G, |ζ(g)| ≤ ζ(1), avec égalité si et seulement si π(g) est un opérateur
scalaire.

Preuve. Soient g ∈ G et (v, w) ∈ V 2 . Puisque π(g) préserve le produit scalaire,

θπ (v, w∗ ) g −1 = (w, π(g)−1 v) = (π(g)w, v) = (v, π(g)w) = θπ (w, v ∗ )(g).




Cela montre (i).


Prenons une base orthonormée de V et un élément g ∈ G. Dans cette base, la matrice U de
π(g) est unitaire : U −1 = t U . Ainsi

ζ g −1 = tr π(g)−1 = tr U −1 = tr U = tr π(g) = ζ(g).




173
Cela donne (ii).
Comme n’importe quelle matrice unitaire, U est diagonalisable et ses valeurs propres ξ1 , ...,
ξn sont des nombres complexes de module 1. Ici, n = dim V = ζ(1). Le module de ζ(g) =
ξ1 +· · ·+ξn est donc plus petit que n. Et pour que |ζ(g)| = n, il faut et il suffit que les ξi soient
tous égaux. Alors U est semblable, donc égale, à une matrice scalaire. Tout cela prouve (iii).


4.4.6.3 Proposition. Soit G un groupe compact et soit π : G → GL(V ) une représenta-


tion linéaire de G sur un espace vectoriel complexe V de dimension finie. Alors π est unitari-
sable.

Preuve. Fixons un produit scalaire hermitien (?, ?)0 sur V . Pour (v, w) ∈ V 2 , posons (v, w) =
G (π(g)v, π(g)w)0 dµ(g). Alors (?, ?) est une forme sesquilinéaire hermitienne sur V . Elle est
R

de plus définie positive, car si v 6= 0, l’intégrale (v, v) = G (π(g)v, π(g)v)0 dµ(g) est celle d’une
R

fonction partout strictement positive. Enfin, on a fait tout ce qu’il fallait pour que (?, ?) soit
invariante sous G. 

Cette proposition, jointe à la proposition 4.4.6.1 (ii), fournit une nouvelle démonstration du
théorème de Maschke.

4.4.6.4 Théorème. Soit G un groupe compact. Dans chaque représentation continue irré-
ductible π : G → GL(V ), de dimension finie nπ , choisissons un produit scalaire hermitien G-
invariant (?, ?) et une base orthonormée (ei )1≤i≤nπ . On note cπij le coefficient
P π π g 7→ (ei , π(g)ej )
de la représentation π. Ainsi, le caractère de π est la fonction χπ = ni=1 cii .
√ π ∧
(i) Les éléments nπ cij , pour π ∈ G et 1 ≤ i, j ≤ nπ , forment une base hilbertienne de
l’espace L2 (G, C) des fonctions de carré sommable sur G.
(ii) Les caractères χπ , pour π ∈ G∧ , forment une base hilbertienne de l’ensemble des fonc-
tions de classe de carré sommable sur G.

Preuve. Les relations d’orthogonalité 4.4.4.1 et la proposition 4.4.6.2 (i) montrent que les

éléments nπ cπij forment une famille orthonormée dans L2 (G, C). Le théorème de Peter-
Weyl 4.4.5.1 dit que le sous-espace vectoriel que cette famille engendre est dense dans C(G, C)
pour la norme de la convergence uniforme, ce qui implique qu’il est dense dans L2 (G, C) pour
la norme de la convergence en moyenne quadratique. Ces deux faits donnent l’assertion (i).
La preuve de l’assertion (ii) est analogue. 

Application. Soit U(1) le groupe compact des nombres complexes de module 1 ; ainsi θ 7→ eiθ
est un isomorphisme de R/2πZ sur U(1). Les représentations irréductibles de U(1) sont
de degré 1 d’après la proposition 4.2.4.1 ; ce sont les caractères linéaires en : z 7→ z n , vus
comme fonctions de U(1) dans C∗ , pour n ∈ Z. Le théorème 4.4.6.4 dit alors que la famille
(en )n∈Z est une base hilbertienne de l’espace L2 (U(1), C) des fonctions 2π-périodiques de
carré sommable sur R. On retrouve un fait bien connu de la théorie des séries de Fourier.
Ainsi le théorème 4.4.6.4 généralise la théorie des séries de Fourier aux groupes compacts
non-commutatifs.

174
Exercices.
(1) Soient G un groupe compact et π : G → GL(V ) une représentation de dimension finie.
Soit (?, ?) un produit scalaire hermitien invariant sous G. Montrer que l’opérateur de
Reynolds \ est le projecteur orthogonal de V sur invG V .
(2) Énoncer et prouver une généralisation aux groupes compacts de la proposition 4.2.3.2,
pour les représentations linéaires continues.

175
5 Représentations du groupe symétrique et du groupe unitaire

5.1 L’anneau des fonctions symétriques

5.1.1 Partitions

Une partition est une suite décroissante λ = (λ1 , λ2 , . . .) d’entiers naturels nuls à partir d’un
certain rang. On représente parfois une partition comme une suite finie, la convention étant
que seuls des zéros ont été omis. Les λn sont appelées les parts de λ. On écrit parfois avec un
exposant pour indiquer qu’une part est répétée un certain nombre de fois.

Exemple. λ = (5, 5, 3, 1, 0, . . .) est notée λ = 5531, voire 52 31.

On note P l’ensemble des partitions.


Poids d’une partition : |λ| = λ1 + λ2 + · · · . Si |λ| = n, on dit que λ est une partition de n et
on écrit λ ` n.
Longueur d’une partition : `(λ) = Card {n ≥ 1 | λn > 0}.
Diagramme de Ferrers (ou de Young) de la partition λ : c’est un ensemble de |λ| boîtes
disposées de façon à décrire les parts de λ. Sur l’exemple de λ = 5531 :

Partition conjuguée d’une partition λ : c’est la partition λ0 dont les parts sont les λ0n =
Card {i ≥ 1 | λi ≥ n}. Notamment λ01 = `(λ). Pour λ = 5531, on trouve ainsi λ0 = 43322. Le
diagramme de Ferrers de λ0 s’obtient en réfléchissant le diagramme de Ferrers de λ selon l’axe
nord-ouest, sud-est. La conjugaison des partitions est une opération involutive : λ00 = λ.
Ordre de dominance : pour λ, µ ∈ P, on écrit λ ≥ µ si


 λ 1 ≥ µ1 ,
λ1 + λ2 ≥ µ1 + µ2 ,

|λ| = |µ| et
λ + λ2 + λ3 ≥ µ1 + µ2 + µ3 ,
 1


...

On peut vérifier que λ ≥ µ si et seulement si λ0 ≤ µ0 .

5.1.2 Sommes d’orbites

On se fixe un entier n ≥ 1 (on fera n → ∞ plus tard) et on se place dans l’anneau


Z[x1 , · · · , xn ] des polynômes en n variables à coefficients entiers. Étant donné un multi-
exposant α = (α1 , . . . , αn ) ∈ Nn , on pose xα = xα1 1 · · · xαnn .

177
Le groupe Sn agit sur Z[x1 , · · · , xn ] en permutant les indéterminées. Dans la partie 5.1,
nous nous intéressons au sous-anneau Λn = Z[x1 , · · · , xn ]Sn des éléments invariants, appelés
polynômes symétriques.
Le moyen le plus simple d’obtenir un polynôme symétrique est certainement de prendre un
monôme xα et de le symétriser. Le résultat ne dépend du multi-exposant α qu’à permutation
près de ses termes α1 , ..., αn , de sorte qu’on peut les supposer rangés dans l’ordre décroissant.
Dit autrement, on part d’une partition λ de longueur `(λ) ≤ n on pose

mλ = somme de tous les monômes distincts de la forme xλσ(1)


1
· · · xλσ(n)
n
,

où σ ∈ Sn . La somme comporte moins de n! termes si λ présente des répétitions.


Le polynôme symétrique mλ est appelé fonction monomiale.
Une autre façon de produire un polynôme symétrique est de faire le quotient de deux poly-
nômes antisymétriques, et un moyen de produire un polynôme antisymétrique est d’antisymé-
triser un monôme. Posons ainsi
xα1 1 . . . xα1 n
= ... .. ..
X
aα = sgn(σ)xασ(1)
1
· · · xασ(n)
n
. .
σ∈Sn xαn1 α
. . . xnn

pour chaque α ∈ Nn . Ce polynôme est nul si α a deux coordonnées égales, et il change de signe
si l’on permute les coordonnées de α. Ainsi nous pouvons nous borner aux suites α strictement
décroissantes ; elles s’écrivent sous la forme λ + δ où λ est une partition de longueur `(λ) ≤ n
et δ = (n − 1, n − 2, . . . , 1, 0).
En effectuant une division euclidienne dans l’anneau Z[x1 , . . . , xi−1 , xi+1 , . . . , xn ][xi ], nous
voyons qu’un polynôme antisymétrique en x1 , . . . , xn est divisible par chaque facteur xi − xj ,
donc est divisible par leur produit, le déterminant de Vandermonde
Y
aδ = (xi − xj ).
1≤i<j≤n

La multiplication par aδ est donc une bijection de Λn sur l’ensemble des polynômes antisymé-
triques en x1 , ..., xn .
Le quotient sλ = aλ+δ /aλ est appelé fonction de Schur. Nous verrons plus loin (théorème de
Littlewood 5.1.6.4) comment trouver une expression explicite de ces polynômes.

5.1.2.1 Proposition.
(i) {aλ+δ | λ ∈ P, `(λ) ≤ n} est une base du sous-Z-module de Z[x1 , · · · , xn ] formé des
polynômes antisymétriques.
(ii) {mλ | λ ∈ P, `(λ) ≤ n} et {sλ | λ ∈ P, `(λ) ≤ n} sont deux bases du Z-module Λn .

La preuve de cette proposition est laissée au lecteur.

178
5.1.3 Fonctions élémentaires

Pour 1 ≤ k ≤ n, on définit la fonction symétrique élémentaire de degré k par


X
ek = m(1k ) = x i1 · · · x ik .
1≤i1 <···<ik ≤n

Pour k ≥ 1, on définit la fonction symétrique complète de degré k par


X X
hk = mλ = x i1 · · · x ik .
λ`n 1≤i1 ≤···≤ik ≤n

Enfin, toujours pour k ≥ 1, on définit la somme de puissances de degré k par

pk = m(k) = xk1 + · · · + xkn .

On pose e0 = h0 = 1 et ek = 0 pour k > n. Les ek , hk , pk sont des éléments de Λn .


On introduit les séries génératrices E(t) = k≥0 tk ek , H(t) = k≥0 tk hk .
P P

Le théorème de Viète exprimant les coefficients d’un polynôme en fonction de ses racines
conduit à l’identité
Yn
E(t) = (1 + xi t).
i=1

Par ailleurs,
n n
!
X X Y X Y 1
H(t) = (xi1 t) · · · (xik t) = (x1 t)p1 · · · (xn t)pn = (xi t)p = .
1 − xi t
k≥0 p1 ,...,pn ≥0 i=1 p≥0 i=1
1≤i1 ≤···≤ik ≤n

Pk
On en déduit l’égalité H(t)E(−t) = 1, puis les relations i
i=0 (−1) ei hk−i = 0 pour tout k ≥ 1.
Pour λ ∈ P, on pose eλ = eλ1 eλ2 · · · et hλ = hλ1 hλ2 · · · .

5.1.3.1 Théorème. {eλ0 | λ ∈ P, `(λ) ≤ n} et {hλ0 | λ ∈ P, `(λ) ≤ n} sont deux bases


du Z-module Λn .

Preuve. Pour λ et µ deux partitions de longueur au plus n, notons Cλµ le coefficient du


monôme xµ dans le polynôme eλ0 . Un examen combinatoire simple 20 montre que Cλλ = 1 et
que Cλµ 6= 0 ⇒ µ ≤ λ. Ainsi (Cλµ ) est une matrice unitriangulaire inférieure pour l’ordre de
dominance sur {λ ∈ P | `(λ) ≤ n} ; elle est donc inversible. Par ailleurs, la définition des
fonctions symétriques monomiales et le fait que eλ0 soit un polynôme symétrique entraînent
20. Les monômes dans eλ0 correspondent à des remplissages des cases du diagramme de λ par des entiers
entre 1 et n, de façon strictement croissante dans chaque colonne. À un tel remplissage correspond un monôme
xµ , où µi est le nombre de cases contenant i. Les entiers entre 1 et i ne peuvent apparaître que dans les i
premières lignes du tableau, d’où µ1 + · · · + µi ≤ λ1 + · · · + λi .

179
que eλ0 = `(µ)≤n Cλµ mµ . On passe ainsi des {mµ } aux {eλ0 } par une matrice inversible. La
P
proposition 5.1.2.1 (ii) entraîne alors que {eλ0 | `(λ) ≤ n} est une base du Z-module Λn .
Ainsi Λn est l’anneau des polynômes en e1 , ..., en à coefficients dans Z. Il existe donc un
homomorphisme d’anneaux Pk ωn :i Λn → Λn qui envoie ek sur hk pour chaque 1 ≤ k ≤ n.
À l’aide des relations i=0 (−1) ei hk−i = 0, pour 1 ≤ k ≤ n, on peut exprimer hk comme
un polynôme Pk (e1 , . . . , en ) en les fonctions symétriques élémentaires. Ces relations faisant
jouer des rôles symétriques aux variables (ek )1≤k≤n et (hk )1≤k≤n , les mêmes manipulations
conduisent à l’égalité ek = Pk (h1 , . . . , hn ). Ainsi

ωn (hk ) = ωn (Pk (e1 , . . . , en )) = Pk (ωn (e1 ), . . . , ωn (en )) = Pk (h1 , . . . , hn ) = ek .

Par conséquent, (ωn )2 fixe les éléments ek . Ceux-ci engendrant l’anneau Λn , cela montre que
l’homomorphisme ωn est involutif, donc en particulier est un isomorphisme. On en déduit que
{hλ0 | `(λ) ≤ n} est également une base du Z-module Λn . 

Le théorème 5.1.3.1 signifie que Λn est un anneau de polynômes en n indéterminées à coeffi-


cients dans Z ; comme base en tant que Z-algèbre, on peut choisir la famille (e1 , . . . , en ) ou la
famille (h1 , . . . , hn ).
L’identité suivante permet de rattacher les sommes de puissances aux fonctions symétriques
complètes et élémentaires.
n n n X
! !
(xi t)k
 k
Y 1 X X Y pk t
H(t) = = exp − log(1 − xi t) = exp = exp
1 − xi t k k
i=1 i=1 i=1 k≥1 k≥1

Pour λ ∈ P, on écrit λ m2 (λ) m1 (λ) , où m (λ) = Card {n ≥ 1 | λ = i}. On pose


 = ···2 Q 1 i n
mi (λ)
m (λ) mi (λ)! et pλ = i≥1 pi .
Q
zλ = i≥1 i i

5.1.3.2 Proposition. Pour tout k ≥ 1, on a


X X
hk = pλ /zλ et ek = (−1)|λ|+`(λ) pλ /zλ .
λ`k λ`k

Preuve. La première égalité s’obtient en examinant le coefficient de tk dans


!
Y X 1  pk tk m
H(t) =
m! k
k≥1 m≥0
p1 t1 m1 1
   2 m2
X 1 p2 t
= ···
m1 ! 1 m2 ! 2
m1 ,m2 ,···≥0

La seconde s’obtient de façon similaire en partant de

pk (−t)k
Y  
−1
E(t) = H(−t) = exp − .
k
k≥1

180
Notons également l’identité
!
X
k d X pk tk d tH 0 (t) tE 0 (−t)
pk t = t =t log H(t) = =
dt k dt H(t) E(−t)
k≥1 k≥1

qui conduit aux formules de Newton :


k
X k
X
pi hk−i = khk , (−1)i+1 pi ek−i = kek .
i=1 i=1

5.1.3.3 Proposition. {pλ0 | `(λ) ≤ n} est une base du Q-espace vectoriel Λn ⊗Z Q.

Preuve. Nous venons de voir que les éléments e1 , ..., en sont des polynômes à coefficients
rationnels en les variables p1 , ..., pn . Par conséquent, tous les éléments de la famille {eλ0 |
λ ∈ `(λ) ≤ n} appartiennent au sous-Q-espace vectoriel de Λn ⊗Z Q engendré par la famille
{pλ0 | `(λ) ≤ n}. De plus, ces deux familles sont formées d’éléments homogènes et ont le
même nombre fini d’éléments en chaque degré. Le fait que la première famille soit une base
(théorème 5.1.3.1) entraîne alors que la seconde en est aussi une. 

5.1.4 Action par multiplication sur les fonctions de Schur

On convient que sλ = 0 si `(λ) > n.


Notation : si λ est une partition et k ≥ 1 est un entier, alors on désigne par λ ⊗ k (respecti-
vement, λ ⊗ 1k ) l’ensemble des partitions µ obtenues en ajoutant k cases au diagramme de λ,
au plus une par colonne (respectivement, ligne).

5.1.4.1 Formules de Pieri. Avec cette notation,


X X
sλ hk = sµ et sλ ek = sµ .
µ∈λ⊗k µ∈λ⊗1k

Preuve. Pour α = (α1 , . . . , αn ) ∈ Nn , posons |α| = α1 + · · · + αn . Partons de


 
X X 
aλ+δ hk = sgn(σ)xλσ(1)
1 +δ1
· · · xλσ(n)
n +δn 
 xασ(1)
1
· · · xασ(n)
n 

σ∈Sn
 n α∈N

|α|=k
!
X X
= sgn(σ)xλσ(1)
1 +δ1 +α1
· · · xλσ(n)
n +δn +αn

α∈Nn σ∈Sn
|α|=k
X
= aλ+δ+α .
α∈Nn
|α|=k

181
Ainsi X X
aλ+δ hk = aµ+δ + aλ+δ+α .
µ∈λ⊗k |α|=k
λ+α6∈λ⊗k
La condition λ + α 6∈ λ ⊗ k signifie qu’il existe i tel que αi+1 > λi − λi+1 . Choisissant i le plus
grand possible vérifiant cette inégalité et posant
si j = i,

αi+1 − (λi − λi+1 + 1)

βj = αi + (λi − λi+1 + 1) si j = i + 1,
sinon,

αj

on définit une involution α 7→ β de


α ∈ Nn |α| = k, λ + α 6∈ λ ⊗ k


pour laquelle aλ+α+δ = −aλ+β+δ . Les termes non nuls de la seconde somme s’annulent donc
deux à deux, prouvant la première formule de Pieri.
La preuve de la seconde est similaire, en fait un peu plus simple. 

Exemple. s311 h2 = s511 + s331 + s421 + s4111 + s3211 ; les cases rajoutées au diagramme de 311
sont indiquées par une étoile.

∗ ∗ ∗

∗ ∗ ∗
∗ ∗

Les formules de Pieri entraînent immédiatement que sk = hk et s(1k ) = ek . Plus généralement,


elles permettent par itération de développer n’importe quel monôme en les fonctions symé-
triques complètes ou élémentaires sur la base des fonctions de Schur. Nous reverrons cela dans
la section 5.1.6.
En sens inverse, on peut exprimer les fonctions de Schur comme des polynômes en les fonctions
symétriques complètes ou élémentaires.

5.1.4.2 Formules de Jacobi-Trudi. Soit λ une partition. Alors


sλ = det(hλi −i+j )1≤i,j≤n et sλ0 = det(eλi −i+j )1≤i,j≤n .

N’ayant pas besoin des formules de Jacobi-Trudi, nous ne les démontrons pas. Notons cepen-
dant que si `(λ) > n, alors le membre de gauche de la première formule est nul, donc le membre
de droite l’est aussi ; cela donne une relation non triviale entre les fonctions symétriques com-
plètes.
Maintenant, appelons bande un ensemble de cases contiguës, obtenu en parcourant un chemin
formé de pas soit vers le haut, soit vers la droite. La hauteur h(θ) d’une bande θ est le nombre
de lignes qu’elle occupe moins un.

182
h(θ) s
P
5.1.4.3 Proposition. sλ pk = θ (−1) λ+θ , la somme portant sur les bandes θ à k
cases telles que λ + θ soit une partition.

Preuve. Soit εi le vecteur de base (0, . . . , 1, . . . , 0) avec un 1 à la position i. Le


Pnmême calcul
que celui mené au début de la preuve des formules de Pieri donne aλ+δ pk = i=1 aλ+kεi +δ .
Enroulons une bande θ autour du diagramme de λ en partant de la i-ème ligne et notons λ + θ
la suite des longueurs des lignes du résultat de cette opération. Alors les suites λ + θ + δ et
λ + kεi + δ ne différent que par l’ordre de leurs termes. Si λ + θ est une partition, alors on
passe de λ + θ + δ à λ + kεi + δ en effectuant h(θ) inversions, d’où aλ+kεi +δ = (−1)h(θ) aλ+θ+δ .
Sinon, la suite λ + kεi +Pδ contient deux termes égaux et alors aλ+kεi +δ = 0. On obtient en
fin de compte aλ+δ pk = θ (−1)h(θ) aλ+θ , et il n’y a plus qu’à diviser par aδ . 

Exemple. s421 p4 = s821 − s551 − s443 + s42221 − s4211111 , les différents termes correspondant
aux bandes repérées ci-dessous par des ∗ :

∗ ∗ ∗ ∗ ∗
∗ ∗ ∗ ∗ ∗ ∗ ∗
∗ ∗ ∗ ∗ ∗
∗ ∗

Un cas particulier amusant de la proposition 5.1.4.3 est que la somme de puissances pk


s’exprime comme une somme alternée de fonctions de Schur pour des partitions en forme
d’équerres : pk = s(k) − s(k−1,1) + s(k−2,12 ) − s(k−3,13 ) + · · · + (−1)k s(1k ) .

5.1.5 L’anneau Λ

Pour k > n, on a ek = 0 mais hk 6= 0. Pour rendre la situation plus symétrique, on veut


donner un sens à n = ∞.
L’évaluation xn+1 7→ 0 fournit un homomorphisme d’anneaux gradués Z[x1 , · · · , xn+1 ] →
Z[x1 , · · · , xn ], qui se restreint en un homomorphisme Λn+1 → Λn . Cet homomorphisme envoie
les éléments hk , ek , pk de Λn+1 sur les éléments du même nom dans Λn , rendant la notation
non ambiguë.
Nous avons convenu que sλ = 0 dans Λn si `(λ) > n. De la même façon, nous convenons que
mλ = 0 dans dans Λn si `(λ) > n. Alors l’homomorphisme Λn+1 → Λn envoie les fonctions
monomiales mλ de Λn+1 sur les éléments du même nom dans Λn . Grâce aux formules de Pieri
(théorème 5.1.4.1), on vérifie qu’il en est de même pour les fonctions de Schur.
L’anneau Λn est gradué par le degré total des polynômes :
M
Λn = Λkn .
k∈N

183
La proposition 5.1.2.1 (ii) affirme que {mλ | λ ∈ P, |λ| = k, `(λ) ≤ n} est une base de
Λkn . Comme la longueur d’une partition est inférieure ou égale à son poids, on voit que la
composante en degré k de notre homomorphisme Λn+1 → Λn est bijective si n ≥ k.
On peut donc noter Λk l’espace Λkn pour n assez grand, car il devient alors essentiellement in-
dépendant de n. Concrètement, on peut voir Λ comme l’ensemble de toutes les séries formelles
en x1 , x2 , ... homogènes de degré k et symétriques. On pose ensuite
M
Λ= Λk .
k∈N

Alors Λ hérite une structure d’anneau gradué. Pour chaque n ≥ 1, ’évaluation xi 7→ 0 pour
i > n définit un homomorphisme surjectif d’anneaux de Λ sur Λn . Les fonctions symétriques
hk , ek , pk , mλ , sλ se remontent naturellement à Λ, et toutes les identités qu’elles satisfont
dans Λ « descendent » ensuite dans les anneaux Λn . Utiliser Λ est ainsi une commodité qui
ne présente aucun inconvénient.

5.1.5.1 Proposition.
(i) {mλ | λ ∈ P}, {hλ | λ ∈ P}, {eλ | λ ∈ P} et {sλ | λ ∈ P} sont des bases du
Z-module Λ. En particulier, Λ est l’anneau des polynômes en h1 , h2 , ... ; c’est aussi
l’anneau des polynômes en e1 , e2 , ...
(ii) {pλ | λ ∈ P} est une base du Q-espace vectoriel Λ ⊗Z Q.

L’anneau Λ est muni d’une involution ω qui échange hk et ek pour chaque k ≥ 1. (Note :
l’involution ωn de l’anneau Λn utilisée dans la preuve du théorème 5.1.3.1 n’est pas induite
par ω.) On vérifie sans difficulté (par exemple avec les formules de Newton) que ω(pk ) =
(−1)k+1 pk . La symétrie présente dans les relations de Pieri ou les formules de Jacobi-Trudi
entraîne que ω(sλ ) = sλ0 pour chaque λ ∈ P.
À présent, nous cherchons à munir Λ d’un produit scalaire, pour lequel les composantes ho-
mogènes sont deux à deux orthogonales. Nous commençons par quelques formules, faisant
intervenir deux jeux de variables {x1 , x2 , . . .} et {y1 , y2 , . . .}.

5.1.5.2 Proposition.
X Y
hλ (x)mλ (y) = (1 − xi yj )−1
λ∈P i,j≥1
X pλ (x)pλ (y) Y
= (1 − xi yj )−1

λ∈P i,j≥1
X Y
sλ (x)sλ (y) = (1 − xi yj )−1
λ∈P i,j≥1
X Y
sλ0 (x)sλ (y) = (1 + xi yj ).
λ∈P i,j≥1

184
Preuve. La première formule est
!
Y Y Y X X
−1
(1 − xi yj ) = H(yj ) = hr (x)yjr = hλ (x)mλ (y).
i,j≥1 j≥1 j≥1 r≥0 λ∈P

La seconde formule résulte du calcul


!
Y X
(1 − xi yj )−1 = exp − log(1 − xi yj )
i,j≥1 i,j≥1
!
X X (xi yj )k
= exp
k
k≥1 i,j≥1

Y pk (x)pk (y)
= exp
k
k≥1

X Y 1  pk (x)pk (y) mk


=
mk ! k
m1 ,m2 ,···≥0 k≥1

X 1 Y mk (λ)
= pk (x)pk (y)

λ∈P k≥1

X pλ (x)pλ (y)
= .

λ∈P

Rappelons maintenant un calcul classique de déterminant connu sous le nom de déterminant


de Cauchy (voir [17], p. 202, Lemma 7.6.A) :
Q Q
1≤i<j≤n (xj − xi ) 1≤i<j≤n (yj − yi )
 
1
det = Q .
1 − xi yj 1≤i,j≤n 1≤i,j≤n (1 − xi yj )

On prouve cette formule par des manipulations de lignes et de colonnes sur la matrice dont
on veut calculer le déterminant. Écrivant
1 1 xi − x1 yj
− = · ,
1 − x i yj 1 − x 1 yj 1 − x1 yj 1 − xi yj

et retranchant la première ligne des lignes suivantes, on voit que le déterminant cherché est

1 1 ... 1
y1 y2 yn
Qn
(x − x1 ) 1−x2 y1 1−x2 y2 ... 1−x2 yn
Qni=2 i .. .. .. .. .
j=1 (1 − x1 yj ) . . . .
y1 y2 yn
1−xn y1 1−xn y2 ... 1−xn yn

Soustrayant alors la première colonne des colonnes suivantes, et utilisant pour ce faire
yj y1 yj − y1 1
− = · ,
1 − x i yj 1 − x i y1 1 − xi y1 1 − xi yj

185
on obtient
1 0 ... 0
Qn 1 1
Qn
(x − x1 ) j=2 (yj − y1 )
∗ 1−x2 y2 ... 1−x2 yn
Qni=2 i · Qn .. .. .. .. .
j=1 (1 − x1 yj ) i=2 (1 − xi y1 ) . . . .
1 1
∗ 1−xn y2 ... 1−xn yn

On conclut alors par récurrence sur n.


Soit δ = (n − 1, n − 2, . . . , 1, 0), comme dans le paragraphe 5.1.2. La formule du déterminant
de Cauchy permet d’écrire l’égalité
Y
(1 − xi yj )−1 = det (1 − xi yj )−1 1≤i,j≤n

aδ (x)aδ (y)
1≤i,j≤n
.. ..
. .
k k k k
P P
= k≥0 xi y1 ... k≥0 xi yn
.. ..
. .
xk11 . . . xk1n
.. .. ..
X
= y1k1 · · · ynkn . . .
k1 ,...,kn ≥0 xkn1 k
. . . xnn
X
= aλ+δ (y)aλ+δ (x)
λ∈P
`(λ)≤n

dans Z[x1 , . . . , xn , y1 , . . . , yn ]. Le passage de la pénultième à la dernière ligne s’obtient en


remarquant qu’il suffit de sommer sur les (k1 , . . . , kn ) à coordonnées toutes distinctes, autre-
ment dit (k1 , . . . , kn ) = σ(λ + δ), avec λ partition de longueur ≤ n et σ ∈ Sn . Divisant par
aδ (x)aδ (y), on obtient la troisième formule, du moins pour n variables x et y, c’est-à-dire après
substitution xk = yk = 0 pour k > n. On passe alors de Λn à Λ en comparant les coefficients
des monômes présents dans chacun des membres de la formule.
Enfin, la quatrième formule s’obtient à partir de la troisième en appliquant l’involution ω sur
les variables x :
! !
X X X X
sλ0 (x)sλ (y) = ωx sλ (x)sλ (y) = ωx hλ (x)mλ (y) = eλ (x)mλ (y)
λ∈P λ∈P λ∈P λ∈P
!
Y X Y Y
= er (x)yjr = E(yj ) = (1 + xi yj ).
j≥1 r≥0 j≥1 i,j≥1

On définit un produit scalaire h?, ?i sur Λ ⊗Z Q en demandant que les fonctions de Schur
forment une base orthonormée. L’involution ω de Λ permute les fonctions de Schur, donc
préserve ce produit scalaire.

186
5.1.5.3 Proposition. Pour (λ, µ) ∈ P 2 , on a hhλ , mµ i = δλµ et hpλ , pµ i = zλ δλµ .

Preuve. Nous allons montrer plus généralement que si {uλ }, {vλ } sont deux familles de poly-
nômes symétriques homogènes, avec uλ et vλ de degré |λ|, telles que
X Y
uλ (x)vλ (y) = (1 − xi yj )−1 ,
λ∈P i,j≥1

alors huλ , vµ i = δλµ .


Écrivons uµ = λ∈P Bλµ sλ et vµ = ν∈P Cµν sν . Alors
P P

X Y X X
sλ (x)sλ (y) = (1 − xi yj )−1 = uµ (x)vµ (y) = Bλµ Cµν sλ (x)sν (y),
λ∈P i,j≥1 µ∈P λ,µ,ν∈P

d’où µ∈P Bλµ Cµν = δλν puisque les éléments de {sλ (x)sν (y)} forment une famille libre.
P
Ainsi le produit de matrices BC est l’identité. Il en est donc de même du produit CB, d’où
X X
huµ , vρ i = Bλµ Cρν hsλ , sν i = Cρλ Bλµ = δρν .
λ,ν∈P λ∈P

5.1.6 Tableaux

Soient λ ∈ P et µ = (µ1 , µ2 , . . .) une suite d’entiers naturels presque tous nuls de somme |λ|.
On appelle tableau semi-standard de forme λ et de poids µ un remplissage du diagramme de
λ par les éléments
1, . . . , 1, 2, . . . , 2, . . .
| {z } | {z }
µ1 fois µ1 fois

de façon croissante dans les lignes et strictement croissante dans les colonnes.
On appelle tableau multibande de forme λ et de poids µ un remplissage du diagramme de λ
par les mêmes éléments, mais cette fois de façon croissante dans les lignes et dans les colonnes
et de sorte que pour chaque i l’ensemble des cases contenant la valeur i forme une bande. La
hauteur d’un tableau multibande est la somme des hauteurs des bandes qui le forment.

Exemple.
1 2 2 3 3 5 1 3 3 3 4 4
2 3 5 5 et 2 5 5 6
4 4 6 6 2 5 6 6
5 6 2 5
sont respectivement des tableaux semi-standard et multibande de forme λ = 642 2 et de poids
µ = (1, 3, 3, 2, 4, 3) (les zéros traînant à la fin de µ ont été supprimés). Le tableau multibande
est de hauteur 5.

187
On note Kλ,µ le nombre de tableaux semi-standards de forme λ et de poids µ. On se restreint
souvent au cas où µ est une partition ; dans ce cas Kλ,µ s’appelle nombre de Kostka.
Enfin, soit λ une partition de poids n. On appelle tableau standard de forme λ un tableau
semi-standard de poids (1, . . . , 1, 0, . . .) (1 répété n fois). Ainsi, tous les chiffres entre 1 et
n apparaissent exactement une fois dans les cases du diagramme de λ, de façon strictement
croissante dans les lignes et dans les colonnes. Le nombre de tableaux standards de forme λ
est le nombre de Kostka Kλ,(1n ) ; il est strictement positif.

5.1.6.1 Proposition. Soient λ et µ deux partitions. Si Kλ,µ 6= 0, alors λ ≥ µ. De plus,


Kλ,λ = 1.

Preuve. Dans un tableau semi-standard, les entiers entre 1 et i ne peuvent apparaître que
dans les i premières lignes. Par conséquent, s’il existe un tableau semi-standard de forme λ et
de poids µ, alors nécessairement µ1 + · · · + µi ≤ λ1 + · · · + λi pour chaque i. 

5.1.6.2 Proposition. Soit µ = (µ1 , µ2 , . . .) une suite d’entiers naturels presque tous nuls
et soit n = µ1 + µ2 + · · · . Alors dans l’anneau Λ
!
X X X
hµ1 hµ2 · · · = Kλ,µ sλ et pµ1 pµ2 · · · = (−1)h(T ) sλ ,
λ`n λ`n T

la somme intérieure dans la deuxième formule portant sur l’ensemble des tableaux multibandes
de forme λ et de poids µ et la notation h(T ) désignant la hauteur du tableau T .

Preuve. La preuve se fait par récurrence sur p, le plus grand des indices i tels que µi 6= 0. Pour
la première formule, l’hérédité se prouve à l’aide de la formule de Pieri 5.1.4.1 : un tableau
semi-standard de poids µ s’obtient à partir d’un tableau de poids (µ1 , µ2 , . . . , µp−1 , 0, 0, . . .) en
ajoutant µp cases dans des colonnes différentes de façon à former encore une partition. Pour
la seconde formule, on utilise la proposition 5.1.4.3. 

5.1.6.3 Corollaire. Si λ et µ des partitions de même poids, alors hhµ , sλ i = Kλ,µ .

Preuve. Le corollaire découle de la proposition précédente et du fait que les fonctions de Schur
forment une base orthonormée de Λ. 

Une conséquence de la proposition 5.1.6.2 est qu’à l’instar de hµ , le nombre Kλ,µ ne dépend
de µ qu’à permutation des µi près. Ce fait est exploité dans la preuve du théorème ci-dessous.

5.1.6.4 Théorème de Littlewood. Dans l’anneau Λn ,


X
sλ = Kλ,µ xµ , (∗)
µ

la somme portant sur tous les multi-exposants µ ∈ Nn tels que µ1 + · · · + µn = |λ|.

188
Preuve. La remarque qui précède l’énoncé de ce théorème explique que le membre de droite
de l’égalité (∗) est un polynôme symétrique. Il est donc égal à
X
Kλ,µ mµ .
µ∈P

En utilisant le corollaire 5.1.6.3 et le fait que {hµ } et {mµ } forment des bases duales pour
h?, ?i, on est alors conduit à
X X
Kλ,µ mµ = hhµ , sλ imµ = sλ .
µ∈P µ∈P

5.2 Représentations du groupe symétrique

5.2.1 Classes de conjugaison

À σ ∈ Sn , on associe la suite ρ(σ) des longueurs des cycles de σ, classées par ordre décroissant ;
c’est une partition de n. Cette application σ 7→ ρ(σ) induit une bijection entre l’ensemble des
classes de conjugaison de Sn et l’ensemble des partitions de poids n. Pour une partition λ de
n, on note Cλ ⊂ Sn la classe de conjugaison formée des permutations σ telles que ρ(σ) = λ.
Rappelons(voir lasection 5.1.3) que pour chaque partition λ = · · · 2m2 1m1 , nous posons
zλ = i≥1 imi mi ! .
Q

5.2.1.1 Proposition.
(i) Le centralisateur d’un élément σ ∈ Sn est d’ordre zρ(σ) .
(ii) Pour toute partition λ de n, la classe de conjugaison Cλ contient n!/zλ éléments.

Preuve. Soit λ une partition de taille n et de longueur `, et pour chaque i ≥ 1, soit mi le


nombre de parts de λ égales à i. Tentons d’énumérer les éléments de Cλ .
Une permutation σ ∈ Cλ est donnée par sa décomposition en cycles. On doit d’abord choisir
les supports de ces cycles, disons ω1 , ..., ω` , qui doivent former une partition de {1, . . . , n}, de
sorte que chaque ωj soit de cardinal λj . Le nombre de `-uplets (ω1 , . . . , ω` ) satisfaisant à ces
conditions est donné par le coefficient multinomial
n!
.
λ1 ! λ2 ! · · ·
On doit ensuite choisir, dans chaque partie ωj , l’ordre cyclique dans lequel σ permute les
éléments de ωj : cela nous donne (λj − 1)! choix, pour chaque j. (En effet, le nombre de
k-cycles dans Sk est (k − 1)!.)
À ce stade, nous avons obtenu toutes les permutations dans Cλ , mais nous les avons comptées
plusieurs fois, car les cycles de la décomposition de σ ne sont pas numérotés. Il convient de

189
diviser le nombre obtenu par mi !, pour chaque longueur i de cycle. Tout compte fait, le nombre
d’éléments de Cλ est égal à
n! 1 n!
× (λ1 − 1)! × (λ2 − 1)! × · · · × = .
λ1 ! λ2 ! · · · m1 ! m2 ! · · · zλ

Le raisonnement ci-dessus établit l’énoncé (ii). L’énoncé (i) s’en déduit par la formule des
classes. Alternativement, on peut voir que le centralisateur dans Sn d’une permutation σ ∈ Cλ
est isomorphe au groupe produit
Y m 
Z/iZ i o Smi
i≥1
mi
où la structure de produit semi-direct est donnée par l’action de Smi sur Z/iZ par per-
mutation des facteurs. 

5.2.2 Sous-groupes de Young

Soit µ = (µ1 , µ2 , . . . , µp ) une suite finie d’entiers strictement positifs de somme n. On dispose
alors d’un homomorphisme injectif de groupes
!
Sµ = Sµ1 × · · · × Sµp → Sn
,
(σ1 , . . . , σp ) 7→ σ1 × · · · × σp
où σ1 × · · · × σp est la permutation obtenue en décomposant {1, . . . , n} en blocs {1, . . . , µ1 } t
{µ1 + 1, . . . , µ1 + µ2 } t · · · et en faisant agir σ1 sur le premier bloc, σ2 sur le second, etc.
On identifie Sµ à son image, appelée sous-groupe de Young de Sn .

5.2.3 L’application caractéristique de Frobenius

Nous nous intéressons aux caractères complexes du groupe symétrique Sn , avec n ≥ 1. Pour
cela, introduisons l’espace Fn = cf C (Sn ) des fonctions de classes à valeurs complexes sur Sn .
L’espace F n est muni d’un produit scalaire hermitien (?, ?)Sn . L’ensemble R n = ch CSn des
caractères virtuels de Sn est un sous-groupe de F n .
Nous avons vu dans la section 5.1.5 que l’espace des polynômes symétriques de degré n ne
dépend pas du nombre d’indéterminées, pourvu que celui-ci soit au moins n. Notons-le Λn , et
munissons Λn ⊗Z C du produit scalaire hermitien pour lequel les fonctions de Schur forment
une base orthonormée.
L’application caractéristique de Frobenius ch : F n → Λn ⊗Z C est définie en posant
1 X
ch(ϕ) = ϕ(σ) pρ(σ)
n!
σ∈Sn

pour chaque ϕ ∈ F n.Alternativement, on observe que l’espace vectoriel F n admet pour


base l’ensemble des fonctions indicatrices des classes de conjugaison dans Sn , et on demande
que pour toute partition λ de n, l’application ch envoie la fonction indicatrice de la classe de
conjugaison Cλ sur pλ /zλ (voir la proposition 5.2.1.1 (ii)).

190
5.2.3.1 Théorème. L’application ch est un isomorphisme isométrique d’espaces vectoriels
' '
Fn − → Λn ⊗Z C. Elle se restreint en un isomorphisme de Z-modules R − → Λn . Les caractères
irréductibles de Sn sont les images inverses des fonctions de Schur de degré n par l’applica-
tion ch.

Preuve. Par construction, ch est linéaire. Son caractère isométrique résulte de la comparaison
des propositions 5.1.5.3 et 5.2.1.1 : si λ et µ sont deux partitions de n, alors le produit scalaire
dans F n des fonctions indicatrices des classes de conjugaison Cλ et Cµ , à l’instar du produit
scalaire hpλ /zλ , pµ /zµ i dans Λ, vaut 1/zλ si λ = µ et zéro sinon.
Prenons à présent une suite finie µ = (µ1 , µ2 , . . . , µp ) d’entiers strictement positifs de somme n,
considérons la représentation de permutation définie par l’action de Sn sur Sn /Sµ par trans-
lations à gauche (paragraphe 4.1.2.1), et notons ηµ le caractère de celle-ci. Alors la valeur
de ηµ en une permutation σ ∈ Sn est le nombre de points fixes de l’action de σ sur Sn /Sµ
(exercice (1) de la section 4.1.4). Notant 1Sµ la fonction indicatrice de Sµ , nous avons donc

1 X
ηµ (σ) = 1Sµ (τ −1 στ )
|Sµ |
τ ∈Sn

vu que σ fixe la classe à gauche τ Sµ si et seulement si τ −1 στ ∈ Sµ .


Il vient ainsi
1 X
ch(ηµ ) = ηµ (σ) pρ(σ)
n!
σ∈Sn
1 X
= 1Sµ (τ −1 στ ) pρ(σ)
n! |Sµ |
σ,τ ∈Sn
1 X
= 1Sµ (σ) pρ(τ στ −1 )
n! |Sµ |
σ,τ ∈Sn

1 X
= 1Sµ (σ) pρ(σ)
|Sµ |
σ∈Sn

1 X
= pρ(σ1 ×···×σp )
|Sµ |
(σ1 ,...,σp )∈Sµ1 ×···×Sµp

p
!
Y 1 X
= pρ(σ)
µi !
i=1 σ∈Sµi
p
!
Y X
= pλ /zλ
i=1 λ`µi

= hµ1 hµ2 · · · hµp ,

la dernière égalité provenant de la proposition 5.1.3.2.


Le groupe ch(R n ) contient donc tous les polynômes symétriques de la forme hµ1 hµ2 · · · hµp .
En utilisant soit le théorème 5.1.3.1, soit la proposition 5.1.6.2 et l’inversibilité de la matrice

191
formée par les nombres de Kostka, on en déduit que ch(R n ) contient Λn . Pour chaque partition
λ de poids n, il existe donc χλ ∈ R tel que ch χλ = sλ . Alors (χλ , χλ )Sn = hsλ , sλ i = 1. En
outre, l’égalité
1 X λ
sλ = ch(χλ ) = χ (σ) pρ(σ)
n!
σ∈Sn

conduit à χλ (1) = hp(1n ) , sλ i = Kλ,(1n ) d’après la proposition 5.1.5.3 et le corollaire 5.1.6.3,


et donc χλ (1) est positif. La proposition 4.2.3.2 (v) nous dit alors que χλ est un caractère
irréductible de Sn .
Nous obtenons ainsi une famille (χλ ) de caractères irréductibles de Sn indexée par les parti-
tions de poids n. Comme elle a autant de membres que Sn a de classes de conjugaison, elle
est la famille de tous les caractères irréductibles de Sn .
L’homomorphisme ch envoie donc les caractères irréductibles de Sn , qui forment une base
du Z-module R n , sur les fonctions de Schur, qui forment une base de la composante Λn de
degré n. Par conséquent, ch : R n → Λn est un isomorphisme de Z-modules. 

5.2.3.2 Remarque. Le théorème 5.2.3.1 est parfois présenté plus


L abstraitement de la façon
suivante. On traite tous les n en même temps en posant F = n≥0 F n , où F 0 = C1. On
munit F d’une structure d’algèbre graduée en décrétant que le produit de deux fonctions
centrales ϕ ∈ R m et ψ ∈ R n est donné par l’induction

ϕ · ψ = (ϕ × ψ)Sm+n

à Sm+n de la fonction centrale ϕ×ψ : (σ, τ ) 7→ ϕ(σ)ψ(τ ) sur Sm ×Sn = S(m,n) ; l’associativité
se prouve en utilisant la transitivité de l’induction. Un calcul simple, semblable à la preuve de
la proposition 4.3.2.2 (iv), prouve alors que l’application

ch : F → Λ ⊗Z C
'
définie en recollant par linéarité les applications F n −
→ Λn ⊗Z C est un isomorphisme d’al-
gèbres. Cet isomorphisme envoie le sous-anneau R = n≥0 R n de F sur Λ.
L

5.2.4 Caractères irréductibles

Adoptant les notations de la preuve du théorème 5.2.3.1, nous avons donc une indexation
(χλ )λ`n des caractères irréductibles de Sn par l’ensemble des partitions de poids n.

5.2.4.1 Premiers exemples.


(1) Le cas particulier µ = (n) du calcul effectué dans la démonstration du théorème 5.2.3.1
prouve que l’image par ch du caractère trivial de Sn est hn = s(n) . Ainsi χ(n) est le
caractère trivial de Sn .

192
(2) Soit µ une partition de n. Chaque permutation appartenant à la classe de conjugaison
Cµ se décompose en produit de `(µ) cycles à supports disjoints (y compris les cycles de
longueur 1), donc a pour signature (−1)n+`(µ) . L’image par ch de la signature de Sn
est donc égale à X
(−1)|λ|+`(λ) pλ /zλ = en = s(1n )
λ`n
n)
(voir la proposition 5.1.3.2). Ainsi χ(1 est la signature de Sn .

Notons χλµ la valeur de χλ sur la classe Cµ .

5.2.4.2 Formule des caractères de Frobenius. Pour chaque partition µ de n,


X
pµ = χλµ sλ .
λ`n

Preuve. La valeur d’une fonction centrale ϕ ∈ F n sur la classe de conjugaison Cµ est égale à
hch ϕ, pµ i. En particulier, χλµ = hsλ , pµ i. Le résultat découle alors du fait que {sλ | λ ` n} est
une base orthonormée de Λn . 

La table des caractères des groupes symétriques s’obtient donc comme une matrice de change-
ment de base dans Λ ⊗Z Q. Utilisant la proposition 5.1.2.1 (ii), on voit même que les nombres
χλµ sont entiers.

5.2.4.3 Proposition.
(i) Pour chaque partition λ de n, le degré de χλ est égal au nombre Kλ,(1n ) de tableaux
standards de forme λ.
(ii) (Règle de Young.) Soit µ = (µ1 , µ2 , . . . , µp ) une suite d’entiers strictement positifs, de
somme n. Induisons à Sn le caractère trivial 1Sµ du sous-groupe de Young Sµ . Alors
Sn X
1Sµ = Kλ,µ χλ
λ`n

où Kλ,µ est le nombre de Kostka.


(iii) (Règle de Murnaghan-Nakayama.) Soient λ et µ des partitions de n. Alors
X
χλµ = (−1)h(T ) ,
T

la somme portant sur l’ensemble des tableaux multibandes de forme λ et de poids µ et


la notation h(T ) désignant la hauteur du tableau T .

Preuve. L’énoncé (i) a été prouvé au cours de la démonstration du théorème 5.2.3.1. Les
règles de Young et de Murnaghan-Nakayama s’obtiennent en appliquant ch−1 aux formules de
la proposition 5.1.6.2. 

193
Exemple d’utilisation de la règle de Murnaghan-Nakayama. Prenons n = 7, λ = 421, µ = 331.
Il y a trois tableaux multibandes, à savoir

1 1 1 3 1 2 2 2 1 2 2 3
2 2 , 1 3 et 1 2 ,
2 1 1

de hauteurs 1, 2 et 3 respectivement, d’où χλµ = −1.

5.2.4.4 Autres exemples.


(1) Le groupe Sn agit transitivement sur l’ensemble {1, . . . , n}, et le stabilisateur de l’élé-
ment 1 est le sous-groupe de Young S(1,n−1) . La représentation standard de Sn sur
Cn étant la représentation de permutation associée à cette action, son caractère est
simplement l’induite (1S(1,n−1) )Sn . D’après la règle de Young, ceci vaut χ(n) + χ(n−1,1) .
Cette somme reflète la décomposition Cn = D ⊕ H en somme directe de deux repré-
sentations irréductibles, où D est la droite engendrée par le vecteur (1, 1, . . . , 1) et H
est l’hyperplan {(z1 , . . . , zn ) ∈ Cn | z1 + · · · + zn = 0}.
(2) De même, pour 1 ≤ k ≤ n − 1, la représentation de Sn sur k (Cn ) admet pour
V
k S
caractère le caractère induit χ(1 ) × χ(n−k) n . De la formule de Pieri

ek hn−k = s(n−k,1k ) + s(n−k+1,1k−1 )


k) Vk
on déduit que χ(n−k,1 est le caractère de la représentation de Sn sur H.
(3) L’involution ω de l’anneau Λ introduite dans la section 5.1.5 vérifie ω(pk ) = (−1)k+1 pk .
Il s’ensuit que ω(pµ ) = (−1)n+`(µ) pµ pour toute partition µ de n. Par conséquent, si
deux caractères virtuels ϕ, ψ ∈ R n se déduisent l’un de l’autre par multiplication par
la signature, alors leurs images ch(ϕ), ch(ψ) ∈ Λ par l’application caractéristique se dé-
duisent l’une de l’autre par l’involution ω. La formule ω(sλ ) = sλ0 , où λ0 est la partition
0 n
conjuguée de λ, se traduit ainsi par l’égalité χλ = χλ χ(1 ) dans l’anneau ch CSn .

5.2.4.5 Remarques.
(1) La somme des carrés des degrés des caractères irréductibles d’un groupe fini est égal à
l’ordre du groupe. Ici, cela donne
X 2
Kλ,(1n ) = n!.
λ`n

On sait également prouver cette identité de façon combinatoire, en utilisant la bijection


de Robinson-Schensted.
(2) Plutôt que de compter les tableaux standards, on peut déterminer le degré du caractère
irréductible χλ par la formule de Frame-Robinson-Thrall :
n!
Kλ,(1n ) = Q ,
x∈λ h(x)

194
où h(x) est la longueur d’équerre de x : si x est la case (i, j), alors h(x) = λi +λ0j −i−j+1.
Ainsi pour x = (2, 2) et λ = 6432, on a ainsi h(x) = 5, car il y a cinq ∗ dans le
diagramme de gauche ci-dessous.

9 8 6 4 2 1
∗ ∗ ∗ 6 5 3 1
∗ 4 3 1
∗ 2 1

Les cases du tableau de droite ci-dessus sont remplies par les longueurs d’équerres. La
formule de Frame-Robinson-Thrall donne ici
15!
deg χλ = = 175175.
9×8×6×4×2×6×5×3×4×3×2

Malgré les apparences, il reste d’importants problèmes ouverts concernant les caractères du
groupe symétrique. En voici deux :
(1) On ne connaît pas de règle combinatoire qui donne les multiplicités des représenta-
tions irréductibles dans les produits tensoriels, autrement dit, on ne sait pas évaluer
(χλ , χµ χν )Sn pour λ, µ, ν partitions de poids n.
(2) On ne sait pas grand chose sur les représentations de Sn en caractéristique finie. On
ne connaît même pas leur degré !

5.2.5 Compléments

Nous avons déterminé ci-dessus les caractères irréductibles complexes du groupe symétrique
Sn . Il est également possible de construire explicitement les représentations, appelées modules
de Specht, de la façon suivante. Soit λ une partition de n. À un remplissage T du diagramme
de λ par les entiers de 1 à n, chaque entier apparaissant une fois, on associe le polynôme
fT ∈ Z[x1 , . . . , xn ] produit des xi − xj , pour tous les couples (i, j) tels que dans T , l’entier j
est au dessus et dans la même colonne que l’entier i. Si par exemple n = 7 et λ = 421, alors
au remplissage
4 1 5 2
T = 7 3
6
correspond le polynôme fT = (x7 − x4 )(x6 − x7 )(x6 − x4 )(x3 − x1 ).
On appelle Mλ le sous-Z-module de Z[x1 , . . . , xn ] engendré par les polynômes fT , pour tous
les remplissages T du diagramme de λ. Manifestement, Mλ est stable sous l’action de Sn sur
Z[x1 , . . . , xn ]. On peut démontrer que les fT pour T tableau standard forment une base du
Z-module Mλ , et que si k est un corps de caractéristique 0, alors la représentation de Sn
sur Mλ ⊗Z k est absolument irréductible et de caractère χλ . En particulier, non seulement
les caractères irréductibles complexes de Sn sont à valeurs entières, mais les représentations
correspondantes peuvent être réalisées sur Z.
Une référence (assez condensée) pour la preuve de ces énoncés est l’exercice 15 de la section I.7
du livre de Macdonald [13].

195
D’autres approches permettent de présenter la théorie. L’une d’elles, due à Okounkov et
Vershik, semble assez populaire ces dernières années. Donnons-nous n ≥ 1 et plongeons
S1 ⊆ S2 ⊆ · · · ⊆ Sn . Ici pour m < n, une permutation σ ∈ Sm est vue comme une permu-
tation de {1, . . . , n} qui fixe les valeurs m + 1, m + 2, ... Nous obtenons alors des inclusions
d’algèbres
CS1 ⊆ CS2 ⊆ · · · ⊆ CSn .
Appelons A la sous-algèbre de CSn engendrée par les centres Z(CS1 ), Z(CS2 ), ... Z(CSn ).
A est une sous-algèbre commutative de CSn , car pour i < j, un élément de Z(CSj ) commute
avec tout élément de CSj , donc en particulier avec tout élément de CSi .
On montre que A est une sous-algèbre commutative maximale de CSn . Il est alors intéres-
sant de restreindre les CSn -modules à A : comme A est commutative, ses représentations
irréductibles sont de dimension 1. Il se trouve que la sous-algèbre A est assez grosse pour que
la restriction à A d’un CSn -module détermine entièrement ce dernier, à isomorphisme près.
Pour plus de détails, le lecteur est renvoyé au premier chapitre du livre [12].

5.3 Représentations du groupe unitaire

5.3.1 Rappels sur les groupes compacts et sur le groupe unitaire

Commençons par rappeler brièvement quelques faits concernant les groupes compacts et leurs
représentations (voir le paragraphe 4.4 pour plus de détails).
Soit G un groupe compact. Nous nous intéressons exclusivement aux représentations complexes
de dimension finie de G, c’est-à-dire aux homomorphismes de groupes π : G → GL(V ), où V
est un C-espace vectoriel de dimension finie. Alors V et GL(V ) sont munis d’une topologie
canonique, et on peut parler de représentation continue.
Un groupe compact possède une unique mesure µ de masse totale 1, invariante par translations
à gauche et à droite, appelée mesure de Haar. On peut ainsi intégrer d’une façon canonique
les fonctions continues sur G à valeurs dans un espace vectoriel
P réel ou  complexe de dimension
finie. L’intégrale G ϕ dµ est l’analogue de la moyenne g∈G ϕ(g) /|G| qui nous a servi à
R

définir l’opérateur de Reynolds. De fait, on dispose encore d’un opérateur de Reynolds dans
le cas des groupes compacts, qui peut être utilisé pour prouver le théorème de Maschke et la
relation d’orthogonalité des caractères.

5.3.1.1 Exemple. Sur le groupe compact G = (R/2πZ)n , la mesure de Haar est donnée par
Z Z 2π Z 2π
dθ1 dθn
ϕ dµ = ··· ϕ(θ1 , . . . , θn ) ··· .
G 0 0 2π 2π

L’espace des fonctions continues sur G à valeurs complexes est muni d’un produit scalaire
Z
(ϕ, ψ)G = ϕ(g)ψ(g) dµ(g).
G
Le sous-espace des fonctions de classe hérite de ce produit scalaire.
La théorie de Peter-Weyl (paragraphes 4.4.5 et 4.4.6) entraîne :

196
5.3.1.2 Fait. L’ensemble des caractères irréductibles (sous-entendu : continus) de G forme
une famille orthonormée dans l’ensemble des fonctions de classe continue. Il n’existe pas de
fonction de classe continue non-nulle qui soit orthogonale à tous les caractères irréductibles.

Voici maintenant quelques rappels concernant les groupes unitaires. On se donne un entier
n ≥ 1. Comme d’habitude, on note

U(n) = {U ∈ GLn (C) | U −1 = t U }

le groupe des matrices unitaires de taille n. Ainsi U(1) est le groupe des nombres complexes
de module 1.

5.3.1.3 Faits.
(1) Les valeurs propres d’une matrice unitaire sont des nombres complexes de module 1.
(2) Une matrice unitaire et triangulaire est diagonale (le i-ième vecteur colonne Ci est de
norme 1 ; la i-ième coordonnée de Ci est de module 1 ; les autres coordonnées de Ci
sont donc nulles).
(3) Toute matrice P ∈ GLn (C) s’écrit de façon unique P = T U , avec T triangulaire
supérieure à valeurs réelles positives sur la diagonale et U unitaire (ce fait traduit le
procédé de Gram-Schmidt).
(4) Pour toute matrice complexe M , il existe une matrice unitaire U telle que U −1 M U est
triangulaire supérieure (trianguler M et appliquer le point précédent à la matrice de
passage).
(5) Toute matrice unitaire est diagonalisable avec une matrice de passage unitaire (combi-
ner (2) et (4)).
(6) La transformée de Cayley
I −U I −A
U 7→ A = et A 7→ U =
I +U I +A
est une bijection bicontinue entre l’ensemble des matrices unitaires U n’ayant pas −1
comme valeur propre et l’ensemble des matrices antihermitiennes A n’ayant pas −1
comme valeur propre. Au prix de la restriction à des ouverts, on peut donc passer du
groupe U(n) des matrices unitaires à l’espace vectoriel u(n) des matrices antihermi-
tiennes.

5.3.2 Restriction au tore

On se donne un groupe unitaire G = U(n), avec n fixé pour toute la suite. On note T
l’ensemble des matrices diagonales de G. Les valeurs diagonales d’un élément de T étant des
nombres complexes de module 1, on a T ∼= U(1)n . Le sous-groupe T est appelé le tore maximal
standard de G. C’est un groupe abélien compact connexe.
Une matrice M ∈ GLn (C) est dite monomiale si chaque ligne et chaque colonne de M contient
exactement une valeur non-nulle. On vérifie sans trop de peine que le normalisateur N de T

197
dans U(n) est l’ensemble des matrices monomiales unitaires. Comme T est abélien, l’action
par conjugaison de N sur T se factorise à travers le quotient W = N/T . Concrètement, W
est isomorphe au groupe symétrique Sn et l’action d’une permutation σ ∈ W sur une matrice
diagonale U ∈ T est de permuter les valeurs diagonales de U .
Pour voir cela, le plus simple est de plonger Sn dans GLn (C) par les matrices de permutations.
On vérifie qu’alors N = Sn T et Sn ∩ T = {1} ; on a ainsi une structure de produit semi-
direct N = Sn n T . L’action d’une permutation σ ∈ Sn sur T est donnée par la conjugaison
U 7→ Pσ U Pσ−1 par la matrice de permutation correspondante : si U = diag(z1 , . . . , zn ), alors
Pσ U Pσ−1 = diag(zσ−1 (1) , . . . , zσ−1 (n) ).

Notons C(G, C)G l’algèbre des fonctions de classe continues sur G à valeurs complexes ; notons
C(T, C)W l’ensemble des fonctions continues sur T qui sont constantes sur les orbites de W
(autrement dit : W agit sur T , donc sur l’espace C(T, C) des fonctions continues sur T , et on
prend les invariants pour cette action).

5.3.2.1 Théorème.
(i) Chaque classe de conjugaison de G rencontre T et l’intersection est une W -orbite.
(ii) L’opération de restriction à T d’une fonction sur G induit un isomorphisme d’algèbres
de C(G, C)G sur C(T, C)W .

Preuve. Le (i) traduit le fait que chaque matrice unitaire U est semblable à une matrice
diagonale D avec une matrice de passage unitaire (fait 5.3.1.3 (5)), et que les coefficients de D
sont déterminés à permutation près par U (ce sont les valeurs propres de U , avec multiplicité).
À ce stade, la seule chose non-banale à démontrer dans (ii) est la surjectivité de l’opération
de restriction. Plus précisément, donnons-nous une fonction W -invariante ψ : T → C. Il est
naturel de définir une fonction ϕ ∈ C(G, C)G en décrétant, pour chaque matrice U ∈ G, que
ϕ(U ) est égal à la valeur de ψ sur l’intersection de T avec la classe de conjugaison de U .
Certainement alors, ψ est la restriction de ϕ. La difficulté est de montrer que ϕ est continue.
Pour éviter de parler de topologie quotient, ce qui est toujours un peu délicat 21 , nous consi-
dérons l’application
C : G → Cn , U → 7 (a1 , . . . , an ),
où les ai sont les coefficients du polynôme caractéristique de U , à un signe près :

det(T I − U ) = T n − a1 T n−1 + a2 T n−2 + · · · + (−1)n an .

À une matrice diag(z1 , . . . , zn ) ∈ T , l’application C associe le n-uplet (ε1 , . . . , εn ), où εk est


la valeur en (z1 , . . . , zn ) du polynôme symétrique élémentaire ek de degré k.
Deux matrices de T ont même image par C si et seulement si elles ont le même polynôme
caractéristique, autrement dit les mêmes valeurs propres avec les mêmes multiplicités, ce qui
équivaut à dire qu’elles sont donc dans la même W -orbite. Ainsi les fibres de la restriction de
C à T sont les W -orbites dans T . Notons K l’image de G par C ; c’est aussi l’image de T par
C, et C induit une bijection C̃ : T /W → K.
21. Nous sommes ici dans le cas favorable où l’on fait le quotient par un groupe compact.

198
Choisissons une norme classique sur Cn ; elle nous donne une distance W -invariante sur
U(1)n ∼= T . On munit T /W de la distance induite : la distance entre deux W -orbites est
le minimum de la distance entre deux points appartenant à l’une et l’autre orbite. Alors T /W
est un espace topologique compact, car T est compact et la surjection canonique de T sur
T /W est continue. Ainsi C̃ : T /W → K est une bijection continue d’un espace compact vers
un espace séparé, et est donc un homéomorphisme d’après le théorème de Poincaré.
Reprenons maintenant notre fonction ψ ∈ C(T, C)W . Alors ψ se factorise à travers T /W ,
donnant une application ψ̃ : T /W → C. En utilisant que la surjection canonique de T sur
T /W est ouverte, on vérifie que ψ̃ est continue. On en déduit que la fonction ϕ est continue,
car elle peut s’écrire ϕ = ψ̃ ◦ C̃ −1 ◦ C. 

La forme linéaire positive ϕ 7→ G ϕ dµ sur C(G, C)G peut donc être vue comme une forme
R

linéaire positive sur C(T, C)W . D’après le théorème de représentation de Riesz, elle est donnée
par une mesure W -invariante sur T . Le résultat suivant explicite cette dernière. Il est dû à
Weyl ([17], chapitre VII, §4) ; on pourra se référer au chapitre 18 de [5] pour une présentation
plus moderne.

5.3.2.2 Formule d’intégration de Weyl. Si ϕ ∈ C(G, C)G , alors


Z Z 2π Z 2π
1    Y dθ1 dθn
ϕ dµ = ··· ϕ diag eiθ1 , . . . , eiθn |eiθj − eiθk |2 ··· .
G n! 0 0 2π 2π
j<k

Preuve. L’application (g, t) 7→ gtg −1 de G × T dans G est surjective d’après le fait 5.3.1.3 (5).
Elle se factorise en une application surjective Φ : (G/T ) × T → G.
Le groupe G est une variété différentielle réelle ; on note g l’espace tangent à G en l’élément
neutre e. Le tore T est une sous-variété différentielle de G ; l’espace tangent t à T au point e est
donc un sous-espace vectoriel de g. L’ensemble G/T a une structure de variété différentielle,
et l’espace tangent à G/T au point eT (l’image de e dans G/T ) peut être identifié à g/t.
Pour chaque g ∈ G, la différentielle en e du difféomorphisme h 7→ ghg −1 de G dans lui-même
est notée Ad(g). L’application Ad : G → GL(g) est appelée la représentation adjointe de G.
Pour t ∈ T , l’endomorphisme Ad(t) laisse fixe chaque élément du sous-espace t de g. Nous
disposons ainsi d’une représentation quotient de T sur g/t, que nous noterons t 7→ (Ad(t))g/t .
Concrètement pour G = U(n), g est identifié à l’espace vectoriel u(n) des matrices antiher-
mitiennes de taille n, et Ad(g) est la conjugaison X 7→ gXg −1 , pour g ∈ U(n) et X ∈ u(n).
On peut ici noter que la puissance extérieure maximale de la représentation adjointe est la
représentation
Vmax ∼ triviale de G, le déterminant fournissant un isomorphisme de représentations
g = R. Par ailleurs, le sous-espace t est l’ensemble des matrices diagonales de taille n à
coefficients imaginaires purs.
Nous considérons maintenant la fonction J : t 7→ det(Ad(t−1 )−id)g/t définie sur T et à valeurs
réelles. Un calcul explicite montre que pour G = U(n),
Y
J(diag(z1 , . . . , zn )) = |zj − zk |2 (†)
j<k

199
pour chaque (z1 , . . . , zn ) ∈ U(1)n .
Soit ω une forme différentielle de degré maximal sur G. L’intégrale R G ϕω a alors un sens pour
R

chaque fonction continue ϕ : G → C, et la forme linéaire ϕ 7→ G ϕω est une mesure sur G.


En fait, la mesure de Haar sur G s’obtient de cette façon : il suffit de construire une forme
différentielle ωVinvariante par les translations à gauche, ce qu’on fait en choisissant un élément
non-nul ωe ∈ max g∗ et en le propageant à tout G via les translations à gauche.
De la même façon, on choisit des formes différentielles de degré maximal η sur T et λ sur
G/T , invariantes par les translations à gauche par T et G, respectivement 22 . Ces formes
différentielles η et λ fournissent des mesures sur T et G/T , la première étant la mesure de
Haar de T . On normalise ω et η en imposant que
Z Z
ω= η = 1.
G T

On peut identifier les droites vectorielles réelles max (g/t)∗ ⊗ max t∗ et max g∗ ; on norma-
V V V
lise λ de façon à avoir λeT ⊗ ηe ≡ ωe dans notre identification. Le théorème de Fubini entraîne
alors Z
λ = 1.
G/T

Prenons (g, t) ∈ G × T . La différentielle de la translation à gauche par g fournit un isomor-


phisme entre les espaces tangents à G/T aux points eT et gT ; cela permet de désigner l’espace
tangent au point gT par la notation g(g/t). De même, l’espace tangent à T au point t est noté
t t et l’espace tangent à G au point gtg −1 est noté (gtg −1 )g. Prenons donc X ∈ g/t et H ∈ t.
La différentielle de Φ au point (gT, t) est alors

(gX, tH) 7→ (gtg −1 ) Ad(g) (Ad(t−1 ) − id)X + H ,


 

où X ∈ g/t et H ∈ t. Le fait que X appartienne à g/t et non à g n’est pas ici un souci :
comme l’endomorphisme Ad(t−1 ) − id de l’espace vectoriel g est nul sur t, il se factorise à
travers g/t, et donc (Ad(t−1 ) − id)(X) est un élément
V bien défini
V de g, même
V si X n’est défini
que modulo t. Maintenant, dans l’identification max (g/t) ⊗ max t ≡ max g, la puissance
extérieure maximale de l’application linéaire

(X, H) 7→ Ad(g) (Ad(t−1 ) − id)X + H




de (g/t) ⊕ t dans g est la multiplication par J(t). Le formalisme de la géométrie différentielle


nous conduit donc à la formule

Φ∗ ω (gT,t) = J(t) λgT ⊗ ηt . (‡)




Introduisons à présent l’ensemble Greg des éléments réguliers de G, formé des matrices unitaires
dont les valeurs propres sont deux-à-deux distinctes. C’est une partie ouverte de G, stable par
22. L’existence de λ n’est pas complètement évidente. On commence par observer que la puissance extérieure
maximale de la Vreprésentation t 7→ (Ad(t))g/t de T sur g/t est la représentation triviale de T . Ainsi un élément
non-nul λeT ∈ max (g/t)∗ est automatiquement invariant par le stabilisateur du point eT de G/T . On peut
alors propager cet élément à tout G/T de façon G-invariante.

200
l’action par conjugaison de G sur lui-même. Posons T reg = T ∩ Greg ; ainsi Φ−1 (Greg ) =
(G/T ) × T reg . La formule (†) montre que J(t) 6= 0 pour chaque t ∈ T reg . On déduit alors de
(‡) que Φ est un difféomorphisme local au dessus de Greg . De plus, un élément de Greg possède
exactement |W | = n! antécédents par Φ 23 .
Le complémentaire de Greg est une sous-variété algébrique de G, donc il est de mesure nulle.
De même, le complémentaire de T reg est de mesure nulle dans T . On peut donc restreindre à
Greg ou à T reg le domaine d’intégration d’une fonction continue sur G ou sur T sans changer
la valeur de l’intégrale. Soit ϕ ∈ C(G, C)G une fonction de classe continue. Alors
Z Z Z Z
1 1
ϕ dµ = ϕω = Φ∗ (ϕω) = (ϕ ◦ Φ) Φ∗ ω.
G G reg |W | (G/T )×T reg |W | (G/T )×T reg

La fonction ϕ étant supposée centrale, on a

(ϕ ◦ Φ)(gT, t) = ϕ gtg −1 = ϕ(t)




pour chaque (gT, t) ∈ (G/T ) × T reg . Utilisant (‡) et le théorème de Fubini, nous concluons
que ! Z !
Z Z Z
1 1
ϕ dµ = λ ϕJη = ϕJη.
G |W | G/T T reg |W | T
La forme différentielle η donnant la mesure de Haar sur T , l’exemple 5.3.1.1 et (†) donnent la
formule de Weyl telle qu’écrite dans l’énoncé. 

5.3.3 Les caractères du tore

Le groupe T étant abélien, ses représentations irréductibles sont de degré 1, c’est-à-dire sont
des caractères linéaires. Notons X ∗ (T ) l’ensemble des caractères linéaires continus de T .

5.3.3.1 Proposition. À (a1 , . . . , an ) ∈ Zn , on associe un caractère linéaire ϕ de T par la


formule
ϕ(diag(z1 , . . . , zn )) = z1a1 · · · znan ,
où (z1 , . . . , zn ) ∈ U(1)n . L’application (a1 , . . . , an ) 7→ ϕ est une bijection Zn ∼
= X ∗ (T ).

Preuve. La proposition définit une application injective de Zn dans X ∗ (T ). Il s’agit de voir


qu’elle est surjective.
23. Dans la situation où l’on a un groupe G, un sous-groupe H de G et un ensemble X muni d’une action
de H, on fait agir H sur G × X en posant h · (g, x) = (gh−1 , h · x) pour (h, g, x) ∈ H × G × X, et on désigne
par G ×H X l’ensemble quotient, c’est-à-dire l’ensemble des orbites. Revenant à notre cas G = U(n) et faisant
agir N sur T par conjugaison, cette construction nous conduit à G ×N T , qui est une variété différentielle.
L’application (g, t) 7→ gtg −1 induit alors un homomorphisme de variétés Φ e : G ×N T → G. Par restriction, ce
dernier donne un difféomorphisme G×N T reg ∼ = Greg . Puisque T est un sous-groupe de N , il y a une application
évidente de G ×T T = (G/T ) × T sur G ×N T ; le fait que T soit distingué dans N entraîne qu’elle est un
revêtement galoisien de groupe N/T = W . Ainsi Φ : (G/T ) × T reg → Greg est un revêtement galoisien de
groupe W .

201
Une première possibilité consiste à écrire que si la construction proposée avait manqué un
caractère ϕ de T , alors ϕ serait orthogonal à tous les caractères

diag(z1 , . . . , zn ) 7→ z1a1 · · · znan ,

ce qui impliquerait que tous les coefficients de Fourier  de la fonction continue 2π-périodique en
chaque variable (θ1 , . . . , θn ) 7→ ϕ diag eiθ1 , . . . , eiθn soient nuls. Alors ϕ serait nulle d’après
la formule de Plancherel, ce qui est impossible pour un caractère linéaire.
Une seconde possibilité consiste à traiter d’abord le cas n = 1 à l’aide du lemme 5.3.3.3
ci-dessous, puis à en déduire le cas n quelconque en adaptant la démarche de l’exercice du
paragraphe 4.2.3. 

En utilisant le théorème de Maschke pour le groupe compact T , on en déduit :

5.3.3.2 Corollaire. Soit π : T → GL(V ) une représentation continue de T dans un espace


de dimension finie. Alors il existe un polynôme P à coefficients entiers positifs et un entier
m ∈ Z tels que
χπ (diag(z1 , . . . , zn )) = P (z1 , . . . , zn )/(z1 · · · zn )m
pour chaque (z1 , . . . , zn ) ∈ U(1)n .

5.3.3.3 Lemme. Soit f : R → C∗ un morphisme de groupes continu. Alors il existe a ∈ C


tel que f (t) = eat pour chaque t ∈ R.

Preuve. Il existe ε > 0 tel que

t ∈ [−ε, ε] ⇒ Ref (t) ≥ 1/2.

On choisit ensuite une fonction ρ positive C 1 à support dans [−ε, ε] d’intégrale 1. Le produit
de convolution ρ ∗ f est alors une fonction C 1 et
Z 
(ρ ∗ f )(t) = f (t) ρ(u)f (−u) du
R

pour chaque t ∈ R. La parenthèse à droite est non-nulle, car d’après les choix faits, sa partie
réelle est ≥ 1/2. On en déduit que f est nécessairement C 1 . En dérivant en h = 0 la relation
f (t + h) = f (h)f (t), on obtient l’équation différentielle f 0 (t) = f 0 (0)f (t), d’où f (t) = eat avec
a = f 0 (0). 

5.3.4 Les caractères irréductibles de U(n)

À une suite finie décroissante µ = (µ1 , . . . , µn ) d’entiers relatifs, on associe une fonction
ψµ ∈ C(T, C)W de la façon suivante : on choisit une partition λ de longueur au plus n et un
entier m ∈ Z de sorte que
µ = (λ1 − m, . . . , λn − m)

202
et on définit
ψµ : diag(z1 , . . . , zn ) 7→ sλ (z1 , . . . , zn )/(z1 · · · zn )m .
Dans la bijection du théorème 5.3.2.1 (ii), ces fonctions ψµ correspondent à des fonctions de
classe continues ϕµ ∈ C(G, C)G . Autrement dit, pour chaque U ∈ G, on pose

ϕµ (U ) = sλ (z1 , . . . , zn )/(z1 · · · zn )m

où z1 , ..., zn sont les valeurs propres de U avec multiplicités. Le but de ce paragraphe est de
montrer que les ϕµ sont les caractères des représentations irréductibles continues de G.
Afin de prouver ce résultat, énonçons deux propositions. La première est conséquence du
théorème 5.3.2.1 et du corollaire 5.3.3.2.

5.3.4.1 Proposition. Soit π : G → GL(V ) une représentation continue de dimension


finie du groupe unitaire. Alors il existe un polynôme symétrique P ∈ Z[X1 , . . . , Xn ]Sn à coef-
ficients positifs et un entier m ∈ Z tels que la restriction à T du caractère de π soit donnée
par
χπ (diag(z1 , . . . , zn )) = P (z1 , . . . , zn )/(z1 · · · zn )m ,
pour tout (z1 , . . . , zn ) ∈ U(1)n .
La seconde est un calcul d’intégrale.

5.3.4.2 Proposition. Soient µ et ν deux suites décroissantes formées chacune de n entiers


relatifs. Alors (ϕµ , ϕν )G = δµν .

Preuve. On utilise la formule d’intégration de Weyl pour se restreindre au tore T . On écrit


ϕµ (z1 , . . . , zn ) = sλ (z1 , . . . , zn )/(z1 · · · zn )m et ϕν (z1 , . . . , zn ) = sτ (z1 , . . . , zn )/(z1 · · · zn )m ,
avec un même m. Après substitution, les m disparaissent du calcul et on se retrouve à devoir
calculer
2
Z 2π Z 2π
1 iθ1 iθn
Y
iθj iθk dθ1 dθn
··· sλ (eiθ1 , . . . , eiθn )s τ (e ,...,e ) (e −e ) ··· .
n! 0 0 2π 2π
j<k

Utilisant la définition sλ = aλ+δ /aδ des fonctions de Schur, les dénominateurs aδ se simplifient
avec le produit j<k (eiθj − eiθk ). Il reste
Q

Z 2π Z 2π
1 dθ1 dθn
··· aλ+δ (eiθ1 , . . . , eiθn )aτ +δ (eiθ1 , . . . , eiθn ) ··· .
n! 0 0 2π 2π

On développe ensuite les fonctions aλ+δ et aτ +δ comme des sommes alternées sur le groupe
symétrique, et on conclut par un calcul sans histoire. 

203
5.3.4.3 Théorème. Les fonctions ϕµ sont les caractères des représentations irréductibles
continues de G, où µ est une suite décroissante formée de n entiers relatifs.

Preuve. Soit π : G → GL(V ) une représentation continue de dimension finie du groupe


unitaire. Les propositions 5.3.4.1 et 5.1.2.1 (ii) nous disent qu’on peut écrire la restriction à T
du caractère de π sous forme d’une combinaison Z-linéaire des fonctions ψµ :
X
χπ T = cµ ψµ ,
µ

la somme portant sur des suites finies décroissantes formées de n entiers relatifs. Ainsi
X
χπ = cµ ϕµ .
µ

Le fait 5.3.1.2 nous assure que (χπ , χπ )G = 1. La proposition 5.3.4.2 donne alors µ |cµ |2 = 1,
P
et donc tous les cµ sont nuls, sauf un qui vaut ±1. Ainsi χπ = ±ϕµ . Comme les restrictions à
T de χπ et de ϕµ sont toutes deux données par des polynômes à coefficients positifs, le signe
est +1. Tout caractère irréductible de G est donc un ϕµ .
Si un ϕµ se trouvait oublié dans cette construction, c’est-à-dire n’était pas un caractère ir-
réductible, alors ce serait une fonction de classe continue non-nulle orthogonale à tous les
caractères irréductibles. Cela est impossible, toujours d’après le fait 5.3.1.2. 

Reprenons les notations du début du paragraphe 5.3.4. Le degré du caractère ϕµ est


ϕµ (I) = sλ (1, . . . , 1).
D’après le théorème de Littlewood 5.1.6.4, il est égal au nombre de tableaux semi-standards
de forme λ remplis par des entiers entre 1 et n. La proposition suivante fournit une formule
explicite.

5.3.4.4 Formule des dimensions de Weyl. Pour toute suite décroissante d’entiers re-
latifs µ = (µ1 , . . . , µn ), le degré de sµ est égal à
Y µi − µj + j − i
.
j−i
1≤i<j≤n

Preuve. La suite µ étant donnée, on choisit une partition λ et un entier m comme au début du
paragraphe 5.3.4. Alors, pour tout t ∈ C∗ non racine de l’unité, le nombre sλ (t0 , t1 , . . . , tn−1 )
s’exprime comme quotient de deux déterminants de Vandermonde. De fait, avec les notations
du paragraphe 5.1.2, on a
aλ+δ (t0 , t1 , . . . , tn−1 ) Y tλj +(n−j) − tλi −(n−i)
sλ (t0 , t1 , . . . , tn−1 ) = = .
aδ (t0 , t1 , . . . , tn−1 ) tn−j − tn−i
1≤i<j≤n

On obtient alors le degré de ϕµ en prenant la limite t → 1 :


Y λj + (n − j) − λi − (n − i)
sλ (1, . . . , 1) = .
(n − j) − (n − i)
1≤i<j≤n

204
5.3.5 Exemples

Soit det : G → C∗ le caractère linéaire donné par le déterminant. Restreint au tore, on a

det(diag(z1 , . . . , zn )) = z1 · · · zn = en (z1 , . . . , zn ) = s(1n ) (z1 , . . . , zn ).

Ainsi det = ϕ(1,...,1) .


Soit π : G → GL(Cn ) la représentation naturelle de G, donnée par l’inclusion U(n) ⊆
GLn (C). Alors χπ (g) = tr(g). En restriction au tore, cela donne

χπ (diag(z1 , . . . , zn )) = z1 + · · · + zn = s(1) (z1 , . . . , zn ).

Ici donc χπ = ϕ(1,0,...,0) .


On peut vérifier ϕ(k,0,...,0) (respectivement, ϕ(1,...,1,0,...,0) , avec k fois 1 et n − k fois 0) est le
caractère de la représentation de G sur la puissance symétrique (respectivement, extérieure)
k-ième de cette représentation π. Il suffit en fait de le vérifier sur les restrictions au tore, ce
qui est aisé en utilisant le théorème 3.1.4.2.
Signalons enfin que les tableaux semi-standards appartiennent à un ensemble d’outils très
efficaces qui permettent par exemple de calculer combinatoirement les multiplicités des repré-
sentations irréductibles dans les produits tensoriels.

5.4 Application : symétrie des tenseurs

5.4.1 Tenseurs symétriques, tenseurs antisymétriques

Soit k un corps, V un espace vectoriel sur k, n un entier ≥ 1.


Le groupe Sn agit sur Tn V par permutation des facteurs :

σ · (v1 ⊗ · · · ⊗ vn ) = vσ−1 (1) ⊗ · · · ⊗ vσ−1 (n) .

Un tenseur t ∈ Tn V est dit symétrique s’il est invariant par Sn . On note TSn V l’ensemble
des tenseurs symétriques de degré n sur V ; ainsi TS V = invSn T V . (Les objets TSn V
n n 

et Sn V sont très
L proches l’un de l’autre, mais ne sont pas vraiment égaux. Ainsi on notera
que TS(V ) = n≥0 TSn V n’est pas une sous-algèbre de T V (du moins pas pour le produit
usuel), alors qu’au contraire, l’algèbre symétrique S(V ) est un quotient de l’algèbre T V .)
De même, on dira qu’un tenseur t ∈ Tn V est antisymétrique si σ · t = sgn(σ)t pour chaque
permutation σ ∈ Sn . On note TAn V l’ensemble des tenseurs antisymétriques.

Exemple. Supposons que k soit de caractéristique 6= 2. Alors T2 V = TS2 V ⊕ TA2 V . De


fait, l’automorphisme de T2 V par lequel agit la transposition de S2 est une symétrie ; TS2 V
est l’espace propre pour la valeur +1 de cette symétrie, et TA2 V en est l’espace propre pour
la valeur −1. En termes terre-à-terre, tout tenseur d’ordre 2 peut être décomposé de façon
unique en somme d’un tenseur symétrique et d’un tenseur antisymétrique.

205
5.4.1.1 Proposition. Supposons que k soit de caractéristique 0. Alors les éléments de la
forme v ⊗n , pour v ∈ V , engendrent TSn V .

Preuve. On dispose des identités de polarisation : pour chaque (v1 , . . . , vn ) ∈ V n , on a


X 1 X
vσ(1) ⊗ · · · ⊗ vσ(n) = ε1 · · · εn (ε1 v1 + · · · + εn vn )⊗n .
2n
σ∈Sn (ε1 ,...,εn )∈{−1,1}n

Par ailleurs, l’opérateur de Reynolds


1 X
v1 ⊗ · · · ⊗ vn 7→ vσ(1) ⊗ · · · ⊗ vσ(n)
n!
σ∈Sn

est un projecteur de Tn V sur TSn V . 

5.4.2 Dualité de Schur-Weyl

Soient V un espace vectoriel complexe de dimension finie n et p ≥ 1 un entier. Moyennant le


choix pour V d’un produit scalaire hermitien et d’une base orthonormale, on peut supposer
que V = Cn est la représentation naturelle de G = U(n). Ainsi G agit aussi sur la puissance
tensorielle Tp V . Par ailleurs, le groupe H = Sp agit sur Tp V par permutation des facteurs,
comme expliqué dans le paragraphe précédent. Nous avons donc deux homomorphismes d’al-
gèbres à valeurs dans EndC (Tp V ), l’un de domaine CG, l’autre de domaine CH. Notons A
et B les images de ces deux homomorphismes.

5.4.2.1 Proposition. Les sous-algèbres A et B de EndC (Tp V ) sont le commutant l’une


de l’autre :
A = EndH (Tp V ) et B = EndG (Tp V ).

Preuve. On note A le sous-espace vectoriel de EndC (Tp V ) engendré par les éléments de
la forme u⊗p , pour u ∈ EndC (V ). Certainement A ⊆ A. Si cette inclusion était stricte,
A serait inclus dans une hypersurface de A, dont on pourrait écrire une équation ϕ = 0.
Alors {u ∈ EndC (V ) | ϕ(u⊗p ) = 0} serait une hypersurface de degré p de EndC (V ), c’est-
à-dire le lieu des zéros d’un polynôme de degré p, et cette hypersurface contiendrait U(n).
Appliquant la transformation de Cayley (voir le paragraphe 5.3.1.3 (6)), nous obtiendrions une
hypersurface de degré p de EndC (V ) qui contiendrait un ouvert non-vide de l’espace vectoriel
des matrices antihermitiennes. Mais cela n’est pas possible, en vertu du résultat bien connu
suivant : un polynôme P ∈ C[X1 , . . . , Xn ] qui s’annule en tout point d’un ouvert non-vide
de Rn est nul. (Il faut ici remarquer que l’espace des matrices antihermitiennes u(n) est une
forme réelle de EndC (V ), c’est-à-dire que EndC (V ) = u(n) ⊕ iu(n).) Notre hypothèse A ( A
est donc absurde. Ainsi A = A.
Écrivons

EndC (Tp V ) ∼
= (T V ) ⊗C (T V )∗ ∼
p p
= V ⊗p ⊗C (V ∗ )⊗p ∼
p
= (V ⊗C V ∗ )⊗p = T (EndC (V )).

206
Dans cet isomorphisme, EndH (Tp V ) correspond à TSp (EndC (V )). D’après la proposition
5.4.1.1, on a EndH (Tp V ) = A = A.
Par ailleurs, Tp V est un B-module complètement réductible d’après le théorème de Maschke,
donc B est égal à son bicommutant d’après le théorème de densité de Jacobson-Chevalley.
L’égalité A = EndH (Tp V ) signifie que A est le commutant de B dans EndC (Tp V ). On en
déduit que B est le commutant de A, c’est-à-dire que B = EndG (Tp V ). 

Appliquant la proposition 1.4.5.3, nous obtenons en fin de compte que Tp V se décompose en


somme directe de ses composantes isotypiques
M p
Tp V = (T V )λ ,
λ

chacune de ces composantes se décomposant sous forme du produit tensoriel d’un A-module
simple par un B-module simple :

(Tp V )λ ∼
= Vλ ⊗C Sλ .

Ici Sλ est une représentation irréductible de H = Sp et Vλ est une représentation irréductible


de G = U(n).
Cette façon d’écrire rend compte de l’existence d’une bijection entre l’ensemble des classes
d’isomorphismes de CG-modules simples apparaissant dans Tp V et l’ensemble des classes
d’isomorphismes de CH-modules simples apparaissant dans Tp V . Par un calcul de caractère,
on peut s’assurer que cette bijection est celle qui nous a conduit à indexer les représentations
de U(n) et de Sp par un même ensemble, à savoir l’ensemble des partitions de poids p et de
longueur ≤ n.
En conclusion, on peut dire que (Tp V )λ est l’ensemble des tenseurs d’ordre p qui présentent
le type de symétrie dicté par le caractère irréductible χλ de Sp . Notamment (Tp V )(p) =
TSp V est l’espace des tenseurs symétriques et (Tp V )(1p ) = TAp V est l’espace des tenseurs
antisymétriques.

207
Références

[1] Frank W. Anderson, Kent R. Fuller, Rings and categories of modules, Graduate Texts in
Mathematics, Vol. 13, Springer-Verlag, 1992.
[2] Maurice Auslander, Idun Reiten, Sverre O. Smalø, Representation theory of Artin alge-
bras, Cambridge studies in advanced mathematics, Vol. 36, Cambridge, 1995.
[3] Nicolas Bourbaki, Algèbre. Chapitre 8 : Modules et anneaux semi-simples, Actualités
scientifiques et industrielles, n° 1261, Hermann, 1958.
[4] Richard Brauer, Über die Darstellung von Gruppen in Galoisschen Feldern, Actualités
scientifiques et industrielles, n° 195, Hermann, 1935.
[5] Daniel Bump, Lie groups, Graduate Texts in Mathematics, Vol. 225, Springer-Verlag,
2004.
[6] Charles W. Curtis, Irving Reiner, Representation theory of finite groups and associative
algebras, Pure and Applied Mathematics, Vol. XI, Interscience Publishers (John Wiley &
Sons), 1962.
[7] Charles W. Curtis, Irving Reiner, Methods of representation theory, with applications to
finite groups and orders, Pure and Applied Mathematics, Wiley-Interscience, 1981 (Vol. I)
et 1987 (Vol. II).
[8] Jacques Faraut, Analyse sur les groupes de Lie, Calvage et Mounet, 2006.
[9] William Fulton, Young tableaux. With applications to representation theory and geometry,
London Mathematical Society Student Texts, Vol. 35, Cambridge University Press, 1997.
[10] Roger Godement, Introduction à la théorie des groupes de Lie, Springer-Verlag, 2004.
[11] Nathan Jacobson, Basic algebra II, W. H. Freeman and Company, 1989.
[12] Alexander Kleshchev, Linear and projective representations of symmetric groups, Cam-
bridge Tracts in Mathematics, Vol. 163, Cambridge University Press, 2005.
[13] Ian G. Macdonald, Symmetric functions and Hall polynomials. Second edition, Oxford
Mathematical Monographs, Oxford University Press, 1995.
[14] Rached Mneimné, Frédéric Testard, Introduction à la théorie des groupes de Lie classiques,
Collection Méthodes, Hermann, 1986.
[15] Hirosi Nagao, Yukio Tsushima, Representations of finite groups, Academic Press, 1989.
[16] Jean-Pierre Serre, Représentations linéaires des groupes finis, Hermann, 1967.
[17] Hermann Weyl, The Classical Groups. Their Invariants and Representations, Princeton
University Press, 1939.

209

Vous aimerez peut-être aussi