Coursm2 2008
Coursm2 2008
Coursm2 2008
Année 2008–2009
INTRODUCTION À LA THÉORIE
DES REPRÉSENTATIONS
Introduction 1
i
2 Théorie élémentaire des anneaux 61
2.1 Anneaux simples et semi-simples artiniens . . . . . . . . . . . . . . . . . . . . . 62
2.1.1 Théorème de Wedderburn-Artin . . . . . . . . . . . . . . . . . . . . . . 62
2.1.2 Anneaux semi-simples artiniens . . . . . . . . . . . . . . . . . . . . . . . 64
2.2 Radical de Jacobson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
2.2.1 Définition du radical de Jacobson . . . . . . . . . . . . . . . . . . . . . . 66
2.2.2 Cas d’un anneau artinien . . . . . . . . . . . . . . . . . . . . . . . . . . 70
2.3 Quelques résultats concernant les modules projectifs et injectifs . . . . . . . . . 74
2.3.1 Cas d’un anneau local . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
2.3.2 Idempotents . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
2.3.3 Modules principaux indécomposables . . . . . . . . . . . . . . . . . . . . 78
2.3.4 Couvertures projectives et enveloppes injectives . . . . . . . . . . . . . . 81
2.4 Blocs d’un anneau artinien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
2.4.1 Idempotents centraux . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
2.4.2 Classes de liaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
3 Algèbres 91
3.1 k-linéarité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
3.1.1 Préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
3.1.2 Algèbres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.1.3 Changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.1.4 Algèbres symétriques et extérieures . . . . . . . . . . . . . . . . . . . . . 96
3.2 Résultats classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
3.2.1 Représentations d’une algèbre . . . . . . . . . . . . . . . . . . . . . . . . 102
3.2.2 Quelques faits sur les algèbres de dimension finie . . . . . . . . . . . . . 104
3.2.3 Représentations et changement de base . . . . . . . . . . . . . . . . . . . 106
3.2.4 Théorèmes de Burnside et de Frobenius-Schur . . . . . . . . . . . . . . . 107
3.2.5 Caractère d’une représentation . . . . . . . . . . . . . . . . . . . . . . . 109
3.2.6 Représentations absolument irréducibles . . . . . . . . . . . . . . . . . . 110
3.2.7 Caractères linéaires d’une algèbre, caractère central d’une représentation 113
3.3 Algèbres séparables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
ii
3.3.1 Complète réductibilité et changement de base . . . . . . . . . . . . . . . 115
3.3.2 Cohomologie de Hochschild . . . . . . . . . . . . . . . . . . . . . . . . . 119
3.3.3 Théorème de Wedderburn-Malcev . . . . . . . . . . . . . . . . . . . . . . 123
3.3.4 Le théorème de réciprocité de Brauer . . . . . . . . . . . . . . . . . . . . 124
iii
5 Représentations du groupe symétrique et du groupe unitaire 177
5.1 L’anneau des fonctions symétriques . . . . . . . . . . . . . . . . . . . . . . . . . 177
5.1.1 Partitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
5.1.2 Sommes d’orbites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
5.1.3 Fonctions élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
5.1.4 Action par multiplication sur les fonctions de Schur . . . . . . . . . . . . 181
5.1.5 L’anneau Λ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
5.1.6 Tableaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
5.2 Représentations du groupe symétrique . . . . . . . . . . . . . . . . . . . . . . . 189
5.2.1 Classes de conjugaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
5.2.2 Sous-groupes de Young . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
5.2.3 L’application caractéristique de Frobenius . . . . . . . . . . . . . . . . . 190
5.2.4 Caractères irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
5.2.5 Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
5.3 Représentations du groupe unitaire . . . . . . . . . . . . . . . . . . . . . . . . . 196
5.3.1 Rappels sur les groupes compacts et sur le groupe unitaire . . . . . . . . 196
5.3.2 Restriction au tore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
5.3.3 Les caractères du tore . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
5.3.4 Les caractères irréductibles de U(n) . . . . . . . . . . . . . . . . . . . . 202
5.3.5 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
5.4 Application : symétrie des tenseurs . . . . . . . . . . . . . . . . . . . . . . . . . 205
5.4.1 Tenseurs symétriques, tenseurs antisymétriques . . . . . . . . . . . . . . 205
5.4.2 Dualité de Schur-Weyl . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
Références 209
iv
Introduction
Ce cours fondamental commence par présenter le langage des modules sur un anneau. Cette
notion se retrouve partout en algèbre moderne, de la géométrie algébrique à la topologie
algébrique, en passant naturellement par la théorie des représentations. Pour simplifier, disons
que les modules sont aux anneaux ce que les actions sont aux groupes. Après un aperçu
des définitions et des constructions de base, nous étudions la structure des modules en les
découpant en morceaux plus ou moins petits. Puis nous regardons une classe particulière de
modules, les modules complètement réductibles, qui sont ceux qui peuvent être reconstitués
à partir de leurs plus petits constituants. Enfin nous définissons le produit tensoriel de deux
modules.
Dans le deuxième chapitre, nous introduisons des outils d’étude des anneaux : radical de
Jacobson et idempotents. Ensuite nous nous lançons dans l’étude d’une classe particulière
d’anneaux, les anneaux semi-simples artiniens. Ils sont caractérisés par le fait que tous leurs
modules sont complètement réductibles. Le théorème de Wedderburn-Artin décrit complète-
ment leur structure : ce sont des produits d’anneaux de matrice à coefficients dans un anneau à
division. (« Anneau à division » est l’appellation officielle pour « corps non-commutatif ».) En-
suite, nous étudions des anneaux artiniens généraux. Cette partie du cours est assez abstraite,
faute de temps pour en développer les applications.
Le troisième chapitre concerne les algèbres. Essentiellement, une algèbre est un anneau conte-
nant un corps, comme par exemple l’anneau des matrices à coefficients dans un corps k. On
peut alors faire varier ce corps, par exemple passer des matrices n × n à coefficients dans R
aux matrices n × n à coefficients dans C. Le point culminant de ce chapitre est le théorème de
Wedderburn-Malcev, qui dit que si A est une algèbre de dimension finie sur un corps k parfait
(disons, de caractéristique nulle), alors on peut casser A en deux morceaux A = B ⊕ J(A),
où B est une sous-algèbre semi-simple de A (un morceau à priori sympathique) et où J(A)
est un idéal nilpotent de A. Cette décomposition généralise la décomposition de Dunford des
endomorphismes d’un espace vectoriel en partie semi-simple plus partie nilpotente.
Avec le quatrième chapitre, nous en arrivons enfin à des problèmes concrets, avec la notion
de représentation de groupes. Notre exposé est assez classique, si ce n’est que nous tirons
partie du vocabulaire mis en place jusque là. Au programme : les représentations des groupes
finis, avec la théorie classique des caractères de Frobenius, Schur et Burnside, et la preuve
du théorème de Burnside qui affirme que tout groupe d’ordre pa q b est résoluble. Puis vient la
notion de représentation induite, un procédé important de construction de représentations. Le
chapitre se clôt sur la théorie de Peter-Weyl, qui affirme que si G est un groupe compact, alors
les coefficients des représentations complexes continues de dimension finie de G fournissent
une base hilbertienne de l’espace L2 (G) des fonctions de carré intégrable sur G pour la mesure
invariante (mesure de Haar).
Nous illustrons toute cette théorie dans le cinquième chapitre sur les exemples classiques du
groupe symétrique et du groupe unitaire. De façon peut-être surprenante de prime abord,
les deux cas peuvent être étudiés à l’aide d’une même combinatoire, celle des partitions, des
tableaux et des fonctions symétriques. Une autre relation entre les représentations du groupe
unitaire et celles du groupe symétrique, sans doute plus directe mais moins explicite, est
apportée par la dualité de Schur-Weyl, dont l’exposé conclut ce cours.
1
1 Modules sur un anneau
Introduction
Un groupe n’existe que quand il agit : ce leitmotiv de tout enseignement de théorie des
groupes résume d’une part les applications de la théorie, d’autre part les deux principales
méthodes d’études des groupes, à savoir les opérations d’un groupe sur un ensemble ou sur
un espace vectoriel. L’idée est d’obtenir des renseignements sur un groupe abstrait à partir
des groupes symétriques et des groupes linéaires, qui sont concrets et prétendument bien
connus. De façon analogue, une méthode fructueuse d’étude d’un anneau, commutatif ou non,
consiste à examiner ses actions sur un groupe abélien. Une telle action s’appelle un module
sur l’anneau. La pertinence de cette méthode vient de ce qu’on remplace un objet quadratique
(la multiplication dans un anneau est bilinéaire) par des objets linéaires.
L’algèbre linéaire, vue comme l’étude des espaces vectoriels, est le cas particulier de la théo-
rie des modules quand l’anneau est un corps. Nous retrouverons du reste quelques outils et
concepts de l’algèbre linéaire dans la théorie des modules. Mieux : la donnée d’un espace vec-
toriel de dimension finie sur un corps k muni d’un endomorphisme est équivalente à la donnée
d’un k[X]-module artinien et noethérien. Toute la théorie de la réduction des endomorphismes
se trouve ainsi englobée dans l’étude des k[X]-modules, ce qui explique à posteriori l’impor-
tance donnée aux sous-espaces stables et aux polynômes d’endomorphismes. Continuant ainsi,
on peut ramener la réduction simultanée d’une famille d’endomorphismes sur un espace vec-
toriel à l’étude des modules sur une algèbre. Un cas particulier de ceci est l’action d’un groupe
sur un espace vectoriel, appelée représentation linéaire du groupe.
L’ensemble des modules sur un anneau et des homomorphismes de modules forme ce qu’on
appelle une catégorie abélienne. C’est là le domaine des suites exactes courtes et longues,
de la chasse au diagramme et de l’abstract nonsense, des résolutions et de l’algèbre homolo-
gique, de la théorie basculante et des équivalences de catégories dérivées. Ces outils, parmi les
plus puissants en algèbre aujourd’hui, n’ont malheureusement pas leur place dans un cours
d’introduction.
3
Anneau opposé : soit A un anneau. On désigne par Aop l’anneau opposé à A : il a le même
groupe additif sous-jacent que A, mais le produit ab dans Aop de deux éléments a et b est égal
au produit ba calculé dans A.
Idempotent : un élément e d’un anneau A est appelé idempotent s’il est non-nul et si e2 = e.
Alors eAe = {x ∈ A | x = xe = ex} est un anneau, de neutre e.
Anneau à division : un anneau A est dit à division si A× est l’ensemble des éléments non-nuls
de A. On parlait jadis de « corps non-commutatif ».
Anneau local : un anneau A est dit local si l’ensemble A \ A× des éléments non-inversibles est
un idéal bilatère.
L’anneau nul, réduit au seul élément 0, n’est ni local, ni un anneau à division. C’est le seul
anneau dans lequel 0 est inversible.
Anneau de matrices : soit A un anneau et n un entier strictement positif. L’ensemble des
matrices carrées n × n à coefficients dans A est un anneau, noté Matn (A). Attention : les trois
anneaux Matn (Aop ), Matn (A) et Matn (A)op ont même groupe additif sous-jacent mais ont
des produits différents.
La définition d’anneau local adoptée ci-dessus est commode pour la preuve du théorème de
Krull-Schmidt 1.2.2.6. La notion peut cependant être présentée de façon différente ; d’autres
caractérisations sont ainsi données dans la proposition 2.3.1.1.
Exercices.
(1) Soit e un idempotent d’un anneau A, de sorte que eAe est un anneau de neutre multi-
plicatif e. Alors pour tout idéal bilatère I de A, l’ensemble eIe est un idéal bilatère de
eAe et eIe = I ∩ eAe. Tout idéal bilatère de eAe est de cette forme.
(2) Soient A un anneau et n un entier strictement positif. Les idéaux bilatères de Matn (A)
sont de la forme Matn (I), où I est un idéal bilatère de A.
La tâche d’insérer la phrase « Soit A un anneau » devant la plupart des énoncés suivants est
laissée au lecteur.
A-module : un A-module à gauche est un groupe abélien M muni d’une opération externe de
A de sorte que pour tous a, b ∈ A et tous m, n ∈ M , on ait
4
On note HomA (M, N ) l’ensemble des homomorphismes de A-modules de M dans N ; c’est
un sous-groupe de HomZ (M, N ). Pour M = N , on note EndA (M ) = HomA (M, M ) ; c’est un
sous-anneau de EndZ (M ).
Exemples.
(1) A = Z. Un groupe abélien est un Z-module, et réciproquement. La notation HomZ (M, N )
n’est pas ambiguë.
(2) A est un corps k. Un A-module est la même chose qu’un k-espace vectoriel.
(3) A = k[X], où k est un corps. Un A-module est la donnée d’un k-espace vectoriel E
muni d’un endomorphisme u : l’action d’un polynôme P ∈ k[X] sur un vecteur x ∈ E
est P (u)(x). Un homomorphisme du k[X]-module donné par le couple (E, u) dans le
k[X]-module donné par le couple (F, v) est une application k-linéaire f : E → F telle
que v ◦ f = f ◦ u.
5
En rang infini, le plus simple est de considérer un idéal maximal m de A. Si I et J sont
deux ensembles, un isomorphisme de A-modules entre A(I) et A(J) induit un isomorphisme
de A/m-espaces vectoriels entre A(I) /mA(I) ∼= (A/m)(I) et A(J) /mA(J) ∼
= (A/m)(J) . On s’est
alors ramené au cas des espaces vectoriels sur un corps.)
Module 0.
Y
Produit Mt et coproduit (somme directe externe)
t∈T
( )
a Y
Mt = (mt ) ∈ Mt mt = 0 sauf pour un nombre fini d’indices
t∈T t∈T
d’une famille (Mt )t∈T de modules. La somme de deux éléments et l’action d’un élément de
Yse calculent composante para
A composante. On dispose d’homomorphismes canoniques pu :
Mt → Mu et iu : Mu → Mt pour u ∈ T ; pu donne la u-ième composante d’un T -
t∈T t∈T
uplet appartenant au produit, iu envoie un élément m de Mu sur le T -uplet comportant des
0 partout, sauf à la position u où on trouve m. Les applications
! !
' '
Y Y a Y
HomA N, Mt → HomA (N, Mt ) HomA Mt , N → HomA (Mt , N )
et
t∈T t∈T t∈T t∈T
f 7→ (pt ◦ f )t∈T g 7→ (g ◦ it )t∈T
sont des isomorphismes de groupes abéliens ; de fait, on vérifie sansQpeine que ces homo-
morphismes Q admettent des bijections réciproques, qui à (ft )t∈T ∈ t∈T HomA (N, Mt ) et
(gt )t∈T ∈ t∈T HomA (Mt , N ), associent respectivement
! ! !
Y X a
n 7→ (ft (n))t∈T ∈ HomA N, Mt et (mt )t∈T 7→ gt (mt ) ∈ HomA Mt , N .
t∈T t∈T t∈T
Remarques.
(1) Il est fréquent d’écrire plutôt que . Cet abus de notation ne prête quasiment jamais
L `
à confusion.
(2) Le module A(I) du paragraphe précédent est le coproduit i∈I A A d’une famille de
`
copies du module à gauche régulier. Dans ce cadre, le second isomorphisme de groupes
abéliens ci-dessus redonne l’isomorphisme HomA (A(I) , M ) ∼
= M I du paragraphe précé-
dent.
6
Exemples.
(1) Les sous-modules du A-module à gauche régulier A A sont les idéaux à gauche de A.
(2) Soit E un espace vectoriel sur un corps k. La donnée d’un endomorphisme u de E définit
une structure de k[X]-module sur E. Un sous-k[X]-module de E est un sous-espace de
E stable par u ; la structure de k[X]-module sur E/F est définie par l’endomorphisme
que u induit sur E/F .
(3) Combinant les deux exemples précédents, considérons un corps k et un polynôme uni-
taire P = a0 + a1 X + · · · + an−1 X n−1 + X n de degré n à coefficients dans k. Le k[X]-
module E = k[X]/(P ), quotient du module régulier, est le k-espace vectoriel E muni de
l’endomorphisme u donné par la multiplication par X. Dans la base (1, X, . . . , X n−1 ),
la matrice de u est la matrice compagnon de P
0 . . . . . . 0 −a0
.. ..
. .
1 −a1
. . . . .. .. .
0 . . . .
.. . . . .
. . . 0 −an−2
0 . . . 0 1 −an−1
7
Soit M un A-module, soit (Mi )i∈I une famille de sous-modules de M . On dispose alors d’ho-
momorphismes canoniques
a Y
Mi → M M→ M/Mi
et .
i∈I i∈I
P
(mi )i∈I 7→ i∈I mi m 7→ (m + Mi )i∈I
La somme des Mi , notée i∈I Mi est l’image du premier homomorphisme ; l’intersection des
P
Mi est le noyau du second ; la somme et l’intersection des Mi sont donc des sous-modules de
M . OnLdit que les Mi sont P en somme directe si le premier homomorphisme est injectif ; on écrit
alors i∈I Mi plutôt que i∈I Mi . Pour que M soit la somme directe de deux sous-modules
M 0 et M 00 , il faut et il suffit que M 0 ∩ M 00 = 0 et que M 0 + M 00 = M ; on dit alors que M 0
et M 00 sont supplémentaires l’un de l’autre. Un sous-module possédant un supplémentaire est
appelé facteur direct (direct summand en anglais).
Théorème de factorisation : un homomorphisme f : M → N de A-modules se factorise en
f
M / N.
=
$
M/ ker f
' / im f
est dite exacte en Mi si im fi = ker fi+1 . On a alors fi+1 ◦ fi = 0. Elle est dite exacte si elle
est exacte en M1 , en M2 , ..., et en Mn−1 .
f g
Suite exacte courte : une suite exacte courte est une suite exacte de la forme 0 → L −
→M →
−
N → 0. On a ainsi f injective, g surjective, L ∼
= ker g, N ∼= coker f , im f = ker g.
f g
1.1.3.1 Proposition. Étant donnée une suite exacte courte 0 → L −
→M →
− N → 0, les
trois conditions suivantes sont équivalentes :
(i) im f (= ker g) possède un supplémentaire.
(ii) Il existe h ∈ HomA (M, L) tel que h ◦ f = idL .
(iii) Il existe k ∈ HomA (N, M ) tel que g ◦ k = idN .
8
Preuve. Montrons d’abord que (i) entraîne (ii) et (iii)). Supposons (i). Il existe donc un sous-
module X dans M tel que M = X ⊕ im f . Alors la restriction de g à X est un isomorphisme
de X sur N . La composée k de l’inverse de cet isomorphisme avec l’injection de X dans M
vérifie g ◦ k = idN . Cela montre (iii). Par ailleurs, f induit un isomorphisme entre L et im f .
En composant l’inverse de celui-ci par la projection de M sur im f parallèlement à X, on
obtient un homomorphisme h de M sur L tel que h ◦ f = idL . Cela montre (ii).
Réciproquement, supposons (ii). Il existe donc h ∈ HomA (M, L) tel que h ◦ f = idL . Je dis
qu’alors M = ker h ⊕ im f . L’égalité ker h ∩ im f = 0 vient du fait que tout élément x dans
cette intersection s’écrit f (y) avec y ∈ L, puis alors que 0 = h(x) = h ◦ f (y) = y, de sorte
que x = f (0) = 0. L’égalité M = ker h + im f vient de ce que tout élément x de M s’écrit
x = f ◦ h(x) + (x − f ◦ h(x)), avec x − f ◦ h(x) ∈ ker h. Bref on a bien M = ker h ⊕ im f , ce
qui entraîne (i).
Il reste à montrer que (iii) entraîne (i), autrement dit que l’existence d’un k ∈ HomA (N, M )
tel que g ◦ k = idN entraîne celle d’un supplémentaire X de ker g dans M . Pour voir cela, on
constatera qu’avec les notations ainsi mises en place, on a M = ker g ⊕ im k.
Une suite exacte courte qui satisfait les hypothèses de la proposition est dite scindée.
Toute suite exacte se casse en suites exactes courtes. La méthode pour le faire est d’introduire
f N
les noyaux et les conoyaux des homomorphismes de la suite exacte L −
→ M −→ de départ,
comme sur le diagramme suivant :
f g
L / 9/ N
9M
% % L/ ker f ∼
= im f = ker g
L/ ker f M/ ker g avec
9 8 M/ ker g = coker f ∼
= im g.
% %
0 0 0
0 → L/ ker f → M → M/ ker g → 0,
que l’on peut compléter aux bords par les deux suites
0 → ker f → L → L/ ker f → 0
0 → M/ ker g → N → coker g → 0.
En partant d’une suite exacte comportant n + 2 modules, le même procédé fournit n suites
exactes courtes, plus toujours les deux au bord.
Exercices.
(1) Soit (Mt )t∈T une famille finie de modules sur un anneau A. Appelons M la somme di-
recte externe des (Mt ) ; elle vient avec des homomorphismes it : Mt → M de A-modules.
Comme M est aussi le produit des (Mt )t∈T , on dispose également d’homomorphismes
canoniques pt : M → Mt .
9
(i) Vérifier les relations pt ◦ it = idMt , pt ◦ iu = 0 si t 6= u, ◦ pt = idM .
P
t∈T it
(ii) Montrer que réciproquement, si M 0 est un A-module, s’il existe des homomorphismes
i0t : Mt → M 0 et p0t : M 0 → Mt vérifiant les mêmes relations entre eux que les it et les
pt du (a), alors il existe un unique isomorphisme θ : M → M 0 rendant commutatif
pour tout t le diagramme
it 5M pt
)
Mt θ
5 Mt .
i0t
( p0t
M0
(2) Soit M un A-module. Supposons que M soit la somme directe d’une famille finie (Mi )i∈I
de sous-modules de M . Pour i ∈ I, notons ei : M → Mi la projection sur Mi parallè-
lement à j6=i Mj ; autrement dit ei (m) est nul si m appartient à un Mj avec j 6= i et
P
0 /L /M /N /0
f g h
0 / L0 / M0 / N0 /0
Montrer que si, parmi les trois homomorphismes f , g et h, deux sont des isomorphismes,
alors le troisième est aussi un isomorphisme.
(4) (Lemme du serpent) On considère un diagramme commutatif d’homomorphismes de
A-modules de la forme suivante, où les deux lignes forment des suites exactes :
L
u /M v /N /0
f g h
0 / L0 / M0 / N 0.
u0 v0
(Indication : les deux premières flèches sont induites par u et v ; les deux dernières par
u0 et v 0 . Soit x ∈ ker h ; on peut écrire x = v(y), avec y ∈ M ; il existe alors un unique
z ∈ L0 tel que u0 (z) = g(y). On vérifie que la classe z + im f ne dépend que de x et pas
du choix de y, ce qui autorise à poser δ(x) = z. L’homomorphisme δ étant ainsi défini,
il faut vérifier que la suite obtenue est exacte. C’est longuet, mais ne présente pas de
difficulté particulière. Note : δ est appelé homomorphisme de liaison.)
(5) Soient deux homomorphismes g : M → N et g : M0 → N de A-modules. Appelons
0 0
10
dans M ⊕ M 0 avec les surjections de ce dernier sur M et M 0 , et ainsi d’un diagramme
commutatif appelé « pullback »
f
L /M
f0 g
M0 / N.
g0
X
h /M
h0 g
M0 /N
g0
X
h
!
L /( M
h0 f
f0
M0 / N.
(ii) Montrer que f 0 induit un isomorphisme de ker f sur ker g 0 et que si g 0 est surjectif,
alors f est surjectif.
(6) Soient deux homomorphismes f : L→ M et f : L → M de A-modules. Appelons
0 0
f
N le conoyau de l’homomorphisme : L → M ⊕ M 0 , où la notation matricielle
−f 0
par blocs reflète la décomposition en somme directe du module de droite. Autrement
dit, N est le quotient de M ⊕ M 0 par le sous-module {(f (m), −f 0 (m)) | m ∈ L}. On
dispose alors d’homomorphismes g : M → N et g 0 : M 0 → N obtenus en composant les
injections de M et M 0 dans M ⊕ M 0 avec l’homomorphisme canonique de ce dernier
sur N , et ainsi d’un diagramme commutatif appelé « pushout »
f
L /M
f0 g
M0 / N.
g0
f0 h
M0 /X
h0
11
d’homomorphismes de A-modules, il existe un unique homomorphisme de N dans
X rendant le diagramme suivant commutatif :
L /M
g
g0
M0 /N h
(!
h0
X.
(ii) Montrer que g induit un isomorphisme de coker f sur coker g 0 et que si f est injectif,
alors g 0 est injectif.
(f + f 0 )∗ = f∗ + f∗0 , (f + f 0 )∗ = f ∗ + f 0∗ , (g ◦ f )∗ = g∗ ◦ f∗ et (g ◦ f )∗ = f ∗ ◦ g ∗ .
Foncteur : un foncteur covariant de la catégorie des A-modules dans la catégorie des B-modules
est une règle F attribuant un B-module F (M ) à tout A-module M , et un homomorphisme
F (f ) : F (M ) → F (N ) à tout homomorphisme f : M → N . On demande que F (idM ) = idF (M )
pour tout A-module M , et que pour f et g des homomorphismes, F (g ◦ f ) = F (g) ◦ F (f )
chaque fois que cela a un sens 2 .
Un foncteur contravariant est défini de façon analogue, à ceci près qu’il renverse les flèches. Si
G est un foncteur contravariant, alors l’image par G d’un homomorphisme f ∈ HomA (M, N )
appartient à HomB (G(N ), G(M )). Si la composée g ◦ f de deux homomorphismes f et g a un
sens, alors on demande que G(g ◦ f ) = G(f ) ◦ G(g).
Un foncteur F de la catégorie des A-modules dans la catégorie des B-modules est dit additif
si les applications F : HomA (M, N ) → HomB (F (M ), F (N )) sont des homomorphismes de
groupes. Un foncteur additif envoie le module 0 sur le module 0 (car 0 est le seul module M
pour lequel idM = 0). On montre qu’un foncteur additif respecte les sommes directes (utiliser
l’exercice (1) du paragraphe 1.1.3).
2. La notion de foncteur et de catégorie est bien plus générale que celle exposée ici dans le cadre des modules
sur un anneau. Néanmoins la définition que nous verrons bientôt de foncteur additif n’a de sens que pour des
foncteurs entre des catégories additives, et la notion de foncteur exact est réservée aux foncteurs entre deux
catégories abéliennes. La catégorie des modules sur un anneau A est l’exemple prototypique d’une catégorie
abélienne.
12
Un foncteur additif F est dit exact s’il envoie chaque suite exacte de A-modules sur une suite
exacte de B-modules.
Un foncteur covariant F est dit exact à gauche si l’exactitude de 0 → L → M → N entraîne
celle de 0 → F (L) → F (M ) → F (N ). Un foncteur contravariant G est dit exact à gauche si
l’exactitude de L → M → N → 0 entraîne celle de 0 → G(N ) → G(M ) → G(L). On définit
de façon analogue la notion de foncteur exact à droite.
Exemple. HomA (X, ?) est un foncteur additif covariant de la catégorie des A-modules dans
la catégorie des Z-modules ; notre application f∗ du début du paragraphe doit donc être notée
HomA (X, f ). De manière analogue, HomA (?, Y ) est un foncteur additif contravariant entre les
mêmes catégories ; notre application f ∗ du début du paragraphe doit être notée HomA (f, Y ).
1.1.4.1 Proposition. Soient X et Y deux A-modules. Alors les foncteurs HomA (X, ?) et
HomA (?, Y ) sont exacts à gauche.
f g
Preuve. Partons d’une suite exacte 0 → L − − N . En appliquant le foncteur HomA (X, ?),
→M →
nous obtenons une suite de groupes abéliens
f∗ g∗
0 → HomA (X, L) −→ HomA (X, M ) −→ HomA (X, M )
dont nous voulons voir qu’elle est exacte. L’injectivité de f entraîne celle de f∗ : la vérification
de cette assertion facile est omise. L’égalité g ◦ f = 0 implique que g∗ ◦ f∗ = (g ◦ f )∗ = 0,
d’où im f∗ ⊆ ker g∗ . Il nous reste à montrer l’inclusion opposée. Prenons h ∈ ker g∗ . Dans le
diagramme
X
k
h
f g
0 /L /M / N,
la composée g ◦ h est nulle. Ainsi im h ⊆ ker g = im f . Puisque f réalise une bijection entre
L et im f , il existe pour chaque x ∈ X un unique élément k(x) ∈ L tel que f (k(x)) = h(x).
L’application k, obtenue en composant h avec l’inverse de la restriction de f à son image, est
un homomorphisme de A-modules, et on a h = f∗ (k) ∈ im f∗ . Ceci achève notre preuve de
l’exactitude à gauche de HomA (X, ?). La preuve de l’exactitude à gauche de HomA (?, Y ) est
analogue.
Les foncteurs HomA (X, ?) et HomA (?, Y ) ne sont pas exacts ; on peut le voir en examinant
leur comportement sur la suite exacte courte 0 → Z → Z → Z/mZ → 0 avec A = Z et
X = Y = Z/mZ (la flèche de Z dans lui-même est la multiplication par m).
Exercices.
(1) Soit A un anneau, soit F un foncteur additif covariant de la catégorie des A-modules
vers la catégorie des Z-modules, et soit M un A-module. Montrer que l’application
F : EndA (M ) → EndZ (F (M )) est un homomorphisme d’anneaux et que F (M ) est
muni d’une structure naturelle de EndA (M )-module à gauche.
13
(2) Soient A et B deux anneaux et F un foncteur covariant de la catégorie des A-modules
vers la catégorie des B-modules.
(i) Pour que F soit exact à gauche, il faut et il suffit que pour chaque suite exacte
courte 0 → L → M → N → 0, la suite 0 → F (L) → F (M ) → F (N ) soit exacte.
(ii) Pour que F soit exact à droite, il faut et il suffit que pour chaque suite exacte courte
0 → L → M → N → 0, la suite F (L) → F (M ) → F (N ) → 0 soit exacte.
(iii) Montrer que les conditions suivantes sont équivalentes :
— F est exact.
— F est exact à gauche et exact à droite.
— F envoie toute suite exacte courte sur une suite exacte courte.
(3) Soient A un anneau et L, M , N , P quatre A-modules. Soient f ∈ HomA (L, M ) et
g ∈ HomA (N, P ). Montrer que le diagramme suivant commute
HomA (M,g)
HomA (M, N ) / HomA (M, P )
(Note : on note habituellement HomA (f, g) : HomA (M, N ) → HomA (L, P ) l’application
composée.)
Donnons-nous deux A-modules M et N . On note Ext 1A (M, N ) la classe des suites exactes
courtes de premier et dernier termes N et M , respectivement. Étant donnés deux élements
f g f0 g0
ξ: 0→N − − M → 0 et ξ 0 : 0 → N −→ E 0 −
→E→ →M →0
6E
/N ( / 0.
0 θ 6M
(
E0
14
On munit Ext1A (M, N ) d’une structure de groupe abélien de la façon suivante. Prenons deux
extensions
f g f0 g0
ξ: 0→N − →E→ − M → 0 et ξ 0 : 0 → N −→ E 0 − → M → 0.
Définissons deux sous-modules de E ⊕ E 0 par
Alors la suite
f 00 g 00
ξ 00 : 0 → N −→ E 00 −→ M → 0
est exacte et sa classe d’équivalence ne dépend que des classes d’équivalence de ξ et ξ 0 . Ceci
nous autorise à définir [ξ] + [ξ 0 ] = [ξ 00 ]. On montre aisément que cette opération + (appelée
somme de Baer) est associative et commutative. Il est clair par ailleurs que les suites exactes
courtes scindées forment une classe d’équivalence dans Ext 1A (M, N ), c’est-à-dire un élément
de Ext1A (M, N ) ; cet élément est en fait l’élément neutre pour la structure de groupe abélien
sur Ext1A (M, N ). Enfin l’opposé de [ξ] est la classe de la suite exacte
−f g
0 → N −−→ E →
− M → 0.
ξ : 0 → N → E → M → 0,
on associe les suites exactes f ∗ ξ et g∗ ξ obtenues par des diagrammes pullback et pushout (voir
les exercices (5) et (6) du paragraphe 1.1.3 ) :
f ∗ξ : 0 /N /P / M0 /0
f
ξ: 0 /N /E /M /0
g
g∗ ξ : 0 / N0 /Q /M / 0.
15
Pour finir, considérons une suite exacte courte de A-modules
f g
ξ: 0→L−
→M →
− N →0
dans laquelle l’homomorphisme de HomA (X, N ) dans Ext1A (X, L) (appelé « homomorphisme
de liaison ») est h 7→ Ext1A (h, L)[ξ].
Soit de même Y un A-module. Alors on a une suite exacte longue de groupes abéliens
0 / HomA (N, Y ) HomA (g,Y ) / HomA (M, Y ) HomA (f,Y ) / HomA (L, Y )
dans laquelle l’homomorphisme de HomA (L, Y ) dans Ext1A (N, Y ) est k 7→ Ext1A (N, k)[ξ].
Il serait ici logique d’écrire Ext0 au lieu de Hom. On pourrait alors poursuivre indéfiniment
vers la droite les suites exactes ci-dessus en introduisant des foncteurs additifs ExtiA (X, ?) et
ExtiA (?, Y ) de la catégorie des A-modules vers celle des Z-modules pour i > 1. La construction
la plus simple de ces foncteurs consiste à définir ExtiA (M, N ) comme un ensemble de classes
d’équivalence de suites exactes de la forme
0 → N → Ei → Ei−1 → · · · → E2 → E1 → M → 0 ;
la relation d’équivalence est toutefois un peu plus compliquée à décrire que dans le cas i = 1.
Une seconde méthode, plus commune mais moins concrète, consiste à se placer dans le cadre
général de l’algèbre homologique. On peut vérifier que toutes ces constructions donnent la
même chose, mais c’est assez fastidieux.
Signalons enfin que si L, M et N sont trois A-modules et si i et j sont deux entiers naturels,
alors on dispose d’un « produit de Yoneda » de ExtjA (M, N )×ExtiA (L, M ) dans ExtA i+j
(L, N ).
Concrètement, pour i = j = 0, ce produit est le produit de composition ◦ des homomor-
phismes. Si i et j sont strictement positifs, le produit des classes des deux suites exactes
0 → M → Ei → · · · → E1 → L → 0
0 → N → Fj → · · · → F1 → M → 0
0 /N / Fj / ··· / F1 / Ei / ··· / E1 /L / 0.
>
!
<M
"
0 0
16
(En comparant cette définition avec le diagramme présenté à la fin du paragraphe 1.1.3, on
voit ici que chaque élément de ExtiA (M, N ) s’écrit comme produit d’éléments appartenant à
des Ext1A (X, Y ).) Si i = 0 et j > 0, le produit de [ξ] ∈ ExtjA (M, N ) par f ∈ HomA (L, M )
coïncide avec ExtjA (f, N )[ξ] et est donné par une construction de type pullback. Pour i > 0
et j = 0, le produit de f ∈ HomA (M, N ) par [ξ] ∈ ExtiA (L, M ) coïncide avec ExtiA (L, f )[ξ]
et est donné par une construction de type pushout. Notons L enfin que pour L = M = N , le
produit de Yoneda munit le groupe additif Ext•A (M, M ) = i∈N ExtiA (M, M ) d’une structure
d’anneau N-gradué, le neutre multiplicatif étant idM .
Exercice. On considère la situation donnée par le diagramme suivant dans la catégorie des
A-modules.
X
h
f g
ξ: 0 /L /M /N /0
k
Y
(i) Prouver que Ext1A (h, L)[ξ] = 0 dans Ext1A (X, L) si et seulement s’il existe un homo-
morphisme s : X → M tel que h = gs.
(ii) Prouver que Ext1A (N, k)[ξ] = 0 dans Ext1A (N, Y ) si et seulement s’il existe un homo-
morphisme t : M → Y tel que k = tf .
(Cet exercice demande de vérifier que les suites longues indiquées plus haut sont exactes en
HomA (X, N ) et HomA (L, Y ), respectivement.)
L’intérêt premier de ces notions réside dans leur rôle en algèbre homologique. Je n’aborderai
pas cet aspect des choses.
Modules projectifs : Un A-module P est dit projectif si le foncteur HomA (P, ?) est exact.
`
1.1.6.1 Proposition. Pour qu’un coproduit i∈I Pi de A-modules soit projectif, il faut et
il suffit que chaque facteur Pi soit projectif.
f g
Preuve. Soit L − − N une suite exacte de A-modules. Son image par le foncteur
→M →
!
Pi , ? ∼
a Y
HomA = HomA (Pi , ?)
i∈I i∈I
est de la forme
Q Q
Y i∈I HomA (Pi ,f ) Y i∈I HomA (Pi ,g) Y
HomA (Pi , L) −−−−−−−−−−−→ HomA (Pi , M ) −−−−−−−−−−−→ HomA (Pi , N ).
i∈I i∈I i∈I
17
Pour que cette suite de groupes abéliens soit exacte, il faut et il suffit que chacune des suites
HomA (Pi ,f ) HomA (Pi ,g)
HomA (Pi , L) −−−−−−−→ HomA (Pi , M ) −−−−−−−→ HomA (Pi , N )
soit exacte. Autrement dit, pour que le A-module i∈I Pi soit projectif, il faut et il suffit que
`
chacun des A-modules Pi soit projectif.
1.1.6.2 Proposition. Soit P un A-module. Les cinq assertions suivantes sont équiva-
lentes.
(i) P est un A-module projectif.
(ii) Pour tout épimorphisme g : M → N de A-modules et tout homomorphisme h : P → N ,
il existe k ∈ HomA (P, M ) faisant commuter le diagramme
P
k
h
~
M /N / 0.
g
g
Preuve. Supposons (i) vraie. Dans la situation de (ii), la suite M →
− N → 0 est exacte.
HomA (P,g)
L’assertion (i) dit alors que la suite HomA (P, M ) −−−−−−−→ HomA (P, N ) → 0 est elle aussi
exacte. Ainsi HomA (P, g) est surjectif. L’homomorphisme h est donc l’image par HomA (P, g)
d’un certain homomorphisme k. Cela établit (ii).
Réciproquement, supposons (ii). Pour montrer que le foncteur HomA (P, ?) est exact, il suffit
f g
de montrer que l’image qu’il donne d’une suite exacte courte 0 → L − − N → 0 est une
→M →
suite exacte courte. On sait déjà que
HomA (P,f ) HomA (P,g)
0 → HomA (P, L) −−−−−−−→ HomA (P, M ) −−−−−−−→ HomA (P, N )
est exacte. (ii) donne alors la surjectivité de HomA (P, g) et c’est gagné.
g
Supposons (ii) et considérons une suite exacte courte 0 → L → M → − P → 0. En prenant
N = P et h = idP , le (ii) donne k : P → M tel que g ◦ k = h = idP . C’est une des conditions
qui assure que notre suite exacte courte est scindée. Cela montre (iii).
18
Réciproquement, supposons (iii) vraie et prenons un épimorphisme g : M → N et un homo-
morphisme h : P → N . Nous pouvons introduire le noyau de g et construire le pullback
g0
L /P
h0 h
0 / ker g /M / N.
g
L’intérêt des modules projectifs est qu’ils offrent les mêmes facilités que les modules libres, avec
en outre la propriété d’être stables par passage aux facteurs directs. La proposition suivante
dit que dans un module projectif, il est parfois possible de raisonner comme s’il y avait un
système de coordonnées.
Preuve. Supposons que P soit projectif. Soit (ei )i∈I une famille génératrice du A-module P .
L’homomorphisme g : (ai )i∈I 7→ i∈I i ei de A
(I) dans P est surjectif. La condition (iii)
P
a
g
de la proposition 1.1.6.2 dit que la suite 0 → ker g → A(I) → − P → 0 est scindée, d’où un
homomorphisme k : P → A(I) tel que g ◦ k = idP . Les homomorphismes ei : P → A définis
par l’égalité k(x) = (ei (x))i∈I pour tout x ∈ P vérifient les conditions requises.
Réciproquement, supposons avoir deux familles (ei ) et (ei ) comme dans l’énoncé. On définit
deux homomorphismes g : A(I) → P et k : P → A(I) de la façon suivante : on pose g (ai )i∈I =
19
Signalons enfin qu’il y a des anneaux sur lesquels tout module projectif de type fini est libre :
c’est le cas des anneaux locaux (voir le paragraphe 2.3.1) ou des anneaux de polynômes en un
nombre fini d’indéterminées à coefficients dans un corps (théorème de Quillen-Suslin).
Modules injectifs : Un A-module Q est dit injectif si le foncteur HomA (?, Q) est exact.
Q
1.1.6.4 Proposition. Pour qu’un produit i∈I Qi de A-modules soit injectif, il faut et il
suffit que chaque facteur Qi soit injectif.
Preuve. La preuve est identique à celle de la proposition correspondante pour les modules
projectifs, à ceci près qu’on remplace coproduit par produit et qu’on utilise l’isomorphisme de
foncteurs !
Qi ∼
Y Y
HomA ?, = HomA (?, Qi ).
i∈I i∈I
1.1.6.5 Proposition. Soit Q un A-module. Les cinq assertions suivantes sont équiva-
lentes.
(i) Q est un A-module injectif.
(ii) Pour tout monomorphisme f : L → M de A-modules et tout homomorphisme h : L →
Q, il existe k ∈ HomA (M, Q) faisant commuter le diagramme
f
0 /L /M
h
~ k
Q.
Preuve. La preuve de l’équivalence des assertions (i), (ii), (iii) et (iv) est semblable à ce qui a
été vu plus haut pour les modules projectifs et est omise.
(v) est le cas particulier de (ii) quand f est l’injection de l’idéal à gauche I dans A ; donc (ii)
implique (v). Réciproquement, supposons (v) et montrons (ii). Plaçons-nous dans la situation
de (ii), à ceci près qu’on identifie L au sous-module f (L) de M . Soit M l’ensemble des couples
(N, k) où N est un sous-module de M contenant L et k : N → Q est un homomorphisme
prolongeant h. On écrit (N, k) 4 (N 0 , k 0 ) si N ⊆ N 0 et si k 0 prolonge k ; ainsi 4 est un ordre
partiel sur M . Certainement M est non-vide car il contient (L, h).
L’ensemble ordonné M S est inductif. De fait, si N est une partie non-vide totalement ordonnée
de M , on pose P = (N,k)∈N N et on définit q : P → Q en recollant les homomorphismes
k : N → Q. On vérifie sans difficulté que (P, q) est un majorant de N dans M .
20
D’après le lemme de Zorn, M admet donc un élément maximal, disons (N, k). Soit x ∈ M .
L’ensemble I = {a ∈ A | ax ∈ N } est un idéal à gauche de A. L’homomorphisme de A-modules
ñ : a 7→ k(ax) de I dans Q se prolonge en un homomorphisme k̃ de A dans Q. En combinant
k et k̃, on obtient un prolongement k 0 de k au sous-module N 0 = N + Ax de M . (Chaque
élément n0 ∈ N 0 s’écrit n + ax avec n ∈ N et a ∈ A ; l’élément k 0 (n0 ) = k(n) + k̃(a) est alors
indépendant du choix de la décomposition n0 = n + ax utilisée.) L’inégalité (N, k) 4 (N 0 , k 0 )
et la maximalité de (N, k) conduisent alors à N = N 0 , donc à x ∈ N . Ainsi N = M , ce qui
établit (ii).
Exemple. Soit A un anneau principal. Le (v) de la proposition dit qu’un A-module Q est
injectif si et seulement si il est divisible, c’est-à-dire si et seulement si pour tout a ∈ A et
x ∈ Q, il existe y ∈ Q tel que x = ay. Ainsi les Z-modules Q et Q/Z sont injectifs.
1.1.6.6 Proposition. Tout A-module peut être plongé dans un A-module injectif.
0 → L → P → X → 0 et 0 → L0 → P 0 → X → 0
4. Au niveau des objets, l’isomorphisme s’obtient ainsi, pour tout A-module M : à f dans HomZ (M, E),
on associe m 7→ (a 7→ f (am)) dans HomA (M, HomZ (A, E)) ; à g dans HomA (M, HomZ (A, E)), on associe
m 7→ g(m)(1) dans HomZ (M, E). Cet isomorphisme se comprend mieux en termes de produit tensoriel :
21
avec P et P 0 projectifs, il existe un isomorphisme L0 ⊕ P ∼
= L ⊕ P 0.
(Indication : introduire le diagramme pullback
Y /P
P0 / X,
et en utilisant l’exercice (4) du paragraphe 1.1.3, montrer l’existence de deux suites exactes
0 → L0 → Y → P → 0 et 0 → L → Y → P 0 → 0.)
Module de type fini : un A-module est dit de type fini s’il est engendré par un nombre fini
d’éléments.
Tout quotient d’un module de type fini est de type fini.
Preuve. Soit S ⊆ M une partie finie et génératrice. Certainement L ne contient pas S. Appe-
lons M l’ensemble des sous-modules de M contenant L et ne contenant pas S, et ordonnons
M par la relation usuelle d’inclusion. Alors M est non-vide (il contient L) et inductif.
En effet,
S soit N une partie non-vide totalement ordonnée de M . On vérifie sans difficulté que
P = N ∈N N est un sous-module de M . Si S était inclus dans P , alors chaque élément de
S appartiendrait à un N ∈ N ; puisque S est fini et N totalement ordonnée, on trouverait
alors un N ∈ N contenant tous les éléments de S, en contradiction avec la définition de M .
Ainsi P appartient à M , et il majore évidemment N .
Ayant établi que M est un ensemble ordonné non-vide et inductif, nous pouvons appliquer le
lemme de Zorn et obtenir l’existence d’un élément maximal dans M , autrement dit l’existence
d’un élément maximal parmi les sous-modules stricts de M contenant L.
Module noethérien : un A-module M est dit noethérien si toute suite croissante de sous-
modules de M stationne à partir d’un certain rang.
22
(ii) Soit N un sous-module d’un A-module M . Alors M est noethérien si et seulement si
N et M/N sont noethériens.
(iii) Soit M un A-module et n ∈ N. Si M est noethérien, alors M n est noethérien.
Preuve. (i) Supposons que (b) soit fausse et montrons que (a) l’est aussi. Puisque (b) n’est pas
vraie, il existe un ensemble non-vide N de sous-modules de M n’ayant pas d’élément maximal.
Nous pouvons alors construire par récurrence une suite strictement croissante d’éléments de
N : on prend N0 ∈ N , et supposant N0 , ..., Nn construits, on choisit Nn+1 ∈ N contenant
strictement Nn (cela est possible car Nn n’est pas un élément maximal de N ). Ainsi (a) n’est
pas vraie.
Montrons maintenant que (b) implique (c). Soit N un sous-module de M . Notons N l’en-
semble des sous-modules de N qui sont de type fini. Certainement N est non-vide ; d’après
l’hypothèse (b), il contient donc un élément maximal, disons L. Soit x ∈ N . Le module L étant
de type fini, il en est de même du sous-module L + Ax ; ainsi L + Ax ∈ N . Comme L + Ax
contient L, la maximalité de L dans N force L = L + Ax, et donc x ∈ L. Ceci étant vrai pour
tout x ∈ N , les sous-modules L et N sont égaux. Ainsi N est de type fini. L’assertion (c) est
donc vraie.
Montrons maintenant que (c) entraîne (a). S On suppose (c) vraie. Soit (Nn )n∈N une suite
croissante de sous-modules de M . Alors N = n∈N Nn est un sous-module de M . D’après (c),
N est engendré par un ensemble fini S d’éléments. Chaque élément de S appartient à un Nn ,
et puisque la suite de sous-modules est croissante et que S est fini, il existe un rang n pour
lequel tous les éléments de S appartiennent à Nn . Alors le sous-module N est inclus dans Nn .
Pour p ≥ n, on a alors N ⊆ Nn ⊆ Np ⊆ N . La suite (Nn )n∈N stationne donc à partir du rang
n. L’assertion (a) est établie.
On aurait pu prouver que (b) impliquait (a) directement, sans passer par (c), de la façon
suivante. Supposons (b). Soit (Nn )n∈N une suite croissante de sous-modules de M . L’ensemble
N des sous-modules Nn est non-vide ; il admet donc un élément maximal, disons Nn . Pour
p ≥ n, on a Nn ⊆ Np car la suite est croissante. Comme Nn est un élément maximal de N ,
ceci force Nn = Np . Ainsi la suite (Nn )n∈N stationne à partir du rang n.
(ii) Soit N un sous-module d’un A-module M . Supposons que N et M/N soient noethériens
et montrons que M est noethérien. Soit (Ln )n∈N une suite croissante de sous-modules de
M . Alors (Ln ∩ N )n∈N est une suite croissante de sous-modules de N , donc elle stationne
à partir d’un certain rang. De même, ((Ln + N )/N )n∈N est une suite croissante de sous-
modules de M/N , donc elle stationne à partir d’un certain rang. Pour n assez grand, on a
donc Ln ∩ N = Ln+1 ∩ N et Ln + N = Ln+1 + N . Cela entraîne que l’inclusion Ln ⊆ Ln+1 est
une égalité. (C’est un exercice facile et standard : chaque x ∈ Ln+1 s’écrit y + n avec y ∈ Ln et
n ∈ N ; alors n = x − y ∈ Ln+1 ∩ N , donc n ∈ Ln et finalement x = y + n ∈ Ln .) Bref (Ln )n∈N
stationne à partir d’un certain rang. Nous avons établi que M est noethérien. La preuve de
l’implication inverse (si M est noethérien, alors N et M/N sont noethériens) découle presque
directement des définitions ; la rédaction des détails est laissée au lecteur.
(iii) Pour chaque entier naturel n, on dispose d’une suite exacte courte (et même scindée)
f g
0→M − − M n → 0, où f (m) = (m, 0, . . . , 0) et g(m0 , m1 , . . . , mn ) = (m1 , . . . , mn ).
→ M n+1 →
Un raisonnement par récurrence basé sur l’assertion (ii) permet alors d’établir (iii).
23
Module artinien : un A-module M est dit artinien si toute suite décroissante de sous-modules
de M stationne à partir d’un certain rang.
Module de présentation finie : un A-module M est dit de présentation finie s’il existe une
suite exacte de A-modules de la forme Am → An → M → 0. En d’autres termes, on demande
l’existence d’un système fini de générateurs (mi )1≤i≤n de M pour lequel le sous-module des
relations (c’est-à-dire le noyau de l’homomorphisme An → M qui envoie le i-ème élément de
la base canonique de An sur mi ) est de type fini.
Exemples.
(1) Le Z-module régulier est noethérien mais pas artinien.
(2) Si p est un nombre premier, alors le Z-module Z[ p1 ]/Z est artinien mais pas noethérien.
(Les sous-modules propres de Z[ p1 ]/Z sont les {a/pn + Z | a ∈ Z}, pour n ∈ N ; ils
forment une suite strictement croissante pour l’inclusion.)
Exercices.
(1) Si M est un A-module de type fini, une décomposition en somme directe M =
L
i∈I Mi
n’a qu’un nombre fini de termes non-nuls 6 .
(2) Soient M un A-module et f ∈ EndA (M ). Montrer que si M est noethérien et f est
surjective, alors f est injective. Montrer que si M est artinien et f est injective, alors
f est surjective. (Indication : mimer la preuve du lemme de Fitting ci-dessous.)
24
Preuve. Puisque M est noethérien, la suite croissante de sous-modules (ker f n )n∈N stationne
à partir d’un certain rang. Puisque M est artinien, la suite décroissante de sous-modules
(im f n )n∈N stationne à partir d’un certain rang. Il existe donc deux sous-modules f −∞ (0) et
f ∞ (M ) de M et un entier naturel n tels que ker f p = f −∞ (0) et im f p = f ∞ (M ) pour p ≥ n.
En particulier f −∞ (0) = ker f n = ker f 2n et f ∞ (M ) = im f n = im f 2n .
Montrons que f −∞ (0) ∩ f ∞ (M ) = 0 : si x appartient à l’intersection, alors x s’écrit f n (y), et
l’égalité f n (x) = 0 entraîne que y ∈ ker f 2n = ker f n . Il vient ainsi x = 0.
Montrons que f −∞ (0) + f ∞ (M ) = M : si x appartient à M , alors f n (x) ∈ im f n = im f 2n ,
d’où l’existence d’un y tel que f n (x) = f 2n (y). Ainsi x est la somme d’un élément de ker f n =
f −∞ (0) et de f n (y) ∈ im f n = f ∞ (M ).
La restriction de f à f −∞ (0) est nilpotente puisque f −∞ (0) = ker f n . La restriction de f à
f ∞ (M ) est injective puisque ker f ⊆ f −∞ (0) intersecte trivialement f ∞(M ) ; la restriction de
f à f ∞ (M ) est surjective puisque f n f ∞ (M ) = f n ker f n + f ∞ (M ) = f n (M ) = f ∞ (M ).
Preuve. Pour cette preuve, convenons de dire qu’un module est complètement décomposable
s’il peut s’écrire comme somme directe finie de sous-modules indécomposables.
25
Supposons d’abord M artinien et notons M l’ensemble des sous-modules de M qui ne sont
pas complètement décomposables. Si M est non-vide, il possède un élément minimal N .
Certainement N n’est ni nul, ni indécomposable : on peut donc écrire N = N1 ⊕ N2 , avec N1
et N2 non-nuls. Par minimalité de N dans M , ni N1 ni N2 n’appartiennent à M . Ainsi N1 et
N2 sont complètement décomposables, de sorte que N l’est : contradiction. Ainsi M est vide.
En particulier M est complètement décomposable.
La preuve du cas où M est noethérien est analogue, à ceci près qu’on introduit l’ensemble M
des sous-modules N de M tels que M/N ne soit pas complètement décomposable et qu’on
raisonne en supposant l’existence d’un élément maximal dans M .
Preuve. Notons
ϕ0 : M 0 → M, ϕ00 : M 00 → M, ψ0 : M → M 0, ψ 00 : M → M 00
ψ 0 ◦ is ◦ ps ◦ ϕ0 ◦ χ = idM et ps ◦ ϕ0 ◦ χ ◦ ψ 0 ◦ is = idNs .
Ainsi M = Ns ⊕ M 00 , les homomorphismes pes et ψe00 étant les projections définies par cette
décomposition.
26
1.2.2.5 Proposition. Soient M = M1 ⊕· · ·⊕Mm = N1 ⊕· · ·⊕Nn deux décompositions d’un
A-module en somme directe de sous-modules. On suppose que l’anneau des endomorphismes
de chaque Mi est local et que tous les Ni sont indécomposables. Alors m = n et il existe une
permutation σ de l’ensemble {1, . . . , n} telle que pour chaque i ∈ {1, . . . , n}, on ait Mi ∼
= Nσ(i)
et
M = Nσ(1) ⊕ · · · ⊕ Nσ(i) ⊕ Mi+1 ⊕ · · · ⊕ Mm .
Preuve. La preuve consiste à construire, par récurrence sur ` ∈ {0, . . . , m}, une application
injective σ : {1, . . . , `} → {1, . . . , n} telle que pour chaque i ∈ {1, . . . , `} on ait Mi ∼
= Nσ(i) et
M = Nσ(1) ⊕ · · · ⊕ Nσ(m) = N1 ⊕ · · · ⊕ Nn .
27
Exercices.
(1) Montrer qu’un A-module M dont l’anneau des endomorphismes est local est indécom-
posable. (Indication : supposons que M soit décomposable. L’anneau B = EndA (M )
contient alors un idempotent e 6= 1. Comme e et 1 − e sont tous deux non-nuls, l’équa-
tion e(1 − e) = 0 exclut que e ou 1 − e soit inversible dans B. Ainsi B possède deux
éléments non-inversibles dont la somme est inversible.)
(2) Montrer que tout A-module noethérien peut s’écrire comme somme directe finie de
sous-modules indécomposables. (Compléter la preuve de la proposition 1.2.2.3.)
(3) Soit F un corps fini, de cardinal disons q. On rappelle que pour chaque entier naturel
n, le groupe GLn (F) est d’ordre αn = (q n − 1)(q n − q) · · · (q n − q n−1 ).
(i) Soient k ≤ n deux entiers naturels. Montrer qu’il y a exactement αn /αk αn−k paires
(X, Y ) formées de deux sous-espaces vectoriels supplémentaires de Fn , tels que
dim X = k et dim Y = n − k.
(ii) Pour chaque entier naturel n, on note βn le nombre de matrices nilpotentes dans
Matn (F) (on convient que β0 = 1). Montrer que
n
2
X
βk /αk = q n /αn .
k=0
1.2.3.1 Proposition. Un A-module de type fini est noethérien. Un A-module de type fini
et de torsion est artinien et noethérien.
Preuve. Le A-module régulier A A est noethérien, puisque ses sous-modules, autrement dit les
idéaux de A, sont engendrés par un élément, donc sont de type fini. Il s’ensuit que si n est un
entier naturel, le module libre An est noethérien. Un A-module M de type fini est un quotient
d’un An ; c’est donc un module noethérien.
Soit a un élément non-nul de A. Les sous-modules du A-module A/(a) sont en bijection avec
les idéaux de A contenant (a), donc avec les diviseurs de a, à association près. L’anneau A
28
étant factoriel, a n’a qu’un nombre fini de diviseurs à association près. Ainsi le A-module
A/(a) n’a qu’un nombre fini de sous-modules, ce qui implique qu’il est artinien et noethérien.
Pour tout entier naturel n, le A-module An /aAn , égal au produit de n copies de A/(a), est
donc artinien et noethérien.
Soit M un A-module de type fini et de torsion. Soit (m1 , . . . , mn ) une famille génératrice
finie de M . Pour chaque i ∈ {1, . . . , n} existe un élément non-nul ai ∈ A tel que ai mi = 0.
Alors a = a1 · · · an annule chaque mi , donc annule tous les éléments de M . (Attention : on se
sert ici de la commutativité de A.) L’épimorphisme de A-modules f : An → M qui envoie la
base canonique de An sur (m1 , . . . , mn ) se factorise par An /aAn . Ainsi M est un quotient du
module artinien et noethérien An /aAn ; c’est donc un module artinien et noethérien.
1.2.3.2 Proposition. Un A-module sans torsion de type fini est isomorphe à un sous-
module d’un module libre de type fini.
Preuve. Soit M un A-module de type fini sans torsion. Soit (mi )i∈I une famille génératrice
finie de M . Soit (mj )j∈J avec J ⊆ I une sous-famille libre maximale : on demande que cette
sous-famille soit une base du sous-module N qu’elle engendre, et que pour chaque mi avec
i 6∈ J, il existe un élément non-nul ai ∈ A tel que ai mi ∈ N . Soit a le produit des ai pour
i ∈ I \ J. Alors l’application m 7→ am est un endomorphisme du A-module M (car A est
commutatif), injectif (puisque M est sans torsion) et à valeurs dans N (par construction).
Ainsi M se trouve réalisé comme sous-module du module libre N .
Sur un anneau non-nul B, un module libre M = ∼ B (I) est de type fini si et seulement si I est
un ensemble fini, d’après l’exercice (1) du paragraphe 1.2.1. Si en outre B est commutatif,
alors l’exercice du paragraphe 1.1.2 montre que le cardinal de I ne dépend que de M , et même
que de la classe d’isomorphisme de M . Ce cardinal s’appelle le rang de M . Deux B-modules
libres sont donc isomorphes si et seulement si ils ont même rang, et un B-module libre est de
type fini si et seulement si son rang est fini.
1.2.3.3 Proposition. Un sous-module d’un A-module libre de rang fini n est libre de rang
fini au plus égal à n 7 .
Preuve. Nous montrons par récurrence sur n que tout sous-module M de An est libre de
rang au plus n. L’assertion est évidemment vraie pour n = 0. Admettons-la pour n − 1 et
montrons-la pour n. Soit M un sous-module de An . Appelons f : An → A l’application n-
ième coordonnée. Alors ker f est un module libre de rang n − 1 ; par hypothèse de récurrence,
ker f ∩ M est donc un module libre de rang au plus n − 1. Par ailleurs, f (M ) est un sous-
module de A, donc est de la forme Aa puisque A est principal ; selon que a est nul ou non,
Aa est libre de rang 0 ou 1. Dans tous les cas, le troisième terme de la suite exacte courte
0 → (M ∩ ker f ) → M → f (M ) → 0 est libre, donc projectif. Cette suite exacte est donc
scindée, de sorte que M = (M ∩ ker f ) ⊕ f (M ) est somme directe de deux modules libres de
rangs au plus n − 1 et 1 : il s’ensuit que M est libre de rang au plus n.
7. On peut en fait montrer que si M est un A-module libre, alors chaque sous-module de M est libre, sans
avoir besoin de l’hypothèse que M est de type fini. Voir par exemple le lemme 15 p. 44 du livre Infinite abelian
groups par Irving Kaplansky, The University of Michigan Press, 1969.
29
Soit M un A-module de type fini. Le module M/ tor M est sans torsion et de type fini. Les deux
propositions précédentes montrent qu’il est libre ; il est donc projectif, ce qui impose à la suite
exacte 0 → tor M → M → M/ tor M → 0 d’être scindée. Ainsi M ∼ = tor M ⊕ (M/ tor M ). Le
problème de la classification des A-modules de type fini à isomorphisme près se subdivise ainsi
en deux études : la classification à isomorphisme près des A-modules de type fini de torsion
et celle des A-modules de type fini sans torsion.
Nous avons vu qu’un A-module de type fini sans torsion est libre ; un tel module est donc
caractérisé à isomorphisme près par son rang. Il nous faut maintenant étudier les A-modules
de type fini de torsion ; le résultat de classification est la proposition 1.2.3.6 à venir.
Dans un anneau principal A, les idéaux premiers non-nuls coïncident avec les idéaux maxi-
maux ; un élément p ∈ A est irréductible si et seulement si l’idéal (p) qu’il engendre est premier
et non-nul.
ann M = {a ∈ A | ∀m ∈ M, am = 0}
30
tout multiple commun de µm0 et de µm00 annule m. Dans l’autre sens, si a annule m, alors
ad0 m0 = −ad00 m00 , et donc
ad0 m0 = (b0 c0 + b00 c00 )ad0 m0 = b0 c0 ad0 m0 − b00 c00 ad00 m00 = ab0 µm0 m0 − ab00 µm00 m00 = 0,
ce qui montre que ad0 est un multiple de µm0 et que ad00 est un multiple de µm00 . Ainsi a est
un multiple commun de c0 et c00 , donc est un multiple de leur produit, lequel est un ppcm de
µm0 et µm00 par construction. Les éléments de A annulant m sont donc les multiples communs
de µm0 et de µm00 : nous avons bien µm = ppcm (µm0 , µm00 ).
Nous pouvons trouver une famille finie (m1 , . . . , mn ) de générateurs de M . Par une récurrence
immédiate, la propriété que nous venons de prouver entraîne l’existence d’un m ∈ M tel que
(µm ) = (µm1 ) ∩ · · · ∩ (µmn ). Le membre de droite de cette égalité est l’ensemble des a ∈ A qui
annulent tous les mi , donc qui annulent tous les éléments de M . Ainsi (µm ) = ann M .
Regardons maintenant l’homomorphisme a 7→ am du A-module à gauche régulier dans M . Son
image est le sous-module Am engendré par m, son noyau est (µm ) = ann M . Nous disposons
ainsi d’une suite exacte courte
0 → A A/ ann M → M → M/am → 0.
Appelons B l’anneau quotient A/ ann M . Le A-module M peut être vu comme un B-module,
car l’homomorphisme de A dans EndZ (M ) définissant la structure de A-module de M se
factorise à travers B ; le sous-module de M engendré par m est le même, qu’on regarde M
comme un module sur A ou sur B. Notre suite exacte peut donc être vue comme une suite
exacte de B-modules
0 → B B → M → M/Bm → 0.
Le lemme 1.2.3.4 entraîne que cette suite est scindée. Donc en tant que B-module, M ∼ =
B B ⊕ (M/Bm), et en tant que A-module, M ∼
=A A/ ann M ⊕ (M/Am). Cela montre que si
∼
M est un A-module indécomposable, alors M = A A/ ann M .
Bref nous avons montré qu’un A-module M de type fini, de torsion et indécomposable est
nécessairement isomorphe à un module A/I, où I est un idéal non-nul de A. De plus, la
donnée de M détermine I, car I = ann M . Il nous reste à vérifier que A/I est indécomposable
si et seulement si I est une puissance strictement positive d’un idéal premier.
La condition est nécessaire. En effet, une variante du théorème des restes chinois dit que si
a = upα1 1 · · · pαnn est la décomposition d’un élément non-nul a ∈ A en produit d’un élément
inversible u et de puissances pαi i d’éléments irréductibles distincts, alors il y a un isomorphisme
de A-modules
A/(a) ∼= A/(pα1 1 ) ⊕ · · · ⊕ A/(pαnn ).
Pour que A/(a) soit un A-module indécomposable, il est donc nécessaire que la décomposition
de a en produit de puissances d’éléments irréductibles fasse intervenir exactement un facteur.
La condition est suffisante. De fait, soit p un idéal premier et n ≥ 1 un entier. Soit B l’an-
neau A/pn . C’est un anneau local, car il possède un unique idéal maximal, à savoir p/pn 8 .
Identifiant le A-module A/pn au B-module régulier, nous obtenons l’égalité EndA (A/pn ) =
EndB (B B) ∼ = B. L’anneau des endomorphismes du module A/pn est donc local : le module
est indécomposable (voir au besoin l’exercice (1) du paragraphe 1.2.2).
8. Un anneau commutatif B est local si et seulement s’il possède un unique idéal maximal. De fait, un
élément b ∈ B est inversible si et seulement si l’idéal (b) est B tout entier, c’est-à-dire n’est contenu dans
31
1.2.3.6 Proposition. Pour chaque A-module M de type fini et de torsion, il existe une
unique suite finie décroissante d’idéaux A 6= I1 ⊇ I2 ⊇ · · · ⊇ In 6= 0 telle que
M∼
= A/I1 ⊕ A/I2 ⊕ · · · ⊕ A/In .
avec p1 , . . . , pm des éléments irréductibles deux à deux non-associés et pour chaque i, αi1 ≥
αi2 ≥ · · · ≥ αini > 0. On convient d’écrire αij = 0 pour j > nij . On pose n = max(n1 , . . . , nm )
α α
et an+1−j = p1 1j · · · pmmj pour 1 ≤ j ≤ n. Alors a1 | a2 | · · · | an , et le théorème des restes
chinois donne
n m n
!
M∼ ∼
M M α M
= A p ij = A/(an+1−j ) = A/(a1 ) ⊕ A/(a2 ) ⊕ · · · A/(an ).
j=1 i=1 j=1
En reprenant ce raisonnement dans l’autre sens, on constate que l’unicité dans la décomposi-
tion de Krull-Schmidt impose l’unicité des idéaux (a1 ), ..., (an ).
1.2.3.8 Remarques.
(1) La voie habituelle pour prouver le théorème de classification des A-modules de type
fini est de passer par l’étude des matrices équivalentes à coefficients dans A ; voir par
exemple le chapitre 3 du livre Basic Algebra I de N. Jacobson. Outre sa simplicité
conceptuelle, cette méthode présente l’avantage d’être algorithmique quand A est un
anneau euclidien. La méthode exposée ci-dessus est inspirée des livres de Curtis et
Reiner ([6], p. 403 ; [7], p. 39).
(2) Un anneau de Dedekind est un anneau commutatif intègre A tel que chaque idéal I de
A est un A-module projectif (utiliser le lemme de la base duale 1.1.6.3 pour voir que
cette condition est équivalente à la définition usuelle : tout idéal fractionnaire de A est
aucun idéal maximal de B. Ceci montre que B × est le complémentaire de l’union des idéaux maximaux de B.
Si B n’a qu’un seul idéal maximal, alors B \ B × est précisément cet idéal maximal, de sorte que B est bien
un anneau local. Réciproquement, supposons B local : alors B \ B × est un idéal qui contient tous les idéaux
maximaux de B ; c’est donc l’unique idéal maximal de B.
32
inversible). Tout anneau principal est un anneau de Dedekind. Les résultats exposés
dans ce paragraphe quand A est un anneau principal restent encore valables quand A est
un anneau de Dedekind, à l’exception de la proposition 1.2.3.3, qui doit être remplacée
par : un sous-module d’un module projectif de type fini est projectif. En combinant
cette assertion avec la proposition 1.2.3.2, on voit qu’un A-module de type fini est
sans torsion si et seulement s’il est projectif. De plus, on montre sans grande difficulté
que tout module projectif de type fini est isomorphe à une somme directe d’idéaux
I1 ⊕ · · · ⊕ Im non-nuls de A, et qu’il existe un isomorphisme I1 ⊕ · · · ⊕ Im ∼
= J1 ⊕ · · · ⊕ Jn
entre deux telles sommes si et seulement si m = n et I1 · · · Im = J1 · · · Jn . Ainsi les
classes d’isomorphisme de A-modules projectifs de type fini sont classifiées par la donnée
d’un entier naturel et d’une classe d’idéaux.
(3) Le théorème appelé parfois « décomposition de Frobenius » dans les cours sur la réduc-
tion des endomorphismes n’est autre que notre proposition 1.2.3.6 appliquée à l’anneau
A = k[X], où k est un corps. Outre la démonstration évoquée dans la remarque (1) ci-
dessus, on trouve souvent dans les manuels une démonstration de l’assertion d’existence
basée sur la dualité des k-espaces vectoriels. Cette approche est en fait équivalente à
celle que nous avons suivie. De fait, prenons un polynôme P ∈ k[X] de degré n et
regardons la k-algèbre B = k[X]/(P ). Appelons λ la forme linéaire sur B qui, à un
élément Q de B, associe le coefficient de X n−1 du reste de la division euclidienne de
Q par P . Alors la forme bilinéaire (f, g) 7→ λ(f g) de B × B dans k est non-dégénérée
(on s’en convainc aisément en examinant sa matrice dans la base (1, X, . . . , X n−1 )).
On peut ainsi identifier B à son dual. La forme particulière (f, g) 7→ λ(f g) de notre
forme bilinéaire montre que la dualité D introduite dans la remarque 3.2.1.1 envoie le
B-module à droite régulier sur le B-module à gauche régulier. Le premier étant projec-
tif, le second est injectif : c’est notre lemme 1.2.3.4, prouvé ici sans utiliser le critère (v)
de la proposition 1.1.6.5.
Exercice. Soit A un anneau commutatif intègre principal. Montrer qu’un A-module de type
fini M est indécomposable si et seulement s’il est isomorphe au A-module régulier ou à un
module de la forme A/pn , où p est un idéal premier et n ≥ 1 est un entier. (Indication : M
est soit de torsion, soit sans torsion, puisque M ∼
= tor M ⊕ (M/ tor M ). Pour montrer que le
A-module régulier est indécomposable, on pourra observer que son anneau d’endomorphismes
EndA (A A) ∼= A ne contient pas d’idempotent autre que 1.)
Nous allons maintenant casser un module en morceaux plus petits que dans le paragraphe 1.2.2,
dans l’espoir que ceux-ci soient plus faciles à classifier que les modules indécomposables. L’in-
convénient est que la connaissance de ces petits morceaux ne suffit en général pas à reconstruire
le module de départ.
Module simple : M est dit simple s’il a exactement deux sous-modules : 0 et lui-même. Ainsi
un sous-module N d’un module M est maximal si et seulement si le quotient M/N est simple.
Un module simple est artinien et noethérien.
33
Soient M un A-module simple et x ∈ M un élément non-nul. Alors l’homomorphisme a 7→ ax
de A sur M est surjectif de noyau un idéal à gauche maximal m de A. Ainsi M ∼
= A/m.
1.2.4.1 Exemples.
(1) Les Z-modules simples sont les groupes abéliens isomorphes à Z/pZ, où p est un nombre
premier.
(2) Plus généralement, si A est un anneau principal, alors les A-modules simples sont les
modules isomorphes à A/p, où p est un idéal premier non-nul de A. (Autrement dit, p
est l’idéal engendré par un élément irréductible de A.) Ces modules sont deux à deux
non-isomorphes (même preuve que pour l’assertion d’unicité de la proposition 1.2.3.5 :
l’idéal p est l’idéal annulateur de tout module isomorphe à A/p).
(3) En particulier, prenons A = k[X], avec k un corps algébriquement clos. Chaque k[X]-
module simple est isomorphe à un module k[X]/(X − a), avec a uniquement déterminé.
Autrement dit, chaque k[X]-module simple est la donnée d’un k-espace vectoriel de
dimension 1 muni d’une homothétie, et le rapport de cette homothétie détermine la
classe d’isomorphisme du k[X]-module.
1.2.4.2 Lemme (Schur). Un homomorphisme entre deux modules simples est soit nul,
soit un isomorphisme. L’anneau des endomorphismes d’un module simple est un anneau à
division.
34
Filtration : une filtration croissante d’un module M est une suite croissante (Mn )n∈Z de sous-
modules de M . On demande que l’union n∈Z Mn soit M tout entier et que l’intersection
S
n soit réduite à 0. On demande parfois que la suite soit en fait finie. Les modules
T
n∈Z M
Mn+1 /Mn sont appelés les facteurs ou les quotients successifs de la filtration.
Gradué associé
L : soit M un module muni d’une filtration (Mn )n∈Z . Le module gradué associé
est gr M = n∈Z Mn /Mn−1 .
Soit N un sous-module d’un module M . Une filtration (Mn )n∈Z de M induit une filtration
(N ∩ Mn )n∈Z sur N et une filtration ((Mn + N )/N )n∈Z sur M/N . On a alors une suite exacte
courte de modules gradués 0 → gr N → gr M → gr(M/N ) → 0 (la preuve de cette assertion
est laissée en exercice).
Raffinement : on dit qu’une filtration (Mn )n∈Z d’un module M raffine une autre filtration
(Nn )n∈Z du même module M s’il existe une application strictement croissante ϕ de Z dans
lui-même telle que Nn = Mϕ(n) pour tout n.
Preuve. Soient (Ms )0≤s≤m et (Nt )0≤t≤n deux filtrations finies d’un même module M . Posons
Ms,t = (Ms ∩ Nt ) + Ms−1 et Nt,s = (Ms ∩ Nt ) + Nt−1 . À s fixé, lorsque t croît de 0 à n, le
sous-module Ms,t croît de Ms−1 à Ms . Ainsi
0 = M0 ⊆ M1 ⊆ M2 ⊆ · · · ⊆ Mm−1 ⊆ Mm = M.
De même, les Nt,s , convenablement ordonnés, sont les termes d’une filtration de M qui raffine
(Nt )0≤t≤n .
Le lemme du papillon dit que pour Ms,t /Ms,t−1 ∼ = Nt,s /Nt,s−1 pour tous entiers strictement
positifs s et t. À réindexation près, nos deux filtrations ont donc même suite de quotients
successifs.
Série de composition : une filtration d’un module dont tous les quotients successifs sont simples
(en particulier, non-nuls) est appelée une série de composition ; une série de composition
n’admet pas de raffinement sans répétition.
35
1.2.4.5 Théorème de Jordan-Hölder. Soit M un A-module artinien et noethérien.
Alors M possède une série de composition. Deux séries de composition de M ont même suite
de facteurs, à permutation et à isomorphisme près.
Preuve. La seule chose qui nous reste à montrer est l’existence d’une série de composition
dans M . Appelons M l’ensemble des sous-modules de M possédant une série de composition.
Cet ensemble est non-vide puisque le sous-module nul appartient à M . Il possède donc un
élément maximal, disons N . Supposons que N 6= M . Alors l’ensemble N des sous-modules
de M contenant strictement N est non-vide puisqu’il contient M . Il possède donc un élément
minimal, disons L. Alors L/N est simple ; comme N possède une série de composition, L en
possède une. Ainsi L ∈ M , ce qui contredit la maximalité de N . Cette contradiction montre
qu’on avait en fait N = M .
Remarque. Certains auteurs parlent de module de longueur finie au lieu de module artinien
et noethérien. On trouvera une preuve du théorème de Jordan-Hölder assez différente de celle
donnée ici dans le chapitre I.1 du livre d’Auslander, Reiten et Smalø [2].
Exercices.
(1) Montrer que les Z-modules artiniens et noethériens sont les groupes abéliens finis.
Montrer que quand k est un corps, les k[X]-modules artiniens et noethériens sont les
k-espaces vectoriels de dimension finie munis d’un endomorphisme.
(2) On dit qu’un A-module artinien et noethérien est unisériel s’il possède une seule série
de composition. Supposons que A soit un anneau principal. Montrer que chaque A-
module artinien, noethérien et indécomposable est unisériel. (Indication : un A-module
artinien et noethérien est de type fini et de torsion ; s’il est de surcroît indécomposable,
il est isomorphe à un A/pn , avec p idéal premier non-nul de A et n ≥ 1 entier. Les
sous-modules de A/pn sont de la forme q/pn , où q est un idéal de A contenant pn .
La décomposition des idéaux de A en produit d’idéaux premiers montre que q est
36
nécessairement de la forme pm , avec 0 ≤ m ≤ n. Ainsi les sous-modules de A/pn
forment un ensemble totalement ordonné pour l’inclusion, ce qui montre que le module
A/pn ne possède qu’une seule série de composition, à savoir
On pourra en outre observer que les quotients successifs de cette série de composition
sont tous isomorphes à A/p, et que l’énoncé de l’exercice est encore vrai si A est un
anneau de Dedekind.)
37
1.2.5.2 Proposition. Les éléments [M ], pour M ∈ S , forment une base du Z-module
G0 (A). Il existe un isomorphisme de groupes abéliens d : G0 (A) → Z(S ) tel que d [M ] =
Preuve. Désignons par p : Z(I ) → G0 (A) la surjection canonique et par i : Z(S ) → Z(I )
l’homomorphisme injectif de groupes abéliens induit par l’inclusion S ⊆ I . D’après la pro-
position 1.2.5.1, l’homomorphisme de groupes abéliens de Z(I ) dans Z(S ) qui envoie (M ) sur
((M : S))S∈S se factorise à travers p, définissant d : G0 (A) → Z(S ) . Nous obtenons ainsi un
diagramme
p
Z(I c) / G0 (A),
i z d
Z(S )
dans lequel d ◦ p ◦ i = idZ(S ) .
Maintenant, un raisonnement par récurrence sur la longueur de M montre que le symbole
[M ] appartient à l’image de p ◦ i. C’est évidemment le cas quand M = 0 ou quand M est
simple, c’est-à-dire quand `(M ) ≤ 1. Supposant `(M ) ≥ 2, il existe une suite exacte courte
0 → L → M → N → 0, avec L et N de longueurs strictement inférieures à `(M ) ; alors les
symboles [L] et [N ] appartiennent à l’image de p ◦ i, donc [M ] = [L] + [N ] aussi. Ceci montre
donc que p ◦ i est surjectif.
On déduit de ce qui précède que d et p ◦ i sont des isomorphismes de groupes abéliens,
réciproques l’un de l’autre. Cela entraîne la proposition.
Exercices.
(1) Montrer qu’il existe un homomorphisme de groupes abéliens de G0 (A) dans Z envoyant
[M ] sur `(M ) pour tout A-module artinien et noethérien.
(2) Soit 0 → M0 → M1 → · · · → Mn → 0 une suite exacte Pnd’homomorphismes entre des
A-modules artiniens et noethériens. Montrer l’égalité i=0 (−1)i [M ] = 0 dans G (A).
i 0
En déduire que ni=0 (−1)i `(Mi ) = 0.
P
(3) Soient M et N deux A-modules artiniens et noethériens. Montrer que pour tout ho-
momorphisme f ∈ HomA (M, N ), on a `(ker f ) − `(coker f ) = `(M ) − `(N ). En
déduire que dans le cas `(M ) = `(N ), un tel homomorphisme f est injectif si et
seulement s’il est surjectif. (Indication : utiliser l’exercice précédent et la suite exacte
0 → ker f → M → N → coker f → 0.)
Nous nous donnons un anneau A quelconque pour toute cette section. Soit M un A-module
artinien et noethérien. Le théorème de Krull-Schmidt dit que quand on casse M en somme
directe de sous-modules indécomposables, les morceaux sont parfaitement déterminés, avec
multiplicité, à l’ordre et à isomorphisme près ; la connaissance de ces morceaux permet de
reconstituer M à isomorphisme près. Le théorème de Jordan-Hölder casse M en morceaux
encore plus petits ; là encore les morceaux sont parfaitement déterminés, avec multiplicité ;
38
mais leur connaissance ne permet en général pas de reconstituer M . Le cas sympathique est
quand ces deux décompositions coïncident, autrement dit, quand les termes indécomposables
de la décomposition de Krull-Schmidt sont des modules simples. On dit alors que le module
M est complètement réductible. Il se trouve qu’on peut faire une étude complète de cette
situation sans même nos hypothèses de finitude habituelles.
1.3.1.1 Théorème. Pour un module M sur un anneau A, les trois conditions suivantes
sont équivalentes :
(i) Le module M est la somme de ses sous-modules simples.
(ii) Il existe une famille de sous-modules simples Mi de M dont M est la somme directe.
(iii) Tout sous-module N de M admet un supplémentaire : il existe un sous-module N 0 de
M tel que M = N ⊕ N 0 .
Un module est dit complètement réductible s’il vérifie les trois propriétés équivalentes de la
proposition ci-dessus.
39
1.3.1.2 Remarque. Pour un module M complètement réductible, il est équivalent d’être
artinien, d’être noethérien, ou d’avoir un nombre fini de termes dans une décomposition en
somme directe de sous-modules simples. De fait, si l’écriture de M en somme directe de sous-
modules simples fait apparaître un nombre infini de termes, alors M n’est ni noethérien, ni
artinien ; si elle ne comporte qu’un nombre fini n de termes, alors une récurrence sur n montre
que M est noethérien et artinien.
Preuve. Observons d’abord que le module régulier ∆ ∆ est simple, car ∆ n’a pas d’idéal à
gauche non-banal. Soit M un ∆-module simple. Prenant un élément non-nul x ∈ M , l’homo-
morphisme a 7→ ax de ∆ ∆ dans M est un isomorphisme d’après le lemme de Schur. Ainsi tout
∆-module simple est isomorphe au module régulier.
Soit M un ∆-module. Pour tout élément non-nul x ∈ M , l’homomorphisme a 7→ ax de ∆ ∆
dans M est non-nul, donc est injectif (puisque ∆ ∆ est simple). Son image, qui est le sous-
module ∆x engendré par x, est donc un module simple. La somme des sous-modules simples
de M est donc M tout entier. Ainsi M est complètement réductible.
Nous pouvons donc écrire M comme somme directe de sous-modules simples. Chacun d’entre
eux étant isomorphe au module régulier, cela signifie que M est libre.
40
1.3.1.5 Proposition. Un module complètement réductible est la somme directe de ses com-
posantes isotypiques.
Preuve. Partons d’un module complètement réductible M et d’une écriture comme somme
directe de sous-modules simples M = L∈X L. Cette décomposition fournit une projection
L
pL : M → L pour chaque L ∈ X. D’après le lemme de Schur, la restriction de pL à un
sous-module simple T de M ne peut être non-nulle que si L et T sont isomorphes. Autrement
dit, T est inclus dans la somme des L ∈ X qui lui sont isomorphes. Ceci entraîne que pour
chaque A-module simple S, la composante isotypique M(S) est la somme des L ∈ X dans cette
classe d’isomorphisme que Le résultat (S)∈S M(S) découle alors immédiatement de
L
S. M =
l’écriture M = L∈X L.
L
Exercices.
(1) Soit M un A-module complètement réductible et N un sous-module de M ; ainsi N et
M/N sont complètement réductibles. Pour chaque A-module simple S, notons M(S) ,
N(S) et (M/N )(S) les composantes S-isotypiques de M , N et M/N , respectivement.
Montrer l’inclusion N(S) ⊆ N ∩ M(S) . En comparant les décompositions
M M
M= M(S) (∗) et N= N(S) ,
(S)∈S (S)∈S
41
A = Matm (k) et M = Matm,n (k). On fait agir A sur M par le produit usuel des matrices.
Il y a un seul A-module simple à isomorphisme près, à savoir k m (nous montrerons cela au
chapitre 2), et M est somme directe de n copies de ce module simple ; la décomposition
consiste évidemment à voir une matrice m × n comme une collection de n vecteurs colonnes.
Dans ce contexte, B = EndA (M ) s’identifie à l’anneau Matn (k)op , agissant par multiplication
matricielle à droite. Alors M est un B-module, et par symétrie, EndB (M ) s’identifie à l’anneau
A. Ainsi A et B sont le commutant l’un de l’autre dans l’anneau EndZ (M ). Ce phénomène
est général dans le contexte des modules complètement réductibles.
en utilisant que f (n) (m) est le n-uplet f (mi ) 1≤i≤n et que f commute à tout élément de
EndA (M ).
Considérons à présent le n-uplet (x1 , . . . , xn ) de l’énoncé et le sous-module
42
les endomorphismes qui commutent avec u (c’est un résultat dû à Wedderburn). Ceci signifie
que l’image de k[X] dans Endk (E) (ou dans EndZ (E)) est égale à son bicommutant. Il n’y a
ici pas besoin de supposer que le k[X]-module E est complètement réductible. On voit ainsi
que la réciproque naïve du théorème de densité serait fausse.
Soit M un A-module.
Le radical de M est l’intersection des sous-modules maximaux de M ; c’est un sous-module
de M noté rad M .
La tête de M est le quotient hd M = M/ rad M (parfois notée top M ).
Le socle de M est la somme des sous-modules simples de M ; c’est un sous-module de M noté
soc M .
1.3.3.1 Propriétés.
(i) La tête d’un module est le plus grand de ses quotients de radical 0.
(ii) Le socle d’un module est le plus grand de ses sous-modules complètement réductibles.
(iii) Un module est complètement réductible si et seulement s’il est égal à son socle ; son
radical est alors réduit à 0.
Preuve. Ces propriétés sont faciles à vérifier. À titre d’exemple, donnons la preuve détaillée de
(i). Soit M un A-module. Les sous-modules maximaux de hd M sont les modules de la forme
L/ rad M , où L est un sous-module maximal de M contenant rad M . La dernière condition
est en fait redondante, chaque sous-module maximal de M contenant rad M . Le radical de
hd M est l’intersection de ces sous-modules L/ rad M ; c’est donc 0, puisque l’intersection des
modules L est rad M . Ainsi la tête de M est bien un quotient de M de radical 0.
Soit maintenant M/N un quotient de M . Si M/N est de radical 0, alors l’intersection des
sous-modules maximaux de M contenant N est égale à N . L’intersection rad M de tous
les sous-modules maximaux de M est donc incluse dans N . Ainsi M/N apparaît comme le
quotient de hd M par N/ rad M . Tout quotient de M de radical 0 est donc un quotient de
hd M : ce dernier est donc le plus grand des quotients de M de radical 0.
1.3.3.2 Proposition.
(i) Si M est un A-module de type fini, alors M = rad M si et seulement si M = 0.
(ii) Si M est un module artinien, alors soc M = 0 si et seulement si M = 0.
(iii) Un module artinien est complètement réductible si et seulement si son radical est 0.
43
Preuve. Soit M un A-module non-réduit à 0. La proposition 1.2.1.1 affirme que si M est de
type fini, alors il existe au moins un sous-module maximal de M , et donc rad M ( M . Cela
prouve (i). La proposition 1.2.1.3 (i) entraîne que si M est artinien non-nul, alors M contient
un sous-module minimal non-nul, lequel est alors simple ; et ainsi soc M 6= 0. Cela prouve (ii).
Il nous reste à prouver (iii). Soit M un module artinien de radical 0. Appelons M l’ensemble
des sous-modules N qui s’écrivent comme intersection finie de sous-modules maximaux de M .
Alors M possède un élément minimal, disons N . Par minimalité, l’intersection de N avec tout
sous-module maximal de M ne peut être strictement incluse dans N . Donc N est inclus dans
chaque sous-module maximal, d’où N ⊆ rad T M = 0. Conclusion : il existe un ensemble fini X
de sous-modules maximaux de M tel que L∈X L = 0.
L’homomorphisme L canonique de M dans L∈X M/L est alors injectif. Puisque X est fini,
Q
Contre-exemple. Le Z-module Z est de radical nul mais n’est pas complètement réductible.
Exercices.
(1) Soient M et N deux modules sur un anneau A. Montrer les égalités rad(M ⊕ N ) =
(rad M ) ⊕ (rad N ) et soc(M ⊕ N ) = (soc M ) ⊕ (soc N ).
(2) Soit M un module artinien. Pour tout sous-module N de M , le quotient M/N est
complètement réductible si et seulement si rad M ⊆ N . Ainsi hd M est le plus grand
quotient complètement réductible de M . (Indication : une des implications est facile ;
pour l’autre, utiliser qu’un quotient d’un module complètement réductible est complè-
tement réductible.)
44
Un sous-module N de M est dit essentiel (ou grand) si pour tout sous-module X 6= 0, on a
N ∩ X 6= 0.
On dit qu’un monomorphisme de A-modules f : N → M est essentiel si tout homomorphisme
g : M → L tel que g ◦ f est injectif est injectif ; cela équivaut à demander que im f soit
essentiel.
Dans certaines circonstances, les conditions nécessaires données dans la proposition sont suf-
fisantes.
Bilk (E × F, G) ∼
= Homk (E, Homk (F, G)) ∼
= Homk (E ⊗k F, G).
45
De plus, il y a des isomorphismes naturels
(E ⊗k F ) ⊗k G ∼
= E ⊗k (F ⊗k G),
(E ⊕ F ) ⊗k G ∼
= (E ⊗k G) ⊕ (F ⊗k G),
E ⊗k (F ⊕ G) ∼
= (E ⊗k F ) ⊕ (E ⊗k G).
Enfin si E 0 et F 0 sont deux autres k-espace vectoriels et si f : E → E 0 et g : F → F 0 sont deux
applications linéaires, on dispose d’une application linéaire f ⊗ g de E ⊗k F dans E 0 ⊗k F 0 .
Nous allons étendre ces résultats au cadre des modules sur un anneau A, fixé pour tout ce
paragraphe. Pour cela, il est agréable d’introduire une dissymétrie.
Module à droite : un A-module à droite est la donnée d’un groupe abélien M et d’un ho-
momorphisme d’anneaux de Aop dans End(M ). On dispose alors d’une opération de A sur
M , qu’on note comme un produit ma, avec m ∈ M et a ∈ A ; pour le produit dans A, on
a alors m(ab) = (ma)b. Un homomorphisme entre deux A-modules à droite M et N est un
homomorphisme de groupes abéliens f : M → N tel que f (ma) = f (m)a pour tout m ∈ M
et tout a ∈ A. Un exemple de A-module à droite est le module régulier AA : c’est le groupe
abélien (A, +) sur lequel les éléments de A agissent par multiplication à droite.
Soit L un A-module à droite et M un A-module à gauche. Soit F le groupe abélien libre
Z(L×M ) . Pour abréger, l’élément e(l,m) de la base naturelle de F correspondant à un couple
(l, m) ∈ L × M sera noté simplement (l, m). Soit F0 le sous-groupe de F engendré par les
éléments de la forme
0 0
(l + l , m) − (l, m) − (l , m),
(l, m + m0 ) − (l, m) − (l, m0 ),
(la, m) − (l, am),
pour (l, l0 ) ∈ L2 , (m, m0 ) ∈ M 2 , a ∈ A. Le Z-module quotient F/F0 est appelé produit tensoriel
de L et M au dessus de A et est noté L ⊗A M . Il vient avec une application (l, m) 7→ l ⊗ m
de L × M dans L ⊗A M , où l ⊗ m est l’image de (l, m) ∈ F dans le quotient F/F0 = L ⊗A M .
Par construction, la famille (l ⊗ m)(l,m)∈L×M d’éléments de L ⊗A M est génératrice.
i p
Preuve. Contemplons la suite exacte courte 0 → F0 → − F → − L ⊗A M → 0 de Z-modules.
Appliquant le foncteur HomZ (?, G), nous obtenons la suite exacte
HomZ (p,G) HomZ (i,G)
0 → HomZ (L ⊗A M, G) −−−−−−−→ HomZ (F, G) −−−−−−−→ HomZ (F0 , G).
46
Ainsi le groupe des homomorphismes de L ⊗A M dans G est le noyau de HomZ (i, G). En
termes plus terre-à-terre, ce verbiage signifie qu’un homomorphisme de F/F0 dans G est la
même chose qu’un homomorphisme h : F → G qui s’annule sur F0 . Dire alors que h s’annule
sur F0 , c’est dire que le noyau de h contient tous les éléments engendrant F0 .
Le Z-module F étant libre, la donnée d’un homomorphisme h : F → G est équivalente
à la donnée de l’image par h de chaque vecteur de la base naturelle de F : l’application
h 7→ (h(l, m))(l,m)∈L×M est un isomorphisme de groupes de HomZ (F, G) sur GL×M . Par
ailleurs, le groupe GL×M est l’ensemble des applications de L × M dans G.
À une application f : L × M → G donnée comme dans l’énoncé de la proposition correspond
donc un homomorphisme h : F → G. Les conditions imposées à f font que h s’annule sur F0 ,
donc se factorise en h = f˜ ◦ p. Cela montre l’existence de f˜. L’unicité de f˜ provient de ce que
les éléments de la forme l ⊗ m engendrent le Z-module L ⊗A M .
Exemples.
(1) Soit M un A-module à gauche. Alors le produit tensoriel A ⊗A M du A-module à droite
régulier AA par M s’identifie naturellement au groupe additif sous-jacent à M . De fait,
la propriété universelle du produit tensoriel (proposition 1.4.1.1), utilisée avec l’appli-
cation f : (a, m) 7→ am de A × M dans M , montre l’existence d’un homomorphisme de
groupes abéliens f˜ : A ⊗A M → M tel que f˜(a ⊗ m) = am pour tout (a, m) ∈ A × M .
Dans l’autre sens, soit g : M → A ⊗A M l’application m 7→ 1 ⊗ m. Cette application
g est un homomorphisme de groupes, car en vertu des relations définissant le produit
tensoriel, nous avons g(m + m0 ) = 1 ⊗ (m + m0 ) = 1 ⊗ m + 1 ⊗ m0 = g(m) + g(m0 ), pour
tout (m, m0 ) ∈ M 2 . Il est manifeste que f˜ ◦ g est l’identité de M . Par ailleurs, g ◦ f˜
est un endomorphisme du groupe abélien A ⊗A M qui fixe chaque générateur a ⊗ m,
puisque 1⊗am = a⊗m dans A⊗A M . Ainsi f˜ et g sont des isomorphismes réciproques.
(2) Soient m et n deux entiers naturels. On note Am c la puissance m-ième du A-module à
droite régulier, que l’on voit comme l’ensemble des vecteurs colonnes de hauteur m à
coefficients dans A. On note Anl la puissance n-ième du A-module à gauche régulier,
que l’on voit comme l’ensemble des vecteurs lignes de longueur n à coefficients dans
A. Par la propriété universelle du produit tensoriel, le produit matriciel f : Am c ×
Anl → Matm,n (A) induit un homomorphisme de groupes abéliens f˜ : Am c ⊗A lA n →
Matm,n (A). En fait, f˜ est un isomorphisme. Pour Pmle montrer, on définit une application
g : Matm,n (A) → Am c ⊗A Al en posant g(M ) = i=1 ei ⊗mi , où ei est le i-ème élément
n
47
prouve alors comme précédemment que g̃ est un isomorphisme. Plus précisément, pour
i, j ∈ {1, . . . , n} et a, b ∈ A, notons ei (a) l’élément de Anl ayant des zéros partout sauf a
à la position i, notons fj (b) l’élément de Anc ayant des zéros partout sauf b à la position
j, et notons E1i (a) la matrice n × n avec des zéros partout sauf un a à la position (1, i).
Soit h l’application a 7→ e1 (1) ⊗ f1 (a) de A dans Anl ⊗Matn (A) Anc . On vérifie aisément
que h est un homomorphisme de groupes et que g̃ ◦ h = idA . Dans l’autre sens, l’égalité
(
e1 (1) ⊗ f1 (ab) si i = j,
ei (a) ⊗ fj (b) = e1 (1)E1i (a) ⊗ fj (b) = e1 (1) ⊗ E1i (a)fj (b) =
0 si i 6= j,
dans Anl ⊗Matn (A) Anc montre que h ◦ g̃ est l’identité du produit tensoriel.
L’application g : m 7→ f (?⊗m) de M dans HomZ (L, G) est donc bien définie. Cette application
g est un homomorphisme de A-modules. En effet, pour tous m, m0 ∈ M et a ∈ A, on calcule
f (l ⊗ (m + m0 )) = f (l ⊗ m + l ⊗ m0 ) = f (l ⊗ m) + f (l ⊗ m0 ),
d’où
g(m + m0 ) = f (? ⊗ (m + m0 )) = f (? ⊗ m) + f (? ⊗ m0 ) = g(m) + g(m0 ).
De même
g(am) = f (? ⊗ am) = (l 7→ f (la ⊗ m)) = af (? ⊗ m) = ag(m).
On définit alors une application F de HomZ (L ⊗A M, G) dans HomA (M, HomZ (L, G)) en
posant g = F (f ), et on vérifie que F est un homomorphisme de groupes.
48
Inversement, soit g un homomorphisme de A-modules de M dans HomZ (L, G). Alors l’ap-
plication h : (l, m) 7→ g(m)(l) de L × M dans G vérifie les hypothèses de la proposition
1.4.1.1. Posant f = h̃, on obtient un homomorphisme de groupes abéliens de L ⊗A M dans
G tel que f (l ⊗ m) = g(m)(l). Posant alors f = G(g), on définit une application G de
HomA (M, HomZ (L, G)) dans HomZ (L ⊗A M, G).
On vérifie que pour tout f ∈ HomZ (L ⊗A M, G), G ◦ F (f ) et f coïncident sur tout élément
de la forme l ⊗ m, donc coïncident sur L ⊗A M . Ainsi G ◦ F = id. On vérifie de même que
F ◦ G = id.
f f0
En présence de suites d’homomorphismes de A-modules à droite L −
→ L0 −→ L00 et à gauche
g g0
M→ − M0 − → M 00 , on a l’égalité (f 0 ⊗ g 0 ) ◦ (f ⊗ g) = (f 0 ◦ f ) ⊗ (g 0 ◦ g) entre homomorphismes de
L ⊗A M et L00 ⊗A M 00 . De fait, les deux homomorphismes situés de part et d’autre dans cette
égalité prennent la même valeur sur chaque élément de la forme l ⊗ m, pour (l, m) ∈ L × M ;
ces éléments engendrant L⊗A M , les deux homomorphismes sont égaux. Par ailleurs, idL ⊗idM
est l’identité de L ⊗A M .
Ceci nous dit en particulier que chaque A-module à gauche Y définit un foncteur covariant
?⊗A Y de la catégorie des A-modules à droite dans la catégorie des Z-modules. À un A-module
à droite L, ce foncteur associe le Z-module L ⊗A Y ; à un homomorphisme f de A-modules
à droite, ce foncteur associe l’homomorphisme f ⊗ idY de Z-modules. On peut ainsi noter
f ⊗A Y au lieu de f ⊗ idY .
Le foncteur ? ⊗A Y est additif. Il en résulte qu’il commute aux sommes directes finies. En fait,
il commute aussi aux sommes directes infinies.
1.4.1.4 Proposition. Soient (Lt )t∈T une famille de A-modules à droite et M un A-module
à gauche. Alors il existe un unique isomorphisme canonique entre les groupes abéliens
!
M M
Lt ⊗A M et Lt ⊗A M
t∈T t∈T
L
qui envoie (lt )t∈T ⊗ m sur (lt ⊗ m)t∈T pour chaque (lt )t∈T , m ∈ t∈T Lt × M.
49
Preuve. Posons L = t∈T Lt . En vertu de la propriété
L universelle du produit tensoriel, l’ap-
L
plication (lt )t∈T , m 7→ (lt ⊗m)t∈T L
de L×M dans t∈T Lt ⊗A M induit un homomorphisme
de groupes abéliens f : L ⊗A M → t∈T Lt ⊗A M . Il s’agit maintenant de démontrer que f
est un isomorphisme.
Pour chaque t ∈ T , notons it : Lt → L l’homomorphisme canonique. La famille des homomor-
phismes it ⊗ idM : Lt ⊗A M → L ⊗A M définit un homomorphisme g : L
L
t∈T Lt ⊗A M →
L ⊗A M . On vérifie que g ◦ f et f ◦ g sont les identités de L ⊗A M et t∈T Lt ⊗A M ,
1.4.1.5 Proposition.
f g
(i) Pour chaque A-module à gauche Y , le foncteur ? ⊗A Y est exact à droite : si L −
→M →
−
N → 0 est une suite exacte de A-modules à droite, alors
f ⊗id
Y Y g⊗id
L ⊗A Y −−−−→ M ⊗A Y −−−−→ N ⊗A Y → 0
Preuve. Plaçons-nous dans les hypothèses de l’assertion (i). L’homomorphisme g étant sur-
jectif, chaque élément de la forme n ⊗ y dans N ⊗A Y est dans l’image de g ⊗ idY . Ces
éléments engendrant N ⊗A Y , nous voyons que g ⊗ idY est surjectif. Par ailleurs, l’égalité
g ◦ f = 0 entraîne que (g ⊗ idY ) ◦ (f ⊗ idY ) = (g ◦ f ) ⊗ idY = 0, ce qui montre l’inclusion
im(f ⊗ idY ) ⊆ ker(g ⊗ idY ).
On définit une application k de N × Y dans coker(f ⊗ idY ) de la façon suivante : étant donné
(n, y) ∈ N × Y , on peut trouver m ∈ M tel que g(m) = n, et on pose k(n, y) = m ⊗ y +
im(f ⊗ idY ). Le point ici est que k(n, y) ne dépend que de n et pas du choix de m : un autre
choix m0 diffère de m par un élément de ker g = im f , de sorte que m0 ⊗ y diffère de m ⊗ y par
un élément de im(f ⊗ idY ). L’application k satisfait aux hypothèses de la proposition 1.4.1.1,
d’où un homomorphisme k̃ de N ⊗A Y dans coker(f ⊗ idY ) tel que k̃(n ⊗ y) = k(n, y) pour
n ∈ N et y ∈ Y . Notons g̃ l’application de coker(f ⊗ idY ) = (M ⊗A Y )/ im(f ⊗ idY ) dans
N ⊗A Y obtenue en factorisant g ⊗ idY . Alors k̃ ◦ g̃ = id. Ainsi g̃ est injectif ; autrement dit, le
noyau ker(g ⊗ idY )/ im(f ⊗ idY ) de ker g̃ est réduit à 0. Cela achève la preuve de l’exactitude
de la suite donnée dans l’énoncé (i).
50
f g
Considérons une suite exacte courte L −
→M → − N de A-modules à droite. La distributivité du
produit tensoriel par rapport à la somme implique que la classe Y des A-modules à gauche Y
pour lesquels la suite
Yf ⊗id Y g⊗id
L ⊗A Y −−−−→ M ⊗A Y −−−−→ N ⊗A Y
est exacte, est stable par somme directe et par passage aux facteurs directs. En outre, le A-
module à gauche régulier appartient à Y , car pour Y = A A, la seconde des suites ci-dessus
s’identifie naturellement à la première. Tout A-module libre est somme directe de modules
isomorphes à A A, donc appartient à Y . Tout A-module projectif est facteur direct d’un module
libre, donc appartient à Y . Ceci établit (ii).
Sous les hypothèses de (iii), il existe une décomposition M = M 0 ⊕ M 00 du terme central de
la suite exacte telle que les applications f et g s’écrivent sous forme de matrices par blocs
f0
0 g 00
0
0 00
0 → L −−−−→ M ⊕ M −−−−−−→ N → 0,
De même, chaque A-module à droite X donne lieu à un foncteur covariant X⊗A ? de la catégorie
des A-modules à gauche dans la catégorie des groupes abéliens. Ce foncteur commute aux
sommes directes, finies ou infinies ; il est exact à droite, et est exact dès que X est projectif.
Pour des détails et une construction explicite du bifoncteur Tor1 (?, ?), je renvoie au cha-
A
pitre V, §7 (et en particulier à l’exercice 1) du livre Homology de Saunders Mac Lane, Die
Grundlehren der mathematischen Wissenschaften, Band 114, Springer-Verlag, 1963.
51
Exercices.
(1) Soient L un A-module à droite et M un A-module à gauche. Soient L0 ⊆ L et M 0 ⊆ M
des sous-modules. On dispose alors des suites exactes courtes
i p j q
0 → L0 → − L/L0 → 0
− L→ et 0 → M0 → − M/M 0 → 0.
− M→
(2) Soit A un anneau commutatif intègre principal. Montrer qu’un A-module Y est sans
torsion si et seulement si le foncteur ? ⊗A Y est exact. (Indication : commencer par
traiter le cas où Y est de type fini, en utilisant qu’un module de type fini sans torsion
sur un anneau principal est libre, puis se ramener à ce cas-là en travaillant avec la
construction du produit tensoriel. Note : le résultat vaut aussi quand A est un anneau
de Dedekind.)
1.4.2.1 Proposition. Soient A et B deux anneaux, dont les neutres multiplicatifs sont
notés 1A et 1B . Soit C = A ⊗Z B le produit tensoriel de leurs sous-groupes additifs sous-
jacents. Il existe une et une seule structure d’anneau sur C pour laquelle le produit de deux
éléments a ⊗ b et a0 ⊗ b0 est aa0 ⊗ bb0 . L’élement neutre pour la multiplication est 1A ⊗ 1B . Les
applications a 7→ (a ⊗ 1B ) et b 7→ (1A ⊗ b) sont des homomorphismes d’anneaux de A dans C
et de B dans C.
pour tous (p, q) ∈ N2 , (ai , bi ) ∈ (A × B)p et (a0j , b0j ) ∈ (A × B)q . On pourra alors définir la
multiplication sur C comme étant cette application. L’associativité, la distributivité, et le fait
que 1A ⊗1B soit un élément neutre pour cette multiplication découleront de calculs immédiats,
de sorte que la proposition
Pp sera établie. LaP difficulté est que pour (s, t) ∈ C 2 , il y a plusieurs
écritures possibles s = i=1 ai ⊗ bi et t = qj=1 a0j ⊗ b0j .
Pour a ∈ A, on note La : A → A la multiplication à gauche par a. Pour b ∈ B, on note
Mb : B → B la multiplication à gauche par b. Ces applications sont des homomorphismes
de Z-modules. Leur produit tensorielLa ⊗ Mb est un endomorphisme du produit tensoriel
Pq Pq
C = A ⊗Z B. En formules, (La ⊗ Mb ) 0 0
j=1 aj ⊗ bj = j=1 aaj ⊗ bbj .
0 0
52
Z B tel que Rt (a ⊗
A ⊗P Pb)q = 0(La ⊗ Mb )(t) pour tout (a, b) ∈ A × B. En formules, pour
p
s = i=1 ai ⊗ bi et t = j=1 aj ⊗ bj , nous avons
0
p
X p X
X q
Rt (s) = Rt (ai ⊗ bi ) = ai a0j ⊗ bi b0j .
i=1 i=1 j=1
Le membre de droite de cette égalité ne dépend donc que de (s, t) ∈ C 2 et pas des écritures
particulières de s et t utilisées.
1.4.2.3 Exemples.
(1) Soient A un anneau, L un A-module à droite, M un A-module à gauche. Pour chaque
(f, g) ∈ EndA (L) × EndA (M ), on a l’égalité entre endomorphismes de L ⊗A M
(f ⊗ idM ) ◦ (idL ⊗ g) = f ⊗ g = (idL ⊗ g) ◦ (f ⊗ idM ).
Cette égalité montre l’existence d’un homomorphisme d’anneaux naturel de EndA (L)⊗Z
EndA (M ) dans EndZ (L ⊗A M ) qui envoie f ⊗ g sur f ⊗ g, pour chaque (f, g) ∈
EndA (L) × EndA (M ). (Il est ici malencontreux que la même notation désigne deux
objets différents ; cette ambiguïté n’a toutefois que peu d’impact.)
(2) Soient A un anneau, L et M deux A-modules à gauche. Pour (f, g) ∈ EndA (L) ×
EndA (M ), on a l’égalité entre endomorphismes de HomA (L, M )
HomA (f, M ) ◦ HomA (L, g) = HomA (f, g) = HomA (L, g) ◦ HomA (f, M ),
d’après l’exercice (3) du paragraphe 1.1.4. (Concrètement, l’image par HomA (f, g) d’un
élément h ∈ HomA (L, M ) est la composée g ◦ h ◦ f .) Nous obtenons ainsi l’existence
d’un homomorphisme d’anneaux de EndA (L)op ⊗Z EndA (M ) dans EndZ (HomA (L, M ))
qui envoie f ⊗ g sur HomA (f, g), pour chaque (f, g) ∈ EndA (L) × EndA (M ).
10. Les homomorphismes de A et B dans A ⊗Z B ne sont pas nécessairement injectifs (voir l’exercice (1)
ci-après pour un exemple), d’où les guillemets autour du mot contenant.
53
Exercices.
(1) Soient m et n deux entiers naturels. Notons d leur plus grand diviseur commun. Montrer
l’existence d’un isomorphisme d’anneaux Z/mZ ⊗Z Z/nZ ∼ = Z/dZ.
(2) Soient B et C deux anneaux, soit L un B-module à gauche et soit M un C-module à
droite. Montrer que L ⊗Z M est naturellement muni d’une structure de B ⊗ C-module
à gauche. (Indication : utiliser l’exemple 1.4.2.3 (1) avec A = Z.)
(3) Soient A et B deux anneaux et m et n deux entiers strictement positifs. Montrer
l’existence d’un isomorphisme Matm (A) ⊗Z Matn (B) ∼ = Matmn (A ⊗Z B).
1.4.3 Bimodules
1.4.3.1 Exemples.
(1) Soit A un anneau. Le groupe additif (A, +) peut être muni d’une structure de A-A-
bimodule, l’action à gauche et à droite de A étant donnée par la multiplication de A.
Le A-A-bimodule ainsi obtenu est appelé le bimodule régulier et est parfois noté A AA .
Son anneau d’endomorphismes s’identifie avec le centre de A : à un endomorphisme f
du bimodule régulier, on associe f (1), qui appartient au centre de A puisque af (1) =
f (a · 1) = f (a) = f (1 · a) = f (1)a pour tout a ∈ A.
(2) Un B-module à droite M est un EndB (M )-B-bimodule. Observant que l’anneau des
endomorphismes du A-module régulier à droite AA est isomorphe à A lui-même (l’iso-
morphisme est a 7→ (b 7→ ab)), nous voyons que l’exemple (1) est un cas particulier de
celui-ci.
(3) Soient L un A-B-bimodule et M un A-C-bimodule. Ainsi L et M sont des A-modules
à gauche et l’on a des homomorphismes d’anneaux de B op dans EndA (L) et de C op
dans EndA (M ), d’où un homomorphisme d’anneaux de B ⊗Z C op dans EndA (L)op ⊗Z
EndA (M ). Par composition avec l’homomorphisme naturel de ce dernier anneau dans
EndZ (HomA (L, M )) présenté dans l’exemple 1.4.2.3 (2), on voit que le groupe abélien
HomA (L, M ) est muni d’une structure de B-C-bimodule. Concrètement, cette structure
est donnée par bf c = (l 7→ f (lb)c) pour b ∈ B, c ∈ C et f ∈ HomA (L, M ).
(4) Soient L un A-B-bimodule et M un B-C-bimodule. Autrement dit, L est un B-module à
droite, M est un B-module à gauche, et on dispose d’homomorphismes d’anneaux de A
dans EndB (L) et de C op dans EndB (M ). On a alors un homomorphisme d’anneaux de
A⊗C op dans EndB (L)⊗Z EndB (M ). Par composition avec l’homomorphisme d’anneaux
de EndB (L) ⊗Z EndB (M ) dans EndZ (L ⊗B M ) présenté dans l’exemple 1.4.2.3 (1), on
obtient une structure de A-C-bimodule sur L ⊗B M . L’action de A et C sur L ⊗B M
est telle que a(l ⊗ m)c = (al) ⊗ (mc) pour a ∈ A, c ∈ C, l ∈ L, m ∈ M .
54
1.4.3.2 Proposition. Soient A, B, C et D quatre anneaux, et soient L un B-module à
droite, M un B-C-bimodule et N un C-module à gauche. Il existe un unique homomorphisme
de groupes abéliens de (L ⊗B M ) ⊗C N dans L ⊗B (M ⊗C N ) qui envoie (l ⊗ m) ⊗ n sur
l ⊗ (m ⊗ n) pour tous l ∈ L, m ∈ M , n ∈ N . Cet homomorphisme est un isomorphisme. Si L
est un A-B-bimodule et N est un C-D-bimodule, alors on a en fait affaire à un isomorphisme
de A-D-bimodules.
Le résultat suivant nous dit que la donnée d’un A-B-bimodule permet de relier la catégorie
des A-modules à la catégorie des B-modules. Sa preuve est laissée en exercice.
Plus précisément, on dispose du foncteur L⊗B ? de la catégorie des B-modules dans la catégorie
des A-modules et du foncteur HomA (L, ?) qui va dans l’autre sens. La terminologie pour
exprimer l’existence de l’isomorphisme HomA (L ⊗B M, N ) ∼ = HomB (M, HomA (L, N )) est de
dire que le premier foncteur est l’adjoint à gauche du second, ou que le second est l’adjoint à
droite du premier.
Quand L est un module projectif de type fini et générateur (en un sens à définir) et B =
EndA (L)op , les deux foncteurs ci-dessus sont des équivalences de catégories. On dit alors avoir
affaire à un contexte de Morita, voir par exemple [7], §3D pour plus davantage de détails sur
cette situation.
Exercices.
(1) Soient A un anneau, M un A-module à gauche, I un idéal bilatère de A. L’anneau A et
le quotient A/I peuvent être vus comme des A-A-bimodules, de sorte qu’on peut former
55
les produits tensoriels A ⊗A M et (A/I) ⊗A M . Montrer l’existence d’un isomorphisme
de A-modules de A ⊗A M sur M envoyant a ⊗ m sur am, pour tout (a, m) ∈ A × M .
Montrer l’existence d’un isomorphisme de A-modules (A/I) ⊗A M ∼ = M/IM .
(2) Démontrer la proposition 1.4.3.3.
de A-B-bimodule sur A pour obtenir une structure de B-module sur V ∼ = HomA (A, V ), soit
en utilisant la structure de B-A-bimodule sur A pour obtenir une structure de B-module sur
V ∼= A ⊗A V . Par ailleurs, soit W un B-module à gauche. La structure de A-B-bimodule sur
A munit indA B W = A ⊗B W d’une structure de A-module à gauche ; la structure de B-A-
bimodule sur A munit coindA B W = HomB (A, W ) d’une structure de A-module à gauche. La
proposition 1.4.3.3 montre qu’on a alors des isomorphismes naturels
∼ ∼
B V ) = HomA (indB W, V ) et
HomB (W, resA A
HomB (resA A
B V, W ) = HomA (V, coindB W ).
savoir coindB .
A
Nous verrons ultérieurement qu’il est parfois possible d’identifier les foncteurs indA
B et coindB ;
A
ce sera notamment le cas dans le cadre des représentations des groupes finis.
Preuve. D’après le lemme de Schur, ∆ est un anneau à division. Le ∆-module à droite est
donc libre, d’après la proposition 1.3.1.3. Choisissons une base (ei )i∈I du ∆-module à droite
S. Alors !
M M
S ⊗∆ T = ei ∆ ⊗∆ T = ei ∆ ⊗∆ T ,
i∈I i∈I
et chaque terme ei ∆ ⊗∆ T de cette somme directe est un B-module isomorphe à ∆ ⊗∆ T , donc
à T . Cela prouve (ii). La preuve de (i) s’obtient de façon analogue, en exploitant le fait que
56
le ∆-module T est libre, somme directe de sous-modules isomorphes au ∆-module à gauche
régulier.
Soit U un sous-bimodule P non-nul du A-B-bimodule S ⊗∆ T . Soit u un élément non-nul de U .
On peut écrire u = i ei ⊗ t0i avec t0i ∈ T , de façon unique ; cette somme ne comporte qu’un
nombre fini de termes non-nuls. Fixons un indice j tel que t0j 6= 0. Soit k ∈ I et t ∈ T . Le B-
module T étant simple, il existe b ∈ B tel que t = t0j b. Soit f ∈ End∆ (S) défini par : f (ei ) = 0
si i 6= j, f (ej ) = ek . D’après le théorème de densité, il existe a ∈ A tel que aei = f (ei ) pour
tous les indices i ∈ I pour lesquels t0i 6= 0. Alors aub = ek ⊗ t. Ainsi ek ⊗ t ∈ U . Tout élément
de S ⊗∆ T étant somme d’éléments de la forme ek ⊗ t, nous avons donc U = S ⊗∆ T . Ainsi
S ⊗∆ T n’a que deux sous-modules, 0 et lui-même. Cela établit (iii).
g ◦ f˜−1 0
M = im f ⊕ X −−−−−−−−−−→ M,
en adoptant une écriture par blocs reflétant la décomposition en somme directe de M . Alors
dans le B-module à droite T , on a f b = b ◦ f = g, ce qui montre que g ∈ U . Ainsi U contient
tous les éléments de T . Nous avons montré que T est un B-module simple.
L’application d’évaluation remplit les conditions pour se factoriser par le produit tensoriel
S ⊗∆ T , puisque l’action de ∆ sur T est donnée par δf = f ◦ δ. On vérifie sans peine que
l’homomorphisme de groupes abéliens ev : S ⊗∆ T → M qui en résulte est un homomorphisme
de A-B-bimodules. Comme le A-module S ⊗∆ T est complètement réductible et isotypique
de type S, l’image de ev est incluse dans la composante S-isotypique de M . Par ailleurs, ev
est injectif car il est non-nul et le A-B-bimodule S ⊗∆ T est simple. Enfin, chaque P élément
y de la composante S-isotypique du A-module M appartient à une somme finieP i∈I Ni de
sous-modules de M isomorphes à S ; écrivant Ni = im fi pour des fi ∈ T et y = i∈I ni pour
des ni ∈ Ni , disons ni = fi (xi ), on arrive à y = ev i∈I xi ⊗ fi . Cela montre que l’image de
P
57
Reprenons le contexte présenté avant l’énoncé de la proposition 1.4.5.2. Le théorème de densité
montre que l’on a presque A = EndB (M ). (Plus précisément, l’homomorphisme d’anneaux de
A dans EndB (M ) est presque surjectif ; le théorème de densité ne dit rien sur l’injectivité.)
Ainsi il y a une certaine symétrie entre A et B. La proposition suivante va plus loin, puisqu’elle
dit que M est complètement réductible non seulement en tant que A-module, mais aussi en
tant que B-module. Mieux : les composantes isotypiques de M sont les mêmes, et cela permet
d’établir une bijection entre l’ensemble des classes d’isomorphisme de A-modules simples et
l’ensemble des classes d’isomorphisme de B-modules simples pouvant être réalisées comme
sous-modules de M . Ainsi M met en relation la théorie des A-modules et celle des B-modules.
1.4.5.3 Proposition. Soit M un A-module. Notons B = EndA (M )op , de sorte que M est
un A-B-bimodule. Si M est complètement réductible en tant que A-module, alors :
(i) En tant que B-module ou que A-B-bimodule, M est complètement réductible.
(ii) Les composantes isotypiques du A-module M sont les sous-A-B-bimodules simples de M .
(iii) Pour tout A-module simple S, la composante S-isotypique du A-module M est égale à
la composante HomA (S, M )-isotypique du B-module M .
(iv) La correspondance S 7→ HomA (S, M ) induit une bijection ϕ de l’ensemble des classes
d’isomorphismes de A-modules simples apparaissant dans M sur l’ensemble des classes
d’isomorphisme de B-modules simples apparaissant dans M .
58
Exercice. Soit M un module complètement réductible sur un anneau A. On pose B =
EndA (M )op ; ainsi M est un B-module à droite complètement réductible. Soient S un A-
module simple, ∆ = EndA (S)op et T = HomA (S, M ). Ainsi ∆ est un anneau à division, S est
un A-∆-bimodule, T est un ∆-B-bimodule, et la composante S-isotypique de M est isomorphe
à S ⊗∆ T . On suppose que T 6= 0 ; on sait qu’alors T est un B-module à droite simple.
(i) Montrer que S̃ = HomB (T, M ) est un A-module simple. (Indication : procéder comme
dans la preuve de la proposition 1.4.5.2, en faisant appel au théorème de densité pour
justifier de pouvoir échanger les rôles de A et B.)
Chaque s ∈ S définit un homomorphisme de B-modules evs : f 7→ f (s) de T dans M . On en
déduit une application ev : S → S̃.
(ii) Montrer que l’application ev : S → S̃ est un isomorphisme de A-modules.
(iii) Montrer que la structure de ∆-B-bimodule sur T définit un isomorphisme d’anneaux
∆∼ = EndB (T ). (Indication : posons ∆0 = EndB (T ). Comme T est un B-module simple,
∆ est un anneau à division. La structure de ∆-B-bimodule sur T définit un homomor-
0
lequel n’est autre que µ ◦ λ. On voit ainsi que λ et µ sont des isomorphismes.)
59
2 Théorie élémentaire des anneaux
Introduction
L’objet de la théorie des représentations est l’étude des modules sur un anneau A donné, lequel
est souvent une algèbre sur un corps (voir le chapitre 3). Il s’agit d’obtenir une classification à
isomorphisme près des modules sur un anneau A, voire une description explicite de ceux-ci. En
général, les modules et les anneaux sont soumis à des conditions de finitude afin d’éviter des cas
trop sauvages. Le théorème de Krull-Schmidt permet de se restreindre à l’étude des modules
indécomposables, mais ceci reste encore souvent un problème très délicat. C’est pourquoi on
commence toujours par essayer d’étudier les modules simples le plus précisément possible.
Nous commençons ce chapitre en étudiant le cas des anneaux jouissant de la propriété a priori
favorable que tous leurs modules à gauche sont complètement réductibles. Un tel anneau est dit
semi-simple. Nous présentons plusieurs caractérisations des anneaux semi-simples et prouvons
le théorème de structure de Wedderburn : un anneau semi-simple est le produit d’un nombre
fini d’anneaux de matrices à coefficients dans un anneau à division.
Le cas des anneaux semi-simples est suffisamment bien compris pour qu’on essaie d’y ramener
d’autres situations. Ainsi pour tout anneau A, on définit un idéal bilatère J(A) appelé le radical
de Jacobson (dit parfois de Perlis-Jacobson) de A. Les A-modules complètement réductibles
sont alors automatiquement des modules sur l’anneau A/J(A). Dans le cas où A est un anneau
artinien à gauche (cette condition signifie que le A-module à gauche régulier est artinien),
la réciproque est vraie, et de plus A/J(A) est semi-simple. La connaissance des A-modules
simples est alors équivalente à l’explicitation de la structure de A/J(A).
Un autre phénomène remarquable se produit quand A est artinien à gauche : l’idéal J(A) est
nilpotent, c’est-à-dire qu’il existe un entier positif n tel que tout produit de n éléments de
J(A) est nul. Ce fait, qui paraît anecdotique, permet d’étudier plus en détail les A-modules
projectifs. Plus précisément, il permet de montrer que tout A-module projectif est somme
directe (éventuellement infinie) de A-modules projectifs indécomposables, que tout A-module
projectif indécomposable est isomorphe à un facteur direct du A-module régulier A A, et qu’il y
a une bijection canonique entre les A-modules simples et les A-modules projectifs indécompo-
sables. Des résultats analogues sont vrais concernant les A-modules injectifs. Ces faits invitent
à élucider la structure des A-modules projectifs ou injectifs indécomposables, par exemple à
déterminer leurs multiplicités de Jordan-Hölder.
Tout ceci n’apporte toutefois que peu de renseignements sur les modules indécomposables. Les
méthodes récentes pour aborder cette question (théorie du basculement, carquois d’Auslander-
Reiten, équivalence de catégories dérivées) sont au-delà du niveau de ce cours. Nous nous
bornerons à expliquer la notion de
Q bloc d’un anneau artinien à gauche A. Il s’agit ici d’écrire
A comme un produit d’anneaux i∈I Bi de la façon la plus fine possible. Il y a unicité d’une
telle décomposition
L et le produit est fini. Chaque A-module M se décompose alors en une
somme directe i∈I Mi , où Mi est un Bi -module annulé par les autres blocs Bj de la décom-
position. L’étude des A-modules est ainsi découplée en l’étude des Bi -modules, séparément
pour chaque i ∈ I.
61
2.1 Anneaux simples et semi-simples artiniens
Preuve. Supposons (i). Soit S un A-module simple (prendre par exemple A = A/m, où m est
un idéal à gauche maximal). L’annulateur de S est un idéal bilatère de A, distinct de A : c’est
donc {0} puisque S est simple. Ainsi S est fidèle et (iii) est vrai.
Supposons (iii). Soit S un A-module simple et fidèle. Soit ∆ = EndA (S)op ; ainsi S est un A-
∆-bimodule. Comme S est un A-module simple, c’est un A-module complètement réductible :
nous pouvons lui appliquer le théorème de densité. Par ailleurs, le lemme de Schur affirme que
∆ est un anneau à division ; la proposition 1.3.1.3 dit alors que S est un ∆-module libre. Soit
donc (ei )i∈I une base du ∆-module S.
Si I était infini, nous pourrions trouver une partie dénombrable dans I, et donc nous pourrions
considérer que I ⊇ N. Pour chaque n ∈ N existerait alors f ∈ End∆ (S) tel que f (e0 ) =
f (e1 ) = · · · = f (en−1 ) = 0 et f (en ) = en . Le théorème de densité nous donnerait alors
62
l’existence d’un élément a ∈ A tel que ae0 = ae1 = · · · = aen−1 = 0 et aen = en . La suite
(Jn )n∈N d’idéaux à gauche dans A définie par
serait alors strictement décroissante, en contradiction avec l’hypothèse que A est artinien à
gauche. Ainsi I est fini.
Nous pouvons supposer que I = {1, . . . , n}. Le lemme de densité nous dit alors que l’homo-
morphisme d’anneaux de A dans End∆ (S) est surjectif. Il est par ailleurs injectif, car son
noyau doit être un idéal bilatère de A, qui est simple. Ainsi A ∼
= End∆ (S) ∼= Matn (∆). (Il
faut ici faire attention que ∆ n’est pas commutatif : l’isomorphisme End∆ (S) ∼ = Matn (∆)
provient de l’isomorphisme S ∼= ∆n de ∆-modules à droite.) Bref (iv) est vrai.
Nous avons vu dans l’exercice (2) du paragraphe 1.1.1 que les idéaux bilatères d’un anneau
Matn (B) étaient de la forme Matn (I), pour I un idéal bilatère de B. Ainsi Matn (∆) est
simple dès que ∆ est un anneau à division. Par ailleurs, le produit matriciel munit S = ∆n , vu
comme l’ensemble des vecteurs colonnes de taille n, d’une structure de module sur l’anneau
Matn (∆). On vérifie directement que S est engendré par n’importe lequel de ses éléments non-
nul, donc qu’il est simple. Regardant une matrice n×n comme la suite de ses vecteurs colonnes,
nous constatons que le Matn (∆)-module à gauche régulier est isomorphe à S n . Comme S est
simple, il est artinien, donc S n est artinien : l’anneau Matn (∆) est donc artinien à gauche.
Un anneau Matn (∆) vérifie donc la condition (i). Nous voyons ainsi que (iv) entraîne (i).
Pour tout anneau B, la transposition des matrices fournit un isomorphisme d’anneaux entre
Matn (B op ) et Matn (B)op . Ainsi un anneau A vérifie la condition (iv) si et seulement si Aop
la vérifie. L’équivalence entre (i) et (iv) précédemment obtenue implique donc l’équivalence
entre (ii) et (iv). Ceci achève la preuve de l’équivalence des quatre assertions.
Supposons que A vérifie les quatre assertions. Soit I un idéal à gauche minimal de A et S un
A-module à gauche simple. L’annulateur de S est un idéal bilatère de A différent de A, c’est
donc {0}. Ainsi I n’annule pas S : il existe x ∈ S tel que l’homomorphisme a 7→ ax de I dans
S soit non-nul. D’après le lemme de Schur, c’est un isomorphisme. Ainsi S est nécessairement
isomorphe à I : il n’y a qu’une seule classe d’isomorphisme de A-module simple.
Si A = Matn (∆), comme dans l’assertion (iv), alors le A-module simple est S = ∆n , vu comme
ensemble de vecteurs colonnes. L’anneau EndA (S)op est alors ∆, agissant par multiplication
à droite coordonnée par coordonnée. L’anneau à division ∆ et l’entier positif n apparaissant
dans (iv) sont donc uniques, à isomorphisme près pour le premier. Enfin, le A-module régulier
est isomorphe à S n , l’isomorphisme consistant à voir une matrice n × n comme la suite de ses
n vecteurs colonnes. Le A-module régulier est donc complètement réductible de longueur n.
Un anneau A vérifiant les quatre assertions de la proposition ci-dessus est appelé anneau
simple artinien (il n’est pas besoin de préciser à gauche ou à droite).
63
Exercices.
(1) Soit A un anneau. Montrer que l’application f 7→ f (1) est un isomorphisme de l’anneau
des endomorphismes du A-bimodule régulier sur le centre Z(A) de A. En déduire que
le centre d’un anneau simple est un corps. (Indication : si f est un endomorphisme du
bimodule régulier, alors af (1) = f (a1) = f (a) = f (1a) = f (1)a pour chaque a ∈ A
et donc f (1) ∈ Z(A). Dans l’autre sens, si b ∈ Z(A), alors l’application a 7→ ab est
un endomorphisme du A-bimodule régulier. On vérifie que ces deux applications sont
des bijections réciproques et que ce sont des homomorphismes d’anneaux. La dernière
question de l’exercice est alors conséquence du lemme de Schur 1.2.4.2.)
(2) Soit ∆ un anneau à division et n ≥ 1 un entier. Montrer que les automorphismes de
Matn (∆) sont les applications A 7→ Sσ(A)S −1 , où σ ∈ Aut(∆) et S ∈ Matn (∆) avec
S inversible.
Le théorème suivant inclut comme cas particulier le fait que tout module sur un anneau simple
artinien est complètement réductible.
64
comme un sous-module d’un module complètement réductible. D’après la proposition 1.3.1.4,
cela entraîne (i).
Supposons à nouveau (i). L’opposé EndA (A A)op de l’anneau des endomorphismes du A-module
à gauche régulier est isomorphe à A, agissant sur A A par multiplication à droite. D’après le
corollaire 1.4.5.3, chaque composante S-isotypique du A-module à gauche régulier est L
un sous-
bimodule simple du A-A-bimodule régulier A. Simplifions la notation en écrivant A = i∈I Bi
pour la décomposition du A-module à gauche régulier en somme directe de ses composantes
isotypiques. Ici les Bi sont des idéaux bilatères minimaux non-nuls et la somme est finie (à
nouveau on utilise l’exercice (1) du paragraphe 1.2.1).
Si i 6= j, alors le produit d’un élément de B
Li par un élément de Bj est nul, car il appartient à
Bi ∩ Bj = 0. Dans la décomposition A = i∈I Bi , le produit s’effectue donc composante P par
composante. Décomposons l’unité multiplicative de A dans cette somme directe : 1 = i∈I εi .
Fixons i ∈ I. Alors pour chaque x ∈ Bi , on a xεj = εj x = 0 pour tout j 6= i, et par différence
avec x1 = 1x = x, on arrive à εi x = xεi = x. Nous concluons que Bi est un anneau, de
neutre multiplicatif εi . La décomposition de A A en ses composantes isotypiques est ainsi un
isomorphisme d’anneaux A = i∈I Bi (le produit se fait composante par composante puisque
Q
le produit d’un élément de Bi par un élément de Bj est nul dès que i 6= j).
Chaque anneau Bi est P simple : soit I un idéal bilatère de Bi ; puisque Bj I = IBj = 0 pour tout
j 6= i, l’égalité A = j∈I Bj montre que I est un idéal bilatère de A ; la minimalité de l’idéal
bilatère Bi entraîne alors que I = 0 ou I = Bi . Par ailleurs (iii) est vraie, donc le A-module à
gauche régulier A A est artinien.Q Chaque sous-module Bi de A A est donc artinien. Compte-tenu
de la structure de produit A = i∈I Bi , cela signifie que pour chaque i, le Bi -module à gauche
régulier est artinien. Ainsi chaque anneau Bi est simple artinien. Cela montre (iv).
Il nous reste à établir que (iv) entraîne (i). Supposons (iv). On écrit A = i∈I , où I est un
Q
ensemble L fini et où chaque Bi est un anneau simple artinien. Ainsi on a une décomposition
AA = i∈I Bi , où chaque Bi peut être vu comme un module sur lui-même ou sur A. Pour
chaque i ∈ I, le Bi -module à gauche régulier est complètement réductible d’après le théo-
rème 2.1.1.1. Alors Bi est encore un module complètement réductible quand on le regarde
comme un A-module. En tant que somme directe de modules complètement réductibles, A A
est complètement réductible. L’assertion (i) est vraie.
Un anneau A vérifiant les quatre assertions du théorème 2.1.2.1 est appelé anneau semi-simple
artinien. Au vu de l’assertion (iv), A est semi-simple artinien si et seulement si Aop l’est, ce
qui rend inutile toute précision du genre anneau semi-simple artinien à gauche.
Notons enfin que la preuve du théorème 2.1.2.1 montre que quand on écrit un anneau semi-
simple artinien comme un produit i∈I Bi d’anneaux simples artiniens, les Bi sont les idéaux
Q
bilatères minimaux de A ; ils sont donc uniques à réindexation près. Les Bi sont aussi les com-
posantes isotypiques du A-module à gauche régulier. On les appelle les composantes simples
ou composantes de Wedderburn de A.
65
(i) Tout A-module simple est isomorphe à un idéal à gauche minimal de A.
(ii) Tout idéal à gauche minimal de A est inclus dans une composante simple de A.
(iii) Deux idéaux à gauche minimaux de A sont isomorphes en tant que A-modules si et
seulement s’ils sont inclus dans la même composante simple de A.
2.1.2.3 Proposition. Tout quotient d’un anneau semi-simple artinien est un anneauQ semi-
simple artinien. Plus précisément, soient A un anneau semi-simple artinien et A = i∈I Bi
L décomposition en composantes simples ; alors chaque idéal bilatère de A est une somme
sa
i∈J Bi , où J est une partie de I.
2.2.1.1 Proposition. Soit A un anneau. L’ensemble des idéaux bilatères inclus dans
1 − A× = {a ∈ A | 1 − a est inversible}
possède un plus grand élément pour l’inclusion.
66
Preuve. Soit I l’ensemble des idéaux bilatères I inclus dans 1 − A× . L’idéal {0} appartient
à I . Commençons par montrer que I est stable par somme.
À cet effet, prenons deux éléments I et J de I et montrons que I + J est dans I . Un élément
a de I + J s’écrit b + c, avec b ∈ I et c ∈ J. Comme I ⊆ 1 − A× , l’élement 1 − b est inversible.
Comme J est un idéal, (1−b)−1 c appartient à J ; et puisque J ⊆ 1−A× , l’élement 1−(1−b)−1 c
est inversible. Ainsi 1 − a = (1 − b)(1 − (1 − b)−1 c) est inversible.
Notons J la somme de tous les éléments de I . C’est un idéal de A. Ensuite, chaque élément a
de J appartient en fait à une somme finie I1 + · · · + In d’idéaux appartenant à I , et puisque
I1 + · · · + In appartient lui-même à I , l’élément 1 − a est inversible. Cela montre que J ∈ I .
Ainsi I a un plus grand élément, à savoir J.
Radical de Jacobson d’un anneau : le radical de Jacobson d’un anneau A est le plus grand des
idéaux I tels que 1 − a soit inversible pour chaque a ∈ I. On le note J(A). Il est manifeste
que J(Aop ) = J(A).
Traditionnellement, on définit J(A) au moyen de la caractérisation concrète suivante.
Preuve. Appelons I le membre de droite de l’égalité ci-dessus. Il est clairement stable par
multiplication à gauche par les éléments de A : (b, x) ∈ A × I ⇒ bx ∈ I.
Soit (b, x) ∈ A × I. Pour tout a ∈ A, l’élément 1 − bax admet un inverse à gauche dans A,
disons c ; de l’égalité c(1 − bax) = 1 vient alors
(1 + axcb)(1 − axb) = 1 − ax(1 − c + cbax)b = 1,
et donc 1 − axb admet un inverse à gauche. On voit ainsi que xb ∈ I. Bref I est stable par
multiplication à droite par les éléments de A.
Soit (x, y) ∈ I 2 . Pour tout a ∈ A, l’élément 1 − ax admet un inverse à gauche, disons b, et
puisque yb ∈ I, l’élément 1−ayb admet un inverse à gauche, disons c ; des égalités b(1−ax) = 1
et c(1 − ayb) = 1 vient alors
bc(1 − a(x + y)) = bc(1 − ayb)(1 − ax) = b(1 − ax) = 1,
et donc 1 − a(x + y) admet un inverse à gauche. On voit ainsi que x + y ∈ I. Bref I est stable
par addition.
Les deux alinéas précédents établissent que I est un idéal bilatère. Soit x ∈ I. Alors 1 − x
admet un inverse à gauche, disons a, et 1+ax admet un inverse à gauche, disons b. Des égalités
a(1 − x) = 1 et b(1 + ax) = 1, on déduit que ba = 1 puis que
(1 − x)a = ba(1 − x)a = b(a(1 − x))a = ba = 1
et donc 1 − x est inversible. Ainsi I est un idéal bilatère inclus dans 1 − A× ; par conséquent
I ⊂ J(A).
L’inclusion opposée étant évidente, l’égalité annoncée a lieu.
67
Voyons à présent le lien entre le radical de Jacobson d’un anneau A et les A-modules.
Module régulier (rappels) : le A-module régulier A A est le groupe abélien (A, +), muni de
l’opération à gauche de A par multiplication. Les sous-modules de A A sont les idéaux à gauche
de l’anneau A. Un endomorphisme de A A est de la forme a 7→ ab, où b ∈ A.
La première assertion du théorème suivant montre que J(A) est le radical du A-module ré-
gulier : J(A) = rad A A. Puisque A et Aop ont même radical de Jacobson, J(A) est aussi le
radical du A-module à droite régulier : J(A) = rad AA .
Rappelons que l’annulateur d’un A-module M est le noyau de l’homomorphisme d’anneaux
de A dans EndZ (M ) définissant la structure de A-module.
Preuve. Soit z ∈ A. Si z ∈/ rad A A, alors il existe un idéal à gauche maximal m tel que z ∈
/ m.
Alors z + m engendre le A-module simple A/m, donc il existe a ∈ A tel que 1 − az ∈ m. Cela
interdit 1 − az inversible à gauche, et ainsi z ∈ / J(A). Réciproquement si z ∈/ J(A), alors il
existe a ∈ A tel que 1 − az n’est pas inversible à gauche. L’idéal à gauche A(1 − az) est alors
propre, donc contenu dans un idéal à gauche maximal m. Alors 1 − az ∈ m, d’où z ∈ / m, puis
z∈/ rad A A. Ces raisonnements prouvent l’égalité J(A) = rad A A.
Notons r l’intersection des annulateurs des A-modules simples. Chaque idéal à gauche maximal
m contient l’annulateur d’un A-module simple S (prendre S = A/m), donc contient r. On en
déduit rad A A ⊇ r. Soit S un A-module simple. Chaque élément non-nul x de S détermine un
homomorphisme surjectif a 7→ ax du A-module régulier A A sur S. Comme S est simple, le
noyau mx de cet homomorphisme est un idéal à gauche maximal. On voit ainsi que l’annulateur
de S, qui est l’intersection des mx pour x ∈ S \ {0}, contient rad A A. Le radical rad A A est
donc inclus dans l’annulateur de n’importe quel A-module simple, c’est-à-dire rad A A ⊂ r.
L’égalité r = rad A A a donc bien lieu, ce qui conclut la preuve de (i).
Soit M un A-module. Pour chaque sous-module maximal L ⊆ M , le A-module M/L est
simple, donc est annulé par J(A). Ainsi J(A)M ⊆ L. Le sous-module J(A)M est donc inclus
dans tous les sous-modules maximaux de M , d’où (ii).
Enfin soit M un A-module de type fini tel que J(A)M = M . L’assertion (ii) implique alors
que rad M = M . D’après la proposition 1.3.3.2 (i), cela entraîne que M = 0. Nous avons
démontré (iii).
68
Remarque. Un idéal d’un anneau A est dit primitif s’il est l’annulateur d’un A-module simple ;
quand A est commutatif, un idéal est primitif si et seulement s’il est maximal. La proposition
précédente entraîne que J(A) est l’intersection des idéaux primitifs de A.
Les premières définitions du radical d’un anneau A étaient limitées au cas d’un anneau ar-
tinien ; quand A est artinien à gauche ou à droite, J(A) est le plus grand idéal nilpotent.
L’apport de Jacobson fut de trouver la définition adaptée au cas général : il a compris qu’un
anneau A s’étudiait avec ses modules, et a défini le radical de A comme l’intersection des
idéaux primitifs de A. L’inconvénient de cette définition est que l’égalité J(A) = J(Aop ) n’est
pas évidente : la notion d’idéal primitif n’est pas stable par passage à l’anneau opposé.
Enfin, de nombreux auteurs définissent J(A) comme étant le radical du A-module à gauche
régulier. Avec cette approche, l’égalité J(A) = J(Aop ) ne coule pas de source : elle exprime
que les radicaux des A-modules réguliers, à gauche et à droite, sont égaux. Notons en revanche
qu’en l’absence d’hypothèse sur l’anneau A, les socles des A-modules réguliers, à gauche et à
droite, sont généralement différents.
Exercices.
(1) Soit A un anneau. Montrer que tout idéal bilatère maximal de A contient J(A).
(2) Soit A un anneau. Montrer qu’un élément x ∈ A est inversible si et seulement si x+J(A)
est inversible dans A/J(A).
(3) On dit qu’un idéal I d’un anneau A est nilpotent s’il existe un entier naturel n tel
que I n = {0} ; autrement dit, si le produit de n éléments de I (pas nécessairement
distincts) est toujours nul. Montrer que tout idéal bilatère nilpotent I de A est inclus
dans le radical de Jacobson J(A). (Indication : I est inclus dans 1 − A× , car pour
chaque x ∈ I, 1 − x est inversible, d’inverse 1 + x + x2 + · · · .)
(4) Soit A un anneau. Montrer l’existence d’un A-module complètement réductible d’an-
nulateur J(A).
69
(5) Soit e un idempotent d’un anneau A ; ainsi eAe est un anneau de neutre multiplicatif e.
Montrer que J(eAe) = eJ(A)e. (Indication : un élément x ∈ eJ(A)e vérifie x = exe
et x ∈ J(A) ; 1 − x possède donc un inverse dans A, disons y, et on vérifie que eye
est un inverse de e − x dans eAe. Ainsi eJ(A)e est un idéal bilatère de eAe contenu
dans e − (eAe)× , d’où eJ(A)e ⊆ J(eAe). Dans l’autre sens, soit z ∈ J(eAe). Prenons
a ∈ A. Alors eaz = eaez ∈ J(eAe), donc e − eaz possède un inverse à gauche y dans
eAe, c’est-à-dire y = ye et ye(1 − az) = e. On calcule ensuite (1 − e + y)(1 − az) =
(1 − e + ye)(1 − az) = (1 − e)(1 − az) + e = 1 − t, avec t = (1 − e)az. Maintenant z ∈ eAe
entraîne t2 = 0, et donc 1 − t est inversible. Il s’ensuit que 1 − az possède un inverse
à gauche dans A. Ceci étant vrai pour tout a ∈ A, on a z ∈ J(A). Ce raisonnement
montre l’inclusion J(eAe) ⊆ J(A) ∩ eAe = eJ(A)e.)
(6) Montrer l’égalité Matn (J(A)) = J(Matn (A)) pour tout anneau A et tout entier n ≥ 1.
(7) Soient A un anneau et I un idéal bilatère de A inclus dans le radical de Jacobson J(A).
Montrer que le radical de Jacobson de A/I est J(A)/I.
(8) On définit le socle à gauche d’un anneau A comme étant le socle soc A A du A-module
régulier. De même, on définit le socle à droite de A comme étant le socle soc AA du
module à droite régulier ; ainsi le socle à droite de A est le socle à gauche de Aop .
Montrer que ces socles sont des idéaux bilatères de A.
Preuve. Quitte à remplacer A par Aop , nous pouvons supposer que A est artinien à gauche.
(i) Le A-module à gauche régulier est artinien. D’après la proposition 1.3.3.2 (iii), il est com-
plètement réductible si et seulement si son radical est réduit à 0. Or ce radical est J(A),
d’après le théorème 2.2.1.3.
(ii) Le quotient B = A/J(A) du A-module à gauche régulier est ce que nous avions appelé la
tête de A A au paragraphe 1.3.3. D’après la propriété 1.3.3.1 (i), le radical de B est {0}. En
tant que quotient d’un module artinien, B est un A-module artinien. Il est donc complètement
réductible d’après la proposition 1.3.3.2 (iii). Maintenant, B est en fait un anneau, et sa
structure de A-module à gauche s’identifie à sa structure de B-module à gauche régulier à
travers l’homomorphisme d’anneaux de A sur B. On voit ainsi que le B-module à gauche
régulier est complètement réductible, c’est-à-dire que B est un anneau semi-simple artinien.
On peut formuler l’argument prouvant (ii) d’une manière un peu différente. D’abord, A/J(A)
est un anneau artinien à gauche, parce que c’est un quotient de l’anneau artinien à gauche A.
Ensuite, le radical de Jacobson de A/J(A) est {0}, d’après l’exercice (7) ci-dessus. On peut
ainsi utiliser (i).
70
2.2.2.2 Corollaire. Soit A un anneau artinien à gauche ou à droite.
(i) Un A-module M est complètement réductible si et seulement si J(A)M = 0.
(ii) Pour tout A-module M , on a les égalités
Preuve. L’annulateur d’un A-module simple contient J(A), donc J(A) annule tout A-module
simple. Il s’ensuit que J(A) annule tout A-module complètement réductible. Dans l’autre sens,
si l’annulateur d’un A-module M contient J(A), alors M peut être vu comme un A/J(A)-
module. Or tout A/J(A)-module est complètement réductible, puisque l’anneau A/J(A) est
semi-simple artinien. Ainsi M est somme de ses sous-modules simples, et ceci est vrai qu’on
regarde M comme un module sur A/J(A) ou sur A. Nous avons prouvé (i).
Soit M un A-module. L’assertion (i) nous dit que M/J(A)M est un A-module complètement
réductible. Son radical est donc nul, ce qui implique que rad M ⊆ J(A)M . Compte-tenu du
théorème 2.2.1.3 (ii), cette inclusion est une égalité. Par ailleurs, le socle de M est le plus grand
sous-module complètement réductible de M . Vu l’assertion (i), le socle de M est le plus grand
sous-module de M annulé par J(A). Cela montre l’égalité soc M = {x ∈ M | J(A)x = 0}.
Nous avons donc prouvé (ii).
L’assertion (iii) est une conséquence immédiate de (i) et (ii).
c’est un idéal bilatère de I. On définit alors la puissance n-ième I n comme étant le produit
itéré de I avec lui-même, n fois.
Idéal nilpotent : un idéal I d’un anneau A est dit nilpotent s’il existe un entier naturel n tel
que I n = {0}, autrement dit, tel que le produit de n éléments de I est toujours nul.
L’exercice (3) du paragraphe précédent nous dit que tout idéal bilatère nilpotent d’un anneau
A est inclus dans le radical de Jacobson J(A). Le (i) du théorème ci-dessous affirme que la
réciproque est vraie quand A est artinien à gauche ou à droite ; dans ce cas, J(A) est le plus
grand idéal nilpotent de A.
Preuve. (i) Nous avons J(A) ⊇ J(A)2 ⊇ J(A)3 ⊇ · · · , et comme A est artinien, il existe un
entier naturel n tel que J(A)n = J(A)n+1 . Supposons que J(A)n 6= 0. Alors il existe un idéal
71
à gauche I, minimal parmi les idéaux tels que J(A)n I 6= 0. Soit x ∈ I tel que J(A)n x 6= 0.
Alors J(A)x est un idéal à gauche inclus dans I et J(A)n (J(A)x) = J(A)n+1 x = J(A)n x 6= 0,
donc I = J(A)x par minimalité de I. Ainsi il existe z ∈ J(A) tel que x = zx. Puisque 1 − z
est inversible, cela entraîne x = 0, ce qui est absurde.
(ii) On munit le A-module régulier A A de la filtration décroissante finie Mn = J(A)n . Le
n-ième facteur de la filtration Mn /Mn+1 est annulé par J(A). D’après le corollaire 2.2.2.2 (i),
il est complètement réductible. Or il est artinien, donc il est noethérien (remarque 1.3.1.2).
Utilisant de façon répétée la proposition 1.2.1.2 (ii), on en déduit que le A-module régulier est
noethérien.
Remarque. Bien évidemment, la conclusion de l’énoncé (i) est également valide si l’anneau
A est supposé artinien à droite. Notons cependant qu’il existe des anneaux artiniens (et donc
noethériens) à gauche, qui ne sont pas noethériens
(et donc pas artiniens) à droite. Un exemple
a b
est l’anneau des matrices de la forme avec a, b ∈ R et c ∈ Q ; voir [1], p. 130.
0 c
2.2.2.4 Corollaire. Soit A un anneau artinien à gauche. Alors tout A-module de type fini
est artinien et noethérien.
Preuve. C’est une conséquence immédiate du théorème de Hopkins ci-dessus et des proposi-
tions 1.2.1.2 et 1.2.1.3.
Rappelons qu’on dit qu’un sous-module N d’un module M est superflu si pour tout sous-
module X ( M , on a N + X ( M , et qu’on dit que N est essentiel si pour tout sous-module
X 6= 0, on a N ∩ X 6= 0.
M 6= 0 ⇒ soc M 6= 0 et M = rad M ⇒ M = 0.
Notons J = J(A) ; c’est un idéal nilpotent d’après le théorème 2.2.2.3 (i). Supposons M 6= 0.
Alors il existe n tel que J n M 6= 0 et J n+1 M = 0. D’après le corollaire 2.2.2.2 (i), on a alors
J n M ⊆ soc M , ce qui assure soc M 6= 0. Supposons maintenant M = rad M . Le corollaire
2.2.2.2 (ii) nous dit alors que M = JM . De là, M = JM = J 2 M = J 3 M = · · · , et la
72
nilpotence de J conduit à M = 0. Nos deux implications sont établies, et elles démontrent
l’assertion (i).
Soit N un sous-module d’un A-module M . Supposons que N soit inclus dans rad M . Soit X
un sous-module de M tel que X ( M . Alors M/X 6= 0, et (i) nous dit qu’alors M/X 6=
rad(M/X). Cela entraîne X + rad M ( M . À fortiori, X + N ( M . Nous avons ainsi montré
que N était superflu. L’assertion (ii) découle maintenant de la proposition 1.3.4.1.
Soit N un sous-module d’un A-module M . Supposons que N contienne soc M . Soit X un sous-
module non-nul de M . Des inclusions N ⊇ soc M ⊇ soc X, nous déduisons que N ∩X ⊇ soc X.
Mais d’après l’assertion (i), le fait que X soit non-nul implique que soc X 6= 0, d’où N ∩X 6= 0.
Nous avons ainsi montré que N était essentiel. L’assertion (iii) découle maintenant de la
proposition 1.3.4.1.
Exercices.
(1) Soit A un anneau artinien à gauche, e ∈ A un élément idempotent. Montrer que l’anneau
eAe est artinien à gauche.
(2) Soit A un anneau artinien à gauche, soient m et n deux entiers naturels. Montrer que
si les A-modules à gauche Am et An sont isomorphes, alors m = n.
(3) Soit A un anneau artinien à gauche ou à droite. Alors le nombre de classes d’iso-
morphisme de A-modules à gauche simples est fini et égal au nombre de composantes
simples de l’anneau semi-simple artinien A/J(A). Montrer que c’est aussi le nombre de
classes d’isomorphisme de A-modules à droite simples. (Note : une famille de A-modules
simples (S1 , . . . , Sk ) est dite basique si elle comporte un et un seul représentant de
chaque classe d’isomorphisme de A-modules simples.)
(4) Soit A un anneau artinien
L à gauche ou à droite et soit (Mλ )λ∈Λ une L famille de A-
modules. L
Posons M = λ∈Λ Mλ . Montrer les égalités rad M = λ∈Λ rad Mλ et
soc M = λ∈Λ soc Mλ . (Indication : utiliser le corollaire 2.2.2.2 (ii).)
(5) Soit A un anneau artinien à gauche ou à droite et soit M un A-module. On appelle
longueur de Loewy de M le plus petit entier naturel ` pour lequel il existe une filtration
finie 0 = M0 ⊆ M1 ⊆ · · · ⊆ M`−1 ⊆ M` = M de M dont tous les quotients successifs
Mn /Mn−1 sont complètement réductibles. Montrer que la longueur de Loewy de M est
bien définie et est le plus petit entier naturel ` tel que J(A)` M = 0.
(6) Soit A un anneau commutatif. L’ensemble des p éléments nilpotents dep A est un idéal,
qu’on appelle le nilradical de A et qu’on note (0) (on sait même que (0) est l’inter-
section des idéaux premiers de A). Montrer que si A est artinien, alors J(A) = (0).
p
(7) Soit A un anneau commutatif intègre principal, soit a ∈ A non-nul. Calculer le radical de
Jacobson de l’anneau A/(a). Montrer que A/(a) est semi-simple artinien si et seulement
si a est sans facteur carré (c’est-à-dire n’est pas divisible par le carré d’un élément
irréductible). Retrouver le résultat de l’exercice (3) du paragraphe 1.3.1.
73
2.3 Quelques résultats concernant les modules projectifs et injectifs
Rappel : un anneau A est dit local si l’ensemble des éléments non-inversibles de A est un idéal
de A.
2.3.1.1 Proposition. Étant donné un anneau A, les quatre assertions suivantes sont équi-
valentes :
(i) A est local.
(ii) J(A) est l’ensemble des éléments non-inversibles de A.
(iii) A/J(A) est un anneau à division.
(iv) A 6= {0} et pour chaque x ∈ A, x ou 1 − x est inversible.
(v) A possède exactement un idéal à gauche maximal.
Preuve. Nous allons montrer les implications (i) ⇒ (iv) ⇒ (ii) et (ii) ⇒ (v) ⇒ (iii) ⇒ (ii).
Cela établira notre proposition, car visiblement (ii) entraîne (i).
Supposons (i). Alors I = A \ A× est un idéal de A. Soit x ∈ A. Alors x ou 1 − x ne peuvent
appartenir tous deux à I, car leur somme n’appartient pas à I. Donc soit x, soit 1 − x est
inversible. L’assertion (iv) est donc vraie.
Supposons (iv). Soit x un élément de A n’appartenant pas à J(A). Alors il existe a ∈ A tel
que 1 − ax ne soit pas inversible à gauche. Il s’ensuit que ax est inversible, d’où b ∈ A tel
que bax = 1. Ainsi x est inversible à gauche. De même, x est inversible à droite, et donc
inversible tout court. Ainsi J(A) contient l’ensemble A \ A× des éléments non-inversibles de
A. L’inclusion opposée étant évidente (A est supposé non-nul), cela entraîne que (ii) est vraie.
Supposons (ii). L’élément 0 appartient à J(A) donc n’est pas inversible, donc A 6= {0}, donc
A possède au moins un idéal à gauche maximal. Soit m un idéal à gauche maximal. Chaque
élément de m est non-inversible à gauche, donc est non-inversible tout court, donc appartient
à J(A) ; ainsi m ⊆ J(A). Le théorème 2.2.1.3 (i) permet de conclure à l’égalité m = J(A),
assurant l’unicité affirmée dans (v).
Supposons (v). Le théorème 2.2.1.3 (i) entraîne que J(A) est l’unique idéal maximal à gauche
de A. L’anneau quotient B = A/J(A) possède alors exactement deux idéaux à gauche, à savoir
{0} et A. Ainsi le B-module régulier à gauche B B est simple, donc son anneau d’endomor-
phisme B op est un anneau à division (lemme de Schur), et l’énoncé (iii) est satisfait.
Supposons (iii). Soit x un élément de A n’appartenant pas à J(A). L’élément x + J(A) du
quotient A/J(A) est alors non-nul, donc est inversible puisque nous supposons que (iii) est
vraie. Il existe donc y ∈ A tel que yx ≡ xy ≡ 1 modulo J(A). Ainsi 1 − yx et 1 − xy
appartiennent à J(A), et donc yx et xy sont inversibles. Cela entraîne que x est inversible à
gauche et à droite, donc inversible. Nous avons donc montré que J(A) ⊇ A \ A× . L’inclusion
opposée étant évidente ((iii) interdit à A d’être l’anneau nul), cela entraîne (ii).
74
Il est bien sûr possible de remplacer « gauche » par « droite » dans l’énoncé (v). En contem-
plant l’exemple de Matn (k), où k est un corps, on observera qu’on ne peut en revanche pas
remplacer « gauche » par « bilatère ».
2.3.1.2 Proposition. Tout module projectif de type fini sur un anneau local est libre.
Preuve. Soit A un anneau local. On pose A = A/J(A). Pour tout A-module M , on pose
M = M/J(A)M ; c’est un A-module qu’on peut aussi regarder comme un A-module.
Soit P un A-module projectif de type fini. D’après la proposition 1.3.1.3, P est un A-module
libre. Il existe donc un A-module libre de type fini F et un isomorphisme g : F → P de
A-modules, ou de A-modules, c’est ici pareil. Comme F est un A-module projectif et que
l’homomorphisme canonique p : P → P est surjectif, on peut compléter le diagramme ci-
dessous par un homomorphisme h :
F
h /P
f p
F / P.
g
Kaplansky a démontré que l’hypothèse « de type fini » était en fait inutile dans l’énoncé
ci-dessus (Ann. of Math. 68 (1958), pp. 372–377).
2.3.2 Idempotents
75
ei sont des idempotents de l’anneau B et vérifient les relations ei ◦ ej = 0 si i 6= j, et
i∈I ei = idM . Réciproquement, toute famille finie (ei )i∈I d’idempotents de B vérifiant ces
P
relations détermine une décomposition en somme directe M = i avec Mi = im ei .
,
L
i∈I M
Bien évidemment, ce résultat se généralise aux décompositions d’un module sur un anneau.
Au début du cours, nous avions déclaré qu’un moyen d’étudier un anneau A était de regarder
ses modules, c’est-à-dire ses actions sur des groupes abéliens. Autrement dit, nous essayons
de tirer des informations sur A à partir de nos connaissances sur les anneaux EndZ (M ), ces
derniers étant censés être bien connus, ou du moins assez concrets. Nous allons donc copier
dans un anneau A quelconque la construction précédente. Voici les définitions pertinentes.
Soit A un anneau. Deux idempotents e et f sont dits orthogonaux si efP= f e = 0. Alors si
(ei )i∈I est une famille finie d’idempotents deux à deux orthogonaux, e = i∈I ei est un idem-
potent. Réciproquement, uneP décomposition idempotente d’un idempotent e est une écriture
de e comme une somme finie i∈I ei d’idempotents deux à deux orthogonaux. Un idempotent
est dit primitif s’il ne s’écrit pas comme somme de deux idempotents orthogonaux, autrement
dit si sa seule décomposition idempotente est la décomposition banale, réduite à un seul terme.
Exemples.
(1) Soit e un idempotent d’un anneau A. Si e 6= 1, alors e et 1 − e sont des idempotents
orthogonaux et 1 = e + (1 − e) est une décomposition idempotente de l’unité.
(2) Soient A un anneau non-nul et n un entier strictement positif. Pour i ∈ {1, . . . , n},
notons Eii la matrice à coefficients dans
PnA avec zéro partout sauf un à la position (i, i).
Alors dans l’anneau Matn (A), 1 = i=1 Eii est une décomposition idempotente de
l’unité.
(3) Soit A un anneau et e un idempotent de A. Si e = i∈I ei une décomposition idem-
P
potente de e, alors chaque ei appartient à l’anneau eAe, et e = i∈I ei est une dé-
P
composition idempotente de l’unité dans eAe. Réciproquement, chaque décomposition
idempotente de l’unité dans eAe est une décomposition idempotente de e dans A.
Deux idempotents e et f de A sont dits équivalents s’il existe a ∈ eAf et b ∈ f Ae tels que
ab = e et ba = f ; on écrit alors e ' f . Nous noterons pi(A) l’ensemble des idempotents
primitifs de A et pi(A)/ ' l’ensemble des classes d’équivalence d’idempotents primitifs.
Nous concluons ce paragraphe avec deux résultats qui comparent les idempotents d’un anneau
A avec ceux du quotient A/I, où I est un idéal bilatère de A contenu dans le radical de
Jacobson J(A). Le premier résultat dit en particulier qu’un idempotent de A n’appartient
jamais à J(A), et que si deux idempotents e et f sont congrus modulo J(A), alors ils sont
équivalents.
76
(ii) Deux idempotents e et f de A sont équivalents si et seulement si leurs images e et f
dans A/I sont équivalentes.
Preuve. (i) Soit e un idempotent de A et soit e son image dans A/I. Certainement e2 = e.
Par ailleurs, 1 − e n’est pas inversible car e 6= 0 et e(1 − e) = 0. Ceci implique que e ∈
/ J(A),
et par voie de conséquence e 6= 0.
(ii) Il est clair que si e et f sont équivalents, alors e et f le sont. Réciproquement, supposons
que e ' f . Il existe a ∈ eAf et b ∈ f Ae tels que ab = e et ba = f . Remontons a et b en
des éléments a et b de A. Quitte à remplacer a par eaf et b par f be, on peut supposer que
a ∈ eAf et b ∈ f Ae. Maintenant e − ab ∈ I ∩ eAe, et l’exercice (5) du paragraphe 2.2.1 donne
Ceci garantit que ab est un élément inversible de eAe. De même, ba est un élément inversible
de f Af . Il existe donc des éléments c ∈ eAe et d ∈ f Af tels que abc = e et dba = f . Mais
alors db = dbe = dbabc = f bc = bc, et donc e ' f .
L’exercice (3) du paragraphe 2.2.1 montre que chaque idéal nilpotent de A est inclus dans
J(A), donc convient dans le rôle de I.
Preuve. (i) Soit c ∈ A un relevé de c. Soit E l’ensemble des a ∈ A s’écrivant comme polynôme
sans terme constant en c et tels que a = c. Si a ∈ E , alors a2 − a appartient à I donc est
nilpotent : on peut ainsi noter n(a) le plus petit entier naturel n tel que (a2 − a)n = 0. Soit
e ∈ E choisi de sorte que n(e) est minimal. Posons t = e2 − e et e0 = e − 2et + t. Certainement
t ∈ I et e0 ∈ E ; un calcul facile fournit (e0 )2 − e0 = 4t3 − 3t2 . Si t 6= 0, alors n(e) > 1, d’où
n(e0 ) < n(e), ce qui contredit le choix de e. Bref t = 0 et e est le relèvement cherché de c.
(ii) On procède par récurrence sur n, le cas n = 1 étant évident. Admettons le résultat pour
n − 1. Puisque ec1 e = c1 est un idempotent de A/I, nous pouvons trouver un idempotent e1
de A s’écrivant comme un polynôme sans terme constant en ec1 e et tel que e1 = c1 . Alors
e1 ∈ eAe et e0 = e − e1 est un idempotent orthogonal à e1 . Notre hypothèse de récurrence
nous autorise à remonter la décomposition idempotente à n − 1 termes e0 = c2 + · · · + cn dans
A/I en une décomposition idempotente e0 = e2 + · · · + en dans A, avec donc ei = ci . Pour
i ≥ 2, nous avons ei ∈ e0 Ae0 , ce qui implique e1 ei = ei e1 = 0. L’écriture e = e1 + · · · + en est
ainsi une décomposition idempotente dans A qui relève e = c1 + · · · + cn .
77
Exercice. Soient e et f deux idempotents équivalents d’un anneau A. Montrer que e et f
sont simultanément primitifs ou non-primitifs. (Indication : il existe a ∈ eAf et b ∈ f Ae tels
que ab = e et ba = f . Supposons l’existence d’une décomposition idempotente e = e0 + e00
de e ; posons f 0 = be0 a et f 00 = be00 a. Alors f = f 0 + f 00 est une décomposition idempotente
de f .)
Voyons à présent le lien entre idempotents et modules projectifs. Pour cela, souvenons-nous
de l’isomorphisme d’anneaux ϕ : a 7→ (b 7→ ba) de l’anneau opposé Aop sur l’anneau des en-
domorphismes du A-module à gauche régulier. Chaque décomposition idempotente de l’unité
dans Aop donne donc une décomposition idempotente de l’unité dans EndA (A A), qui fournit
une décomposition de A APen somme directe de sous-modules. De façonL explicite, la décompo-
sition idempotente 1 = i∈I ei dans A se traduit par l’écriture A = i∈I Aei , puisque Aei
est l’image de l’endomorphisme ϕ(ei ) : b 7→ bei de A A.
Nous nous trouvons donc conduits à associer à chaque idempotent e ∈ A le sous-module Ae
de A A. Ce module est projectif : à la décomposition idempotente 1 = e + (1 − e) de l’unité
dans A correspond la décomposition A A = Ae ⊕ A(1 − e) du A-module à gauche régulier, qui
fait apparaître Ae comme facteur direct d’un A-module libre. Ainsi le foncteur HomA (Ae, ?)
est exact ; le résultat suivant en donne une description concrète.
HomA (Ae, Af ) ∼
= eAf, EndA (Ae) = (eAe)op ,
∼
HomA (Af, Ae) = f Ae, EndA (Af ) = (f Af )op ,
78
indécomposable. Pour chaque idempotent e de A, les décompositions de Ae correspondent aux
décompositions idempotentes de e ; notamment Ae est indécomposable si et seulement si e est
primitif. Ainsi l’application e 7→ Ae est une bijection de l’ensemble pi(A) des idempotents
primitifs de A sur l’ensemble des modules principaux indécomposables.
La proposition 1.2.2.3 affirme que si le A-module régulier à gauche est artinien ou noethérien,
alors il peut être décomposé comme somme directe finie de sous-modules indécomposables. Ces
derniers sont alors des modules principaux indécomposables. Il en existe donc ! Nous verrons
dans le prochain paragraphe un résultat plus intéressant : si A est un anneau artinien à gauche,
alors tout A-module projectif est somme directe de modules projectifs indécomposables, et
tout A-module projectif indécomposable est isomorphe à un module principal indécomposable.
Ainsi il existe une bijection entre pi(A)/ ' et l’ensemble des classes d’isomorphisme de A-
modules projectifs indécomposables.
2.3.3.2 Remarque. Les idempotents de A déterminent aussi des A-modules à droite : il suffit
de considérer le A-module à droite régulier AA et les idéaux à droite eA. À nouveau, deux
idempotents e et f sont équivalents si et seulement si les A-modules eA et f A sont isomorphes,
et un idempotent e est primitif si et seulement si le A-module eA est indécomposable.
Une manière de systématiser cette observation consiste à introduire une dualité. Utilisant
la structure de A-A-bimodule régulier sur A, on peut munir le groupe abélien T (M ) =
HomA (M, A) d’une structure de A-module à droite, pour chaque A-module à gauche M . In-
versement quand N est un A-module à droite, on munit T (N ) = HomA (N, A) d’une structure
de A-module à gauche. On dispose ainsi d’une paire de foncteurs additifs entre la catégorie des
A-modules à gauche et la catégorie des A-modules à droite. Cette dualité échange le A-module
régulier à gauche avec le A-module régulier à droite. Étant additive, elle échange les sommes
directes (A A)n et (AA )n de ces modules. Un module projectif de type fini étant facteur direct
d’un module libre de type fini, notre dualité consiste en deux bijections inverses l’une de l’autre
quand on la restreint aux A-modules projectifs de type fini. La proposition 2.3.3.1 montre par
ailleurs que pour tout idempotent e, la dualité T échange entre eux les A-modules projectifs
Ae et eA.
Signalons pour finir que la dualité T permet de construire une opération appelée « transposi-
tion » et notée Tr. Cette dernière échange elle aussi A-modules à gauche et A-modules à droite ;
toutefois, alors que T se comporte de façon bijective avec les modules indécomposables pro-
jectifs, Tr se comporte de façon bijective avec les modules indécomposables non-projectifs. La
théorie d’Auslander-Reiten, qui vise à organiser l’étude des modules indécomposables, utilise
cette opération Tr. Pour des détails, le lecteur est renvoyé au chapitre IV du livre d’Auslander,
Reiten et Smalø [2].
2.3.3.3 Proposition. Soit A un anneau semi-simple artinien. Alors les sous-modules prin-
cipaux indécomposables de A sont les idéaux à gauche minimaux de A. La bijection e 7→ Ae de
pi(A) sur l’ensemble des modules principaux indécomposables induit une bijection de pi(A)/ '
sur l’ensemble des classes d’isomorphisme de A-modules simples.
79
Preuve. À cause de la complète réductibilité des A-modules, tout sous-module de A A est
facteur direct. Pour la même raison, un A-module est indécomposable si et seulement s’il est
simple. Ainsi les facteurs directs indécomposables de de A A sont les sous-modules simples de
A A. Cela montre la première assertion. La seconde provient de la proposition 2.1.2.2 (i).
Exercices.
(1) Soit e un idempotent d’un anneau A. Pour chaque A-module M , l’anneau eAe agit de
façon naturelle sur le groupe abélien eM . (Cette action correspond à la structure de
EndA (Ae)-module à droite sur HomA (Ae, M ).) Montrer que si 0 → L → M → N → 0
est une suite exacte courte de A-modules à gauche, alors 0 → eL → eM → eN → 0
est une suite exacte courte de eAe-modules à gauche.
(2) Soit e un idempotent d’un anneau A et M un A-module artinien et noethérien. On
suppose que eN = 0 pour tout facteur de composition N de M . Montrer que eM = 0.
(Indication : prendre une série de composition 0 = M0 ⊂ M1 ⊂ M2 ⊂ · · · ⊂ Mn = M
de M . Alors eMi ⊆ Mi−1 , d’où eM = en M = 0. Une autre façon de rédiger cela est
d’observer que Ae est projectif et d’écrire que par conséquent, 0 → eMi−1 → eMi →
e(Mi /Mi−1 ) → 0 est exact, avec e(Mi /Mi−1 ) = 0, d’où eM = eMn = eMn−1 = · · · =
eM1 = eM0 = 0.)
(3) Soit A un anneau artinien à gauche et soient e et f deux idempotents de A. Montrer que
e et f sont équivalents si et seulement s’il existe u ∈ A× tel que f u = ue. (Indication :
si u existe, on pose a = eu−1 f et b = f ue et on a ab = e et ba = f . Réciproquement, si
e ' f , alors Ae ∼
= Af , donc par Krull-Schmidt, A(1 − e) ∼ = A(1 − f ), d’où 1 − e ' 1 − f ;
on trouve alors a ∈ eAf et b ∈ f Ae tels que ab = e et ba = f , puis a0 ∈ (1 − e)A(1 − f )
et b0 ∈ (1 − f )A(1 − e) tels que a0 b0 = 1 − e et b0 a0 = 1 − f ; on vérifie que ab0 = b0 a =
a0 b = ba0 = 0 et on prend u = b + b0 , avec u−1 = a + a0 .)
(4) Soit A un anneau artinien à gauche ou à droite et soit J son radical de Jacobson. Soit
e ∈ A un idempotent. Montrer que les propriétés suivantes sont équivalentes : (i) e est
primitif ; (ii) Ae est un A-module indécomposable ; (iii) Ae/Je est un A-module simple ;
(iv) eAe est un anneau local ; (v) eAe/eJe est un anneau à division. (Indication : on
pourra montrer les implications (i) ⇒ (iii) ⇒ (v) ⇒ (iv) ⇒ (ii) ⇒ (i). Pour (iii) ⇒ (v),
établir que EndA (Ae/Je) ∼ = (eAe/eJa)op et utiliser le lemme de Schur.)
80
2.3.4 Couvertures projectives et enveloppes injectives
La surjectivité de q = p◦h entraîne que im h+ker p = P ; comme ker p est superflu, cela donne
h
que h est surjectif. La suite exacte courte 0 → ker h → Q −
→ P → 0 est scindée, puisque P est
projectif. On peut donc l’écrire
ϕ 0
0 → ker h → Q0 ⊕ Q00 −−−−−→ P → 0,
81
Preuve. On commence par prouver l’assertion (ii) sous l’hypothèse supplémentaire que cha-
cun des Mλ a une couverture projective C(Mλ ). Par définition, le noyau de cette couver-
ture projective est superflu ; d’après le corollaire 2.2.2.5 (ii), il est inclus dans le radical
de C(Mλ ). L’exercice (4) du paragraphe 2.2.2 dit alors que L la somme directe des noyaux
ker(C(Mλ ) → Mλ ) est incluse dans
le radical
L du module λ∈Λ C(Mλ ). Ainsi le noyau de
l’homomorphisme λ∈Λ Mλ est superflu, à nouveau d’après le corol-
L
λ∈Λ C(Mλ ) →
laire 2.2.2.5 (ii). Comme L le module λ∈Λ C(Mλ ) est projectif (proposition 1.1.6.1), il est une
L
couverture projective de λ∈Λ Mλ .
Puis on prouve l’assertion (iii) sous l’hypothèse supplémentaire que hd M a une couverture
projective (P, p). Par projectivité existe alors une flèche q de P dans M rendant commutatif
le diagramme
P
q
p
{
M
c / / hd M.
Remarque. On trouvera une preuve du théorème d’existence des couvertures projectives ba-
sées sur d’autres idées que les idempotents dans le paragraphe I.4 de [2]. La preuve basée
sur les idempotents a toutefois l’avantage d’être généralisable à la classe des anneaux dits
semi-parfaits, qui englobe les algèbres de type fini sur un anneau de valuation complet.
Preuve. Soit (P, p) la couverture projective d’un module simple et écrivons P comme somme
directe M ⊕ N de deux sous-modules. Certainement K = ker p est un sous-module maximal,
puisque im p ∼
= P/K est simple. Ensuite K ne peut pas contenir à la fois M et N . S’il ne
contient pas M , alors M + K = P par maximalité de K, et donc M = P puisque K est
82
superflu. De manière analogue, si K ne contient pas N , alors N = P . Dans tous les cas, la
décomposition P = M ⊕ N est banale. Cela démontre la première assertion de (i).
Soit P un A-module projectif. Alors P est sa propre couverture projective, donc est la cou-
verture projective de sa tête d’après le théorème
L 2.3.4.2 (iii). Écrivons cette têteLcomme une
somme de sous-modules simples : hd P = λ∈Λ Sλ . Alors P = C(hd P ) = λ∈Λ C(Sλ )
d’après le théorème 2.3.4.2 (ii). Ainsi P est somme directe de modules indécomposables. Si
P est indécomposable, alors la somme comporte exactement un terme, donc la tête de P est
simple. Cela finit la preuve de (i) et démontre (ii).
Un des intérêts de la notion de couverture projective est donné par la proposition suivante.
Preuve. Le théorème 2.3.4.2 (iv) montre que P est de type fini. Il est donc artinien et noe-
thérien, d’après le corollaire 2.2.2.4. Le corollaire 1.2.2.2 dit alors que EndA (P ) est un anneau
local. Par ailleurs, soit h un élément non-nul de HomA (P, S). Alors h se factorise à travers la
tête de P et induit un isomorphisme hd P ∼ = S. Ainsi h : P → S est un épimorphisme essentiel,
donc est une couverture projective. La proposition 2.3.4.1 montre alors l’existence d’un auto-
morphisme ϕ de P tel que h = p ◦ ϕ. Par transitivité, deux éléments non-nuls de HomA (P, S)
sont donc reliés l’un à l’autre par l’action d’un élément de EndA (P )op . Cela implique que
HomA (P, S) est un EndA (P )op -module simple et finit la preuve de (i).
L’assertion (ii) est vraie si M est un module simple isomorphe à S, grâce à (i). Si M est un
module simple non-isomorphe à S, alors tout homomorphisme de P dans M se factorise à tra-
vers hd P ∼= S d’après l’exemple 1.3.3.3, ce qui implique que HomA (P, M ) ∼= HomA (S, M ) = 0
et montre (ii) dans ce cas également. Bref (ii) est vraie quand M est simple, et bien sûr aussi
quand M = 0. De là, le cas général se démontre par récurrence sur la longueur de M , en
utilisant la proposition 1.2.5.1 et l’exactitude du foncteur HomA (P, ?).
Remarques.
(1) Reprenons la situation présentée dans l’énoncé de la proposition 2.3.4.4. Notons J le
radical de Jacobson de A. Il existe un idempotent primitif e ∈ A tel que S = Ae/Je.
Alors P = Ae, HomA (P, M ) = eM et EndA (P )op = eAe. La proposition dit que
le eAe-module eM est de longueur finie égale à la multiplicité de Jordan-Hölder du
module simple Ae/Je dans M . (Incidemment, le eAe-module simple est HomA (P, S) ∼ =
eS ∼= eAe/eJe. En tant qu’anneau, eAe/eJe peut être identifié à l’anneau à division
EndA (S)op . Par ailleurs, eAe/eJe est le quotient de l’anneau local eAe par son radical
de Jacobson.)
83
(2) Toujours dans cette situation, supposons maintenant que A est une algèbre de dimen-
sion finie sur un corps k. Alors S, P , M , HomA (P, M ) et HomA (P, S) sont des espaces
vectoriels de dimension finie sur k. De plus, on peut identifier les espaces vectoriels
HomA (P, S), HomA (hd P, S) et EndA (S), car tout homomorphisme de P dans S se
factorise à travers la tête de P , laquelle est isomorphe à S. La longueur du EndA (P )op -
module HomA (P, M ) est alors égale à dimk HomA (P, M )/ dimk EndA (S).
Enveloppe injective : soit M un A-module. Une enveloppe injective de M est un couple (E, i)
où E est un A-module injectif et i : M → E est un monomorphisme essentiel. On dit parfois
que E ou que i : M → E est une enveloppe injective de M .
Exemple : si Q est un module injectif, alors idQ : Q → Q est une enveloppe injective de Q.
La proposition suivante entraîne en particulier l’unicité à isomorphisme près de l’enveloppe
injective d’un module.
Preuve. L’assertion (i) de ce théorème est valable pour n’importe quel anneau A : c’est le
théorème de Eckmann-Schöpf, voir [6], §57 pour une preuve.
La preuve de l’assertion (ii) comprend L deux étapes. On montre d’abord que si (Qλ )λ∈Λ est une
famille de modules injectifs, alors λ∈Λ Qλ est injectif. La comparaison avec la proposition
1.1.6.4 montre que c’est le cas quand l’ensemble d’indice Λ est fini ; pour ramener le cas général
à cette situation, on utilise le critère d’injectivité de la proposition 1.1.6.5 (v) et le fait que
dans un anneau artinien à gauche, tous les idéaux à gauche sont de type fini (théorème de
Hopkins 2.2.2.3 (ii)). Ensuite, on considère une famille (Mλ )λ∈Λ de A-modules. L On dispose
alors
L des enveloppes L injectives iλ : Mλ ,→ E(Mλ ), d’où un monomorphisme i = λ∈Λ iλ de
λ∈Λ M λ dans λ∈Λ E(Mλ ). D’après la première étape, le codomaine est un module injectif.
En outre, le fait que chaque iλ soit un monomorphisme essentiel implique que i en est un. (Ce
n’est pas difficile à voir ; dans le cas qui nous occupe d’un anneau A artinien, on peut même
aller très rapidement en utilisant le corollaire 2.2.2.5 (iii) et l’exercice (4) du paragraphe 2.2.2).
Ainsi i est une enveloppe injective, ce qui démontre l’assertion (ii).
84
Enfin l’assertion (iii) est conséquence du fait que l’inclusion soc M ,→ M est un monomor-
phisme essentiel (corollaire 2.2.2.5 (iii)) : la composée soc M ,→ M ,→ E(M ) est alors elle
aussi un monomorphisme essentiel, et est donc une enveloppe injective de soc M .
Preuve. La preuve suit les mêmes lignes que celle de la proposition 2.3.4.3.
Remarques. Comme indiqué dans la preuve, l’assertion (i) du théorème 2.3.4.6 vaut pour
n’importe quel anneau A ; en revanche, il n’est pas garanti que E(M ) soit de type fini quand
M l’est, même si A est artinien. L’assertion (ii) de ce même théorème 2.3.4.6 est elle aussi
vraie sans hypothèse sur A quand la somme (indexée sur l’ensemble Λ) est finie ; sa validité
dans le cas général est équivalente au fait que l’anneau A est noethérien à gauche (voir [1],
Proposition 18.13). Enfin les assertions 2.3.4.6 (iii) et 2.3.4.7 (i) sont vraies si on suppose A
artinien à droite.
Dans le cas d’un anneau A artinien à gauche ou à droite, nous avons ainsi des bijections entre
trois ensembles :
( ) ( ) ( )
classes d’isom. de hd / classes d’isom. de E(?)
/ classes d’isom. de
o o .
projectifs indécomp. C(?) modules simples soc injectifs indécomp.
Exercices.
(1) Soit A un anneau artinien à gauche ou à droite. Montrer que tout A-module projectif
indécomposable est isomorphe à un A-module principal indécomposable.
(2) Soient A un anneau artinien à gauche ou à droite et P un A-module projectif indécom-
posable. Montrer que tout quotient de P est indécomposable. (Indication : soit X un
quotient de P . Alors hd X ∼
= hd P est simple. Le corollaire 2.2.2.5 (i) et l’exercice (4)
du paragraphe 2.2.2 interdisent alors à X d’être décomposable.)
(3) Soit A un anneau artinien à gauche ou à droite et soit Q un A-module injectif in-
décomposable. Montrer que l’anneau EndA (Q) est local. (Indication : commencer par
observer qu’un endomorphisme injectif h de Q est nécessairement inversible ; de fait,
h(Q) est un sous-module injectif de Q, donc est un facteur direct de Q, ce qui entraîne
h(Q) = Q puisque Q est indécomposable. Observer également que le socle de Q est un
sous-module essentiel et simple, donc est inclus dans tout sous-module non-nul de Q.
Maintenant, soit f ∈ EndA (Q). Les deux sous-modules ker f et ker(id−f ) s’intersectent
trivialement, donc ils ne peuvent contenir tous les deux le socle de Q, donc l’un des
deux est nul. Ainsi, f ou id − f est un monomorphisme, et est donc inversible. Utiliser
la proposition 2.3.1.1 (iv) pour conclure.)
85
2.4 Blocs d’un anneau artinien
Dans un anneau commutatif, les idempotents sont isolés et il n’existe au plus qu’une décom-
position idempotente primitive de l’unité. Plus précisément :
P
2.4.1.1 Proposition. Soit A un anneau commutatif. Supposons que 1 = i∈I ei soit une
décomposition idempotente de l’unité dans APet que chaque ei soit un idempotent primitif.
Alors chaque idempotent de A est une somme i∈J ei , où J est une partie de I. En particulier,
{ei | i ∈ I} est l’ensemble de tous les idempotents primitifs de A.
Soit (Bi )i∈I une famille finie d’anneaux et soit A L= i∈I Bi l’anneau produit. En tant que
Q
groupe abélien, nous pouvons donc écrire A = i∈I Bi ; chaque Bi apparaît ici comme un
idéal bilatère de A. Appelons εi l’unité de Bi , vuePcomme élément de B. Alors les εi sont des
idempotents appartenant au centre de A et 1 = i∈I εi est une décomposition idempotente
de l’unité dans A. Enfin Bi est l’idéal bilatère engendré par εi , il s’identifie à l’anneau εi Aεi ,
et la surjection canonique de A sur Bi ∼ j6=i Bj est donnée par x 7→ εi x.
L
=A
Réciproquement, soit A un anneau, et soit A = i∈I Bi une décomposition en somme directe
L
d’idéaux bilatères de A. Chaque Bi est stable par multiplication, et le produit d’un élément de
Bi par un élément de LBj est nul quand i 6= j, car il appartient à Bi ∩ Bj = {0}. Ainsi dans la
décomposition A = i∈I Bi , le produit de A se calcule composante par composante. Écrivons
1 = i∈I εi selon cette décomposition. Alors pour chaque x ∈ Bi , on a εj x = xεj = 0 pour
P
tout j 6= i, et par comparaison avec 1x = x1 = x, on arrive à εi x = xεi = x ; autrement dit
εi est un élément neutre pourQla multiplication de Bi . Ainsi chaque Bi est un anneau et A
s’identifie à l’anneau produit i∈I Bi .
Ces considérations montrent que décomposer un anneau A en produit est un problème équi-
valent à décomposer A en somme directe d’idéaux bilatères, c’est-à-dire à décomposer le
bimodule régulier A AA en somme directe de sous-bimodules. D’après l’introduction au pa-
ragraphe 2.3.2, ce problème est équivalent à la recherche d’une décomposition idempotente
de l’unité dans l’anneau des endomorphismes du bimodule régulier A AA , anneau qui est iso-
morphe au centre de A au vu de l’exemple 1.4.3.1 (1).
86
par celle de A, avec εi comme élément neutre.PEn tant qu’anneau, A s’identifie au produit
Q
i∈I Bi . On a Bi = Aεi = εi A. La somme 1 = i∈I εi est une décomposition idempotente de
l’unité, et les εi sont les idempotents primitifs du centre
L de A. Chaque idéal bilatère D de A
supplémenté en tant qu’idéal bilatère est une somme i∈J Bi , où J est une partie de I.
Preuve. Les hypothèses faites sur A font que le A-bimodule régulier est artinien. D’après
la proposition 1.2.2.3, il s’écrit donc comme la somme directe d’une famille finie (Bi )i∈I de
sous-bimodules indécomposablesP . Décomposons l’élément unité de A dans la somme directe
12
A = i∈I Bi en écrivant 1 = i∈I εi . Nous avons vu ci-dessus que Bi est un anneau pour la
L
multiplication induite parQcelle de A, avec εi comme élément neutre, et qu’en tant qu’anneau,
A s’identifie au produit i∈I Bi . Comme Bi 6= {0}, cela entraîne
P que εi est un idempotent,
qu’il est central, que Bi = Aεi = εi A, et que la somme 1 = i∈I εi est une décomposition
idempotente de l’unité.
Si l’on pourrait écrire εi = η + η 0 , avec η, η 0 deux idempotents centraux et orthogonaux,
alors Bi se casserait en somme directe ηBi ⊕ η 0 Bi , chaque terme étant un idéal bilatère (car
par exemple, ηBi = ηεi A = ηA = Aη). Cette impossibilité montre que εi est un idempotent
primitif du centre de A.
Appliquant la proposition 2.4.1.1 au centre de A et à la décomposition unipotente 1 = i∈I εi ,
P
on voit que {εi | i ∈ I} est l’ensemble de tous les idempotents primitifs du centre de A. Ce
fait montre l’unicité à indexation près de la famille (Bi )i∈I .
Enfin soit D un idéal bilatère de A (disons non-nul pour éviter un cas trivial) supplémenté en
tant qu’idéal bilatère. On écrit ainsi A = D ⊕ D0 et on décompose l’unité de A selon les termes
de cette somme : 1 = η + η 0 . Alors D et D0 sont des anneaux pour la multiplication induite par
celle de A, avec η et η 0 comme éléments neutres. Cela entraîne que η est un idempotentP central
de A et que D = ηA = Aη. Appliquant à nouveau la proposition 2.4.1.1, on écrit η = i∈J εi
pour une partie J ⊆ I. Il vient alors D = ηA = i∈J εi A = i∈J Bi .
L L
Les idéaux Bi apparaissant dans l’énoncé de la proposition 2.4.1.2 sont appelés les blocs de
A. Les idempotents centraux εi sont appelés les idempotents de bloc.
Exemple. Les blocs d’un anneau semi-simple artinien sont ses composantes simples. (C’est
une conséquence immédiate de la proposition 2.1.2.3.)
Exercice. Soit (Bi )i∈I une famille finie d’anneaux et soit A = i∈I LBi l’anneau produit.
Q
Montrer que tout A-module M se décompose en somme directe M = i∈I Mi , avec Mi =
Bi M . Montrer que si N = i∈I Ni est la décomposition d’un
Q second A-module, alors le groupe
L
HomA (M, N ) est canoniquement isomorphe au produit i∈I HomBi (Mi , Ni ).
12. C’est le seul endroit dans la preuve où l’on utilise que l’anneau A est artinien. La proposition 2.4.1.2 est
tout aussi vraie si l’on suppose que le A-bimodule régulier est noethérien, ce qui est par exemple le cas quand
A est noethérien à gauche.
87
2.4.2 Classes de liaison
2.4.2.1 Proposition. Soit A un anneau artinien à gauche. Pour chaque A-module in-
décomposable M , il existe un unique bloc B de A tel que BM = M . L’idempotent de bloc
correspondant agit sur M par l’identité. Tout autre bloc de A annule M .
88
P
(ii) Si E ⊆ pi(A) est une classe de liaison, alors e∈E Ae est un bloc de A. Chaque bloc
de A s’obtient de cette façon, et la classe de liaison est déterminée par le bloc.
Preuve. Soit e ∈ pi(A). Si B est le bloc de A auquel appartient le module principal indécom-
posable Ae, alors Ae = B(Ae) ⊆ B, puisque B est un idéal bilatère. La réciproque est vraie,
car Ae ne peut être inclus que dans un seul bloc. L’assertion (i) est prouvée.
Tout facteur de composition d’un module indécomposable appartient au même bloc que ce
dernier. Ceci implique que si deux modules principaux indécomposables Ae et Af ont un
facteur de composition commun, alors ils appartiennent au même bloc. Par transitivité, deux
modules principaux indécomposables Ae et Af appartiennent au même bloc dès que les idem-
potents primitifs
P e et f sont liés. Le (i) montre ainsi que si E est une classe de liaison dans
pi(A), alors e∈E Ae est inclus dans un bloc de A.
Soit (Ei )i∈I une indexation des classes de liaison dans ; ainsi i∈I Ei . Pour
F
pi(A) pi(A) =
i ∈ I, posons Di = e∈Ei Ae. Ainsi qu’il a été remarqué au paragraphe 2.3.3, le A-module à
P
gauche régulier peut être décomposé comme P somme directe finie de sous-modules principaux
indécomposables. Nous en déduisons que i∈I Di = A, d’où l’existence d’élements ηi ∈ Di
tels que i∈I ηi = 1.
P
Si deux idempotents primitifs e et f ne sont pas liés, alors Ae n’a pas de facteur de composition
commun avec Af ; au vu de la proposition 2.3.4.4 (ii), on a donc f Ae = HomA (Af, Ae) = 0.
On voit ainsi que Di Dj = 0 si i 6= j. Cela entraîne que chaque
P Di est
un idéal bilatère : en effet,
Di est un idéal à gauche par définition et Di A = Di j∈I Dj = Di Di ⊆ Di . Supposons
avoir une somme nulle i∈I xi = 0, avec xi ∈ Di pour chaque i ∈ I. En utilisant à nouveau
P
l’égalité Di Dj = 0 si i 6= j, nous calculons
! !
X X
xi = η j xi = η i xi = η i xj = 0
j∈I j∈I
pour chaque iL∈ I. Ainsi nous avons une décomposition comme somme directe d’idéaux
bilatères A = i∈I Di .
Nous avons par ailleurs montré que chaque Di est inclus dans un bloc de A. Appliquant la
proposition 2.4.1.2, nous concluons que les Di sont les blocs de A. L’assertion (ii) est prouvée.
Ainsi un anneau artinien à gauche A a autant de blocs qu’il y a autant de classes de liaison
dans pi(A), et deux idempotents primitifs e et f de A sont liés si et seulement si les A-modules
principaux indécomposables Ae et Af appartiennent au même bloc.
Pour conclure, tentons de relier les blocs d’un anneau artinien à gauche A à ceux de son
quotient semi-simpleQA = A/J(A). La décomposition A = i∈I Bi de A en blocs induit une
Q
décomposition A = i∈I Bi , où Bi est l’image de Bi dans A. Il y a plusieurs façons de voir cela
:
on
Q peut utiliser l’exercice (4) du paragraphe 2.2.2 pour montrer que J(A) = i∈I J(A)∩Bi =
Q
i∈I J(Bi ) ; on peut aussi étudier l’image dans A des idempotents de blocs de A. Cela étant,
la proposition 2.1.2.3 montre que chaque B i est la somme de composantes simples de A.
89
L’ensemble des composantes simples de A est en bijection avec l’ensemble des classes d’iso-
morphisme de A-modules simples, donc avec pi(A)/ ', donc avec pi(A)/ '. L’ensemble des
blocs de A est pour sa part en bijection avec pi(A)/ ∼. Le Q regroupement par paquets des
composantes simples de A donné par la décomposition A = i∈I Bi consiste à voir chaque
classe de liaison dans pi(A) comme union de classes d’équivalence pour '.
Exercices.
(1) Soit A un anneau artinien à gauche et soient e et e0 deux idempotents primitifs de A.
Montrer que les A-modules principaux indécomposables Ae et Ae0 ont un facteur de
composition commun si et seulement s’il existe un idempotent primitif f de A tel que
f Ae 6= 0 6= f Ae0 . (Indication : utiliser la proposition 2.3.4.4.)
(2) Soit A un anneau artinien à gauche. Montrer que deux A-modules indécomposables M
et M 0 appartiennent au même bloc si et seulement s’il existe une suite finie de modules
indécomposables M = M0 , M1 , ..., Mn = M 0 telle que Mj−1 et Mj ont un facteur de
composition commun pour chaque j.
(3) Montrer qu’un anneau commutatif artinien est isomorphe à un produit d’anneaux lo-
caux. (Indication : soit B un bloc d’un anneau commutatif artinien. Alors B est lui-
même commutatif artinien. L’anneau B/J(B) est donc semi-simple artinien commuta-
tif, donc est un produit de corps. Ce produit est réduit à un seul facteur, car à l’instar
de B, l’anneau B/J(B) ne possède pas d’idempotent autre que 1. Ainsi B/J(B) est
un corps, et on conclut en utilisant la proposition 2.3.1.1.)
90
3 Algèbres
Introduction
Il est bien connu que la réduction des endomorphismes est plus simple quand le corps de base
est algébriquement clos. Il est donc important de savoir se ramener à ce cas. La méthode
conceptuellement la plus simple est de travailler en coordonnées avec des matrices. Il est
toutefois aussi possible de conserver le langage des modules : si K/k est une extension de
corps et si V est un k[X]-module, alors on peut munir le produit tensoriel V(K) = K ⊗k V
d’une structure de K[X]-module.
Les deux premiers chapitres de cours étudiaient des objets définis « au-dessus de Z », sans
référence à un corps de base k. Nous voulons maintenant avoir un contrôle sur ce corps et
pouvoir le faire varier. Pour cela, nous devons remplacer la notion d’anneau par celle de k-
algèbre : une k-algèbre est un anneau A muni d’une structure de k-espace vectoriel compatible.
La théorie est ainsi faite que tout A-module est automatiquement un k-espace vectoriel sur
lequel A agit par applications k-linéaires. Tout ce qui a été vu dans les chapitres précédents
reste vrai, à condition de remplacer l’additivité (c’est-à-dire la Z-linéarité) par la k-linéarité.
Un exemple est la théorie des représentations des groupes. Soient G un groupe, k un corps et n
un entier naturel. Une représentation de degré n de G sur k est la donnée d’un homomorphisme
de groupes de G dans GLn (k). Le corps k est donné séparément de G et il est important de
pouvoir le traiter comme une variable. En définissant la k-algèbre kG du groupe, on ramène
l’étude des représentations de G sur k à l’étude des kG-modules de type fini.
Considérons une k-algèbre A et un A-module M . Pour toute extension de corps K/k, on peut
munir A(K) = K ⊗k A d’une structure de K-algèbre et M(K) = K ⊗k M d’une structure de
A(K) -module. Des questions intéressantes sont : qu’est-ce que le passage de k à K rend plus
simple quand K est algébriquement clos ? Le A(K) -module M(K) détermine-t-il le A-module
M à isomorphisme près ? À quelle condition la simplicité de M entraîne-t-elle celle de M(K) ?
Tout A(K) -module simple est-il de la forme M(K) ? À quelle condition sur A l’algèbre A(K)
est-elle semi-simple pour toute extension K/k ?
L’examen de la dernière question est particulièrement intéressant, car il conduit au théorème
principal de Wedderburn, qui est l’analogue pour les algèbres de la décomposition de Jordan-
Dunford pour les endomorphismes d’un espace vectoriel de dimension finie.
3.1 k-linéarité
3.1.1 Préliminaires
Donnons-nous un anneau commutatif k. Dans ce chapitre, les objets que nous regarderons
seront tous des k-modules. Nous les regarderons même comme des k-k-bimodules, k agissant
à droite de la même façon qu’il agit à gauche (il faut impérativement que k soit commutatif
91
pour pouvoir faire cela). Cela permet d’utiliser les constructions péniblement mises au point
dans le paragraphe 1.4.3.
Soient donc M et N des k-modules. Alors ce sont des k-k-bimodules. Une application f :
M → N est un homomorphisme de k-modules si et seulement si c’est un homomorphisme
de k-k-bimodules. De plus, le groupe Homk (M, N ) se trouve alors muni d’une structure de
k-k-bimodule, l’action étant donnée par
3.1.2 Algèbres
k-algèbre : une k-algèbre est un anneau A muni d’un homomorphisme d’anneaux de k dans le
centre Z(A) de A.
Notons ψA : k → Z(A) l’homomorphisme d’anneaux donné avec A. Alors A est un k-module,
l’action de λ ∈ k étant donné par la multiplication à gauche ou à droite par ψA (λ). Ainsi
λ(ab) = (λa)b = (aλ)b = a(λb) = a(bλ) = (ab)λ pour tout (λ, a, b) ∈ k × A2 ; on a donc une
compatibilité entre la structure de k-module et la structure d’anneau de A.
Un homomorphisme de k-algèbres f : A → B est un homomorphisme d’anneaux et de k-
modules. Il revient au même d’exiger que le diagramme suivant commute :
/A
ψA 5 Z(A)
k f
)
ψB / B.
Z(B)
92
3.1.2.1 Exemples.
(1) Un anneau est une Z-algèbre.
(2) L’anneau k est une k-algèbre.
(3) Si M est un k-module, alors Endk (M ) est une k-algèbre.
(4) Si A est une k-algèbre, alors Aop est aussi une k-algèbre : on garde la structure de
k-module (ou de k-k-bimodule) et on prend la structure d’anneau de Aop .
(5) Si A est une k-algèbre et n un entier strictement positif, alors Matn (A) est une k-
algèbre.
(6) Soient A et B deux k-algèbres. Alors le produit tensoriel A ⊗k B est un k-module (voir
le paragraphe 3.1.1). Par ailleurs, A ⊗k B hérite d’une structure d’anneau quand on le
regarde comme un quotient de A ⊗Z B (le sous-groupe de A ⊗Z B engendré par
est un idéal). On obtient ainsi une structure d’algèbre sur A⊗k B. On peut alors énoncer
des résultats à ceux du paragraphe 1.4.2. Notamment, il existe des homomorphismes
canoniques de k-algèbres de A et B dans A ⊗k B, et pour tout A-module M et tout
B-module N , on peut munir M ⊗k N d’une structure de A ⊗k B-module.
(7) Soient A et B deux k-algèbres et m et n deux entiers strictement positifs. Il existe alors
un isomorphisme Matm (A) ⊗k Matn (B) ∼ = Matmn (A ⊗k B).
Soit A une k-algèbre. Chaque A-module M est alors automatiquement un k-module, l’action
de λ ∈ k étant donnée par celle de ψA (λ) ∈ A. L’action de k commute alors à l’action de A,
et il n’y a pas d’inconvénient à regarder M comme un k-k-bimodule. Tout homomorphisme
de A-modules est automatiquement un homomorphisme de k-modules.
De façon équivalente, on peut définir un A-module à gauche comme la donnée d’un k-module
M et d’un homomorphisme de k-algèbres de A dans Endk (M ). On définit alors un A-module
à droite comme étant un Aop -module à gauche.
Prenons à présent deux k-algèbres A et B. Au paragraphe 1.4.3, nous avions appelé A-B-
bimodule un A ⊗Z B op -module à gauche. Dans le contexte actuel, cette définition présente
l’inconvénient que la structure de k-module définie via l’action de A ne coïncide a priori
pas avec le structure de k-module définie via l’action de B. Pour pallier ce problème, nous
appellerons A-B-bimodule un A ⊗k B op -module à gauche. Tout fonctionne alors de façon
sympathique : on a une action à gauche de A, une action à droite de B, une action de k
pouvant être vue comme une action à gauche ou à droite, et toutes ces actions commutent
joyeusement.
Soient A une k-algèbre, L un A-module à droite, et M et N des A-modules à gauche. Alors
HomA (M, N ) est non seulement un sous-groupe abélien de HomZ (M, N ), mais aussi un sous-
module du k-module Homk (M, N ). Cela signifie d’une part que tout homomorphisme de A-
modules de M dans N est automatiquement k-linéaire, et d’autre part que l’ensemble des
homomorphismes A-linéaires de M dans N est stable par multiplication par les éléments de
k. De la même façon, L ⊗A M est non seulement un quotient du Z-module L ⊗Z M , mais
93
aussi un quotient du k-module L ⊗k M (dans les deux cas, on quotiente par le sous-module
engendré par
{(la) ⊗ m − l ⊗ (am) | (l, a, m) ∈ L × A × M }).
On peut alors reprendre toutes les constructions des paragraphes 1.4.3 et 1.4.4 et les cuisiner
à la sauce k-linéaire.
Signalons pour conclure deux points de terminologie. Nous avions évoqué la notion de catégorie
additive au paragraphe 1.1.4 : c’est une catégorie dont les ensembles d’homomorphismes sont
des groupes abéliens, dont les produits de composition sont des opérations Z-bilinéaires, et
dans laquelle on peut toujours faire des sommes directes finies. De la même manière, on
parle de catégorie k-linéaire quand les ensembles d’homomorphismes sont des k-modules et
les produits de composition sont des opérations k-bilinéaires, k étant toujours ici commutatif.
Un foncteur F : A → B entre deux catégories k-linéaires est dit k-linéaire si pour chaque
couple (M, N ) d’objets de A , l’application F : HomA (M, N ) → HomB (F (M ), F (N )) induite
au niveau des groupes est k-linéaire.
94
Soient M et N deux k-modules. L’application f 7→ ιN ◦f est un homomorphisme de k-modules
∼
de Homk (M, N ) dans Homk M, N(K) . Par ailleurs, Homk M, N(K) = HomK M(K) , N(K)
est muni d’une structure de K-module. Nous voyons ainsi qu’il existe un homomorphisme
naturel de K-modules
α : Homk (M, N ) (K) → HomK M(K) , N(K)
Preuve. Considérant k, K et N comme étant fixés, nous écrirons αM pour indiquer que α
dépend de M .
On commence par examiner le cas où M est libre de type fini, disons M = k n . La distributivité
du produit tensoriel sur la somme directe donne alors M(K) ∼= K n , d’où
n
∼ HomK K n , N(K) ∼= N(K) ∼ = (N n )(K) ∼
HomK M(K) , N(K) = = Homk (M, N ) (K) .
C’est cette identification que réalise αM , qui est donc bien un isomorphisme ici.
Quand M est de présentation finie, on dispose d’une suite exacte F1 → F0 → M → 0, où F0
et F1 sont des k-modules libres de type fini. La naturalité de α fait qu’on dispose alors d’un
diagramme commutatif
L’exactitude à gauche des foncteurs Homk (?, N ) et HomK ?, N(K) et l’exactitude du foncteur
K⊗k ? implique que les lignes de ce diagramme sont exactes. Les deux applications αF0 et αF1
sont des isomorphismes. Une variante du lemme des cinq (exercice (3) du paragraphe 1.1.3)
nous dit alors que αM est un isomorphisme.
Reprenons notre k-algèbre commutative K. Le foncteur ?(K) d’extension des scalaires agit
aussi sur une algèbre et ses modules. De fait, si A est une k-algèbre, alors A(K) = K ⊗k A
est une k-algèbre, ιA : A → A(K) est un homomorphisme de k-algèbres, et l’homomorphisme
λ 7→ λ ⊗ 1 de K dans A(K) munit cette dernière d’une structure de K-algèbre. Si en outre M
est un A-module, alors M(K) = K ⊗k M est un K ⊗k A = A(K) -module.
Dans cette situation, prenons un second A-module N . Alors l’homomorphisme α construit
précédemment se restreint en un homomorphisme de K-modules
β : HomA (M, N ) (K) → HomA(K) M(K) , N(K) ,
95
3.1.3.2 Proposition. Partons du contexte ci-dessus. Supposons que K soit un k-module
plat et que M soit un A-module de présentation finie. Alors β est un isomorphisme.
Concluons ce paragraphe par quelques remarques. Nous nous sommes ici principalement atta-
chés à décrire le changement de base quand K est une k-algèbre commutative. Ce cadre couvre
deux situations courantes. La première est quand k est un corps et K est une extension de
k ; alors le k-module K est automatiquement libre, donc plat. Prendre pour K la clôture al-
gébrique de k permet alors de rendre les choses plus simples, mais demande de savoir ensuite
redescendre sur k. La seconde situation est celle où k est un anneau intègre, par exemple Z
ou Zp , et où K est soit un quotient par un idéal maximal, soit le corps des fractions de k.
L’idée ici est de se ramener à un corps, mais K peut ne pas être toujours plat, ce qui empêche
d’utiliser la proposition 3.1.3.2.
On peut également examiner ces constructions quand K n’est pas commutatif. On perd alors
la possibilité de dire qu’on regarde des K-algèbres, mais la proposition de changement de base
reste valable dans ce cas, avec la même preuve (voir [7], (2.38) par exemple). L’exploration de
cette situation peut s’avérer payante ; voir par exemple le théorème 3.3.1.3.
M ⊗k N (K) ∼
= M(K) ⊗K N(K) .
Tn V = V ⊗k · · · ⊗k V .
| {z }
n facteurs
(v1 ⊗ · · · ⊗ vm , w1 ⊗ · · · ⊗ wn ) 7→ v1 ⊗ · · · ⊗ vm ⊗ w1 ⊗ · · · ⊗ wn .
96
une k-algèbre. L’élément neutre pour la multiplication est 1 ∈ k = T0 V . L’algèbre T V est
N-graduée 13 . Enfin T V est engendrée par V = T1 V .
Soit I l’idéal de T V engendré par les éléments de la forme v ⊗ w − w ⊗ v, avec (v, w) ∈ V 2 .
Étant engendré par des éléments homogènes
L de degrén2, l’idéal I est homogène, ce qui signifie
n
que I = n∈N (I ∩ T V ) ; L en fait, I = n≥2 (I ∩ T V ). L’algèbre quotient S V = (T V )/I
L
est donc graduée : S V = n n n ∼ n n
n∈N S V , avec S V = (T V + I)/I = T V /(T V ∩ I). Le
produit dans S V est désigné par la juxtaposition des opérandes. On a S0 V = k et S1 V = V .
L’algèbre S V est engendrée par S1 V = V ; comme ces générateurs commutent entre eux, S V
est commutative.
Soit J l’idéal de T V engendré par les éléments de la forme L v⊗v, avec v ∈ V . Étant engendré par
n
des éléments homogènes de degré 2, l’idéal J vérifie J Vn n≥2 (J ∩VT
= V ). L’algèbre quotient
V = (T V )/J est donc graduée : V = V , avec n
V = (Tn V + J)/J ∼
V V L
n∈N =
n n V0
V1 V /(T V ∩ J). LeVproduit dans V estV1désigné par le symbole ∧.
T On a V = k et
V
V = V . L’algèbre V est engendrée par V = V . Pour (v, w) ∈ V 2 , nous avons v ∧v = 0
Preuve. L’assertion (i) se démontre par récurrence sur n à partir de la propriété universelle
du produit tensoriel. Les détails de la preuve sont vraisemblablement pénibles à écrire...
Plaçons-nous dans les hypothèses de (ii). Montrons d’abord l’unicité de fˆ. Si fˆ satisfait aux
L
13. Un anneau A est dit N-gradué s’il s’écrit comme une somme directe A = n∈N An de sorte que chaque
An est un sous-groupe additif de A, que 1 ∈ A0 , et que Am An ⊆ Am+n . Les éléments de An sont dits homogènes
de degré n. La dernière condition signifie donc que le produit de deux éléments homogènes est homogène, le
degré du produit étant la somme des degrés des facteurs.
97
conditions requises, alors l’application de Tn V dans W obtenue par composition
Tn V
'
7W
fˆ
Sn V
doit coïncider avec l’application f˜ de l’assertion (i). Ainsi si fˆ existe, elle doit s’obtenir par
factorisation de f˜. Réciproquement pour montrer l’existence de fˆ, il suffit de montrer que f˜
se factorise à travers la surjection canonique de Tn V sur Sn V .
Tout élément de I est somme d’éléments de la formeLx ⊗ (u ⊗ v − v ⊗ u) ⊗ y, avec (u, v) ∈ V 2 et
(x, y) ∈ (T V )2 . Utilisant la décomposition T V = p∈N Tp V , on constate que tout élément
de I ∩ Tn V est somme d’éléments de la forme x ⊗ (u ⊗ v − v ⊗ u) ⊗ y, avec (u, v) ∈ V 2 ,
(x, y) ∈ Tp V × Tq V et p + q = n − 2 ; on peut en outre exiger ici que x et y soient des
tenseurs purs. La symétrie de f fait que f˜ s’annule sur chaque tel élément. Ainsi f˜ s’annule
sur I ∩ Tn V . On obtient alors fˆ par passage au quotient. Ceci achève la preuve de l’assertion
(ii).
La preuve de (iii) est analogue à la preuve de (ii). La seule différence consiste à se souvenir
qu’une application n-linéaire alternée (c’est-à-dire qui est nulle chaque fois que deux des argu-
ments sont égaux) est automatiquement antisymétrique ; c’est là un argument classiquement
utilisé dans la construction du déterminant.
Preuve. Une remarque pour commencer : une base est une famille, et non pas un ensemble.
L’énoncé de ce théorème est donc légèrement incorrect ; l’abus d’écriture commis n’a d’autre
but que de permettre l’usage de la notation {· · · | · · · } si commode...
L’assertion (i) se montre par récurrence sur n, en utilisant la distributivité du produit tensoriel
sur la somme directe (proposition 1.4.1.4).
L’image d’une famille génératrice par une application linéaire surjective étant génératrice,
l’assertion (i) implique que
ei1 · · · ein (i1 , . . . , in ) ∈ I n
engendre Sn V . Comme S V est une algèbre commutative, l’élément ei1 · · · ein est laissé stable
par permutation des indices. On peut ainsi se restreindre aux suites (i1 , . . . , in ) croissantes sans
perdre le caractère générateur de notre famille de vecteurs. Considérons maintenantPl’algèbre
A des polynômes à coefficientsPdans k en la famille d’indéterminées (Ei )i∈I . À v = i∈I ai ei ,
associons le polynôme V = i∈I ai Ei . La proposition 3.1.4.1 (ii) montre l’existence d’une
98
application linéaire fˆ : Sn V → A telle que fˆ(v1 · · · vn ) = V1 · · · Vn pour chaque (v1 , . . . , vn ) ∈
V n . En particulier, fˆ(ei1 · · · ein ) = Ei1 · · · Ein . La famille des monômes
Ei1 · · · Ein i1 ≤ · · · ≤ in dans I
étant libre dans A , notre famille de vecteurs de Sn V est libre. Nous avons ainsi prouvé (ii).
La preuve de (iii) commence comme la preuve de (ii) : on utilise l’égalité eiσ(1) ∧ · · · ∧ eiσ(n) =
sgn(σ)ei1 ∧ · · · ∧ein , valable pour chaque suite (i1 , . . . , in ) ∈ I n et chaque permutation σ ∈ Sn ,
pour réordonner les indices et conclure que la famille
ei1 ∧ · · · ∧ ein i1 ≤ · · · ≤ in dans I
Vn
engendre V . La sous-famille obtenue en se restreignant aux suites (i1 , . . . , in ) strictement
croissantes est encore génératrice, car les vecteurs éliminés sont nuls. Maintenant, soit ei ∈ V ∗
la forme linéaire qui vaut 1 en ei et 0 en ej pour j 6= i. Soit i = (i1 , . . . , in ) une suite
strictement V croissante d’indices. La proposition 3.1.4.1 (iii) montre l’existence d’une forme
linéaire e : n V → k telle que
i
X
ei (v1 ∧ · · · ∧ vn ) = ei1 (vσ(1) ) · · · ein (vσ(n) )
σ∈Sn
99
3.1.4.4 Applications des algèbres symétriques et extérieures.
(1) Soit V un k-espace vectoriel de dimension n. Alors n V est uneVdroite vectorielle.
V
Chaque endomorphisme
Vn f ∈ Endk (V ) induit un endomorphisme n (f ) de la droite
vectorielle V ; le rapport de cet homomorphisme n’est autre que le déterminant de
f . En effet, prenant une base (e1 , . . . , en ) de V et la base duale (e1 , . . . , en ) de V ∗ , on
calcule
Vn
(f )(e1 ∧ · · · ∧ en ) = f (e1 ) ∧ · · · ∧ f (en )
n n
!
X Y
ip
= he , f (ep )i ei1 ∧ · · · ∧ ein
i1 ,...,in =1 p=1
n
!
X Y
= heσ(p) , f (ep )i eσ(1) ∧ · · · ∧ eσ(n)
σ∈Sn p=1
n
!
X Y
σ(p)
= sgn(σ) he , f (ep )i e1 ∧ · · · ∧ en
σ∈Sn p=1
= det(f ) e1 ∧ · · · ∧ en .
La formule det(f ◦g) = det(f ) det(g) s’obtient alors gratuitement en utilisant la foncto-
rialité de la construction. Les formules de Binet-Cauchy trouvent également une inter-
prétation naturelle dans ce cadre. Ainsi l’algèbre extérieure est une manière intrinsèque
de définir les déterminants, sans utiliser de coordonnées ou de base.
(2) Soit V un espace vectoriel de dimension finie n. Soit (e1 , . . . , en ) une base de V , soit
(e1 , . . . , en ) la base duale de V ∗ . Alors l’application P (X1 , . . . , Xn ) 7→ P (e1 , . . . , en )
de l’algèbre des polynômes k[X1 , . . . , Xn ] dans S V ∗ est un isomorphisme de k-algèbres
graduées. Ainsi S V ∗ peut être regardée comme la version sans coordonnée d’une algèbre
de polynômes. En outre quand k est infini, S V ∗ s’identifie à l’algèbre des fonctions
polynomiales sur V (à cet égard, on observera que les éléments de V ∗ sont bien des
fonctions sur V ).
100
3.1.4.5 Lemme. Les applications dp et δp sont bien définies par les formules ci-dessus.
Elles vérifient les équations
dp−1 ◦ dp = δp+1 ◦ δp = 0 et dp ◦ δp + δp−1 ◦ dp−1 = n idSn−p ⊗ Vp .
Preuve. L’expression
p+1
X
(−1)i+1 v1 · · · vn−p−1 wi ⊗ w1 ∧ · · · ∧ w
ci ∧ · · · ∧ wp+1
i=1
est multilinéaire en (v1 , . . . , vn−p−1 , w1 , . . . , wp+1 ), symétrique en (v1 , . . . , vn−p−1 ) et alternée
en (w1 , . . . , wp+1 ). Les propriétés universelles des différents avatars du produit tensoriel en-
traînent alors l’existence et l’unicité de dp . On montre de même l’existence et l’unicité de δp .
Quand on applique δp+1 ◦ δp à v1 · · · vn−p ⊗ w1 ∧ · · · ∧ wp , on obtient
n−p
X
v1 · · · vbi · · · vbj · · · vn−p ⊗ vi ∧ vj ∧ w1 ∧ · · · ∧ wp
i,j=1
i6=j
X
= v1 · · · vbi · · · vbj · · · vn−p ⊗ (vi ∧ vj + vj ∧ vi ) ∧w1 ∧ · · · ∧ wp ;
| {z }
1≤i<j≤n−p
0
ainsi δp+1 ◦ δp = 0. La preuve de dp−1 ◦ dp = 0 est du même genre.
Enfin on calcule l’image de v1 · · · vn−p ⊗ w1 ∧ · · · ∧ wp par dp ◦ δp :
n−p
X n−p
XX p
v1 · · · vbi · · · vn−p vi ⊗w1 ∧· · ·∧wp + (−1)j v1 · · · vbi · · · vn−p wj ⊗vi ∧w1 ∧· · ·∧ w
cj ∧· · ·∧wp
i=1 i=1 j=1
Preuve. L’équation dp−1 ◦ dp = 0 donne immédiatement im dp ⊆ ker dp−1 . Dans l’autre sens,
prenons x ∈ ker dp−1 . L’équation dp ◦ δp + δp−1 ◦ dp−1 = n idSn−p ⊗ Vp nous dit qu’alors
nx = (dp ◦ δp )(x) ∈ im dp . Ainsi x ∈ im dp .
101
3.1.4.7 Remarque. Une suite de modules et d’homomorphismes
dp dp−1
· · · → Ap+1 −→ Ap −−−→ Ap−1 → · · ·
est appelée complexe si dp−1 ◦ dp = 0 ; dans ce cas, im dp ⊆ ker dp−1 . Un tel complexe est
dit acyclique si on a im dp = ker dp−1 pour tout p (autrement dit, si la suite est exacte).
Il est dit homotope à zéro s’il existe une suite d’applications sp+1 : Ap → Ap+1 telle que
dp ◦ sp+1 + sp ◦ dp−1 = idAp . On vérifie facilement qu’un complexe homotope à zéro est
acyclique.
Ce qu’on appelle complexe de Koszul est en fait le premier complexe du théorème 3.1.4.6. Il
est homotope à zéro même quand la caractéristique de k est non-nulle. De fait, choisissons une
base (ei )i∈I de V et munissons I d’un ordre total ≤. Les vecteurs ej1 · · · ejn−p ⊗ ek1 ∧ · · · ∧ ekp
forment une base de Sn−p ⊗ p , les suites d’indices (j1 , . . . , jn−p ) et (k1 , . . . , kp ) étant crois-
V
santes, la première
Vp aun−p−1 sens large et la seconde strictement. On définit une application linéaire
n−p Vp+1
sp+1 : S ⊗ →S ⊗ sur cette base en décrétant que
(
ej2 · · · ejn−p ⊗ ej1 ∧ ek1 ∧ · · · ∧ ekp si j1 < k1 ,
sp+1 (ej1 · · · ejn−p ⊗ ek1 ∧ · · · ∧ ekp ) =
0 sinon.
Exercices.
(1) Soit V un espace vectoriel sur un corps k (de caractéristique quelconque, éventuellement
égale à 2). Il existe une application linéaire de V ∗ ⊗V ∗ dans l’espace k V des fonctions sur
V à valeurs dans k, qui envoie un tenseur de la forme f ⊗g sur la fonction v 7→ f (v)g(v).
Décrire l’image et le noyau de cette application linéaire. (Indication : par définition,
l’image est l’ensemble des formes quadratiques sur V . La remarque 3.1.4.4 (2) explique
que notre application linéaire s’identifie à l’homomorphisme canonique de T2 V ∗ sur
S2 V ∗ ; son noyau est donc le sous-espace vectoriel engendré par les éléments de la
forme f ⊗ g − g ⊗ f . On pourra aussi comparer avec le complexe de Koszul
d d
S2 V ∗ → 0,
V2
0→ V ∗ −→
1
V ∗ ⊗ V ∗ −→
0
102
Exemple. Une représentation matricielle de degré n de l’algèbre k[T ] est la donnée d’une
matrice X ∈ Matn (k). De fait, la donnée de X équivaut à celle de l’homomorphisme d’algèbres
P (T ) 7→ P (X) de k[T ] dans Matn (k).
L’algèbre Matn (k) agit par multiplication à gauche sur l’ensemble kcn des vecteurs colonnes
de taille n à coefficients dans k ; nous avons ainsi un isomorphisme d’algèbres Matn (k) ∼ =
Endk (kcn ). De même, l’algèbre Matn (k) agit par multiplication à droite sur l’ensemble kln des
vecteurs lignes ; d’où un isomorphisme d’algèbres Matn (k)op ∼ = Endk (kln ).
Soit A une k-algèbre et n ≥ 1 un entier. La donnée d’une représentation matricielle de A
de degré n permet de munir kcn d’une structure de A-module à gauche et de munir kln d’une
structure de A-module à droite. Réciproquement, la donnée d’un A-module à gauche M fournit
une représentation matricielle de A dès que le k-module sous-jacent à M est libre de rang fini ;
cette représentation dépend du choix d’une base du k-module M . De même, la donnée d’un
A-module à droite N fournit une représentation matricielle de A dès que le k-module sous-
jacent à N est libre de rang fini ; cette représentation matricielle dépend du choix d’une base
du k-espace vectoriel N . Ceci nous amène à la définition suivante.
Représentation : soit A une k-algèbre. Une représentation de A est un A-module M (à gauche
ou à droite) tel que le k-module sous-jacent à M soit un k-module projectif de type fini.
Quand k est un anneau principal ou un anneau local, tout k-module projectif de type fini
est libre (propositions 1.2.3.3 et 2.3.1.2). La différence entre représentation et représentation
matricielle se résume alors au fait d’avoir fixé une base. L’avantage d’utiliser des matrices
est que les calculs sont très explicites et que le changement de base s’effectue de manière
transparente.
Il y a quelques différences entre le langage des représentations et celui des modules : à la notion
d’isomorphisme entre deux modules correspond la notion d’équivalence : deux représentations
matricielles X et Y de même degré n d’une k-algèbre A sont dites équivalentes s’il existe
une matrice inversible P ∈ GLn (k) telle que P X(a) = Y (a)P pour tout a ∈ A. Ainsi deux
représentations matricielles provenant d’un même module mais correspondant à deux choix
de bases différents sont équivalentes ; réciproquement, deux représentations matricielles équi-
valentes fournissent des modules isomorphes. Ainsi on peut identifier une classe d’équivalence
de représentations matricielles de A avec une classe d’isomorphisme de A-modules.
Seconde différence de langage : considérons une représentation M de A, vue disons comme
A-module à gauche. Une sous-représentation N de M est un sous-module tel que N et M/N
soient des k-modules projectifs de type fini. (Cette condition supplémentaire est automatique-
ment satisfaite quand k est un corps.) Cette petite distinction entre les notions de sous-module
et de sous-représentation se retrouve dans la notion de simplicité : une représentation irréduc-
tible est une représentation qui n’a pas de sous-représentation non-banale, quand bien même
le module correspondant n’est pas simple (je ne sais pas si cet usage est général, car on entend
parfois dire module irréductible au lieu de module simple).
Dernière définition : soit M une représentation de A, vue comme A-module. Le rang du k-
module sous-jacent à M est appelé le degré de la représentation 14 .
14. Quand le k-module sous-jacent à M est projectif mais n’est pas libre, le rang n’est plus un entier, mais
103
3.2.1.1 Remarque. Soit A une algèbre sur un anneau commutatif k. Dans la discussion
précédente, quand nous regardions les représentations de A comme des A-modules, nous avions
besoin de distinguer entre A-modules à gauche et A-modules à droite. En revanche, il n’y avait
pas ce problème en ce qui concernait les représentations matricielles. Ainsi en passant par ces
dernières, on peut associer un A-module à droite à un A-module à gauche et réciproquement,
sous l’hypothèse que les k-modules sous-jacents soient libres de type fini.
Cette situation rappelle celle examinée dans la remarque 2.3.3.2. Un moyen de la formaliser
est d’introduire une dualité. Quand M est un A-module à gauche, le k-dual N = Homk (M, k)
de M est muni d’une structure de A-module à droite : pour f ∈ N et a ∈ A, l’application
f a = (m 7→ f (am)) de M dans k est un élément de N . Réciproquement, le k-dual M =
Homk (N, k) d’un A-module à droite N est un A-module à gauche (voir l’exemple 1.4.3.1 (3)).
La dualité que nous cherchons est donnée par le foncteur D = Homk (?, k). L’isomorphisme
canonique de bidualité rend D involutif quand on le restreint aux A-modules dont le k-module
sous-jacent est projectif de type fini. Par ailleurs D est un foncteur contravariant : à chaque
homomorphisme de A-modules à gauche f : M → M 0 correspond un homomorphisme dans
l’autre sens D(f ) : D(M 0 ) → D(M ) de A-modules à droite (D(f ) est la transposée de f ).
Quand k est un corps (cette hypothèse rend sans objet les petites subtilités liées à la notion de
sous-représentation), la dualité D échange les notions de sous-module et de module quotient,
préserve les modules simples et les modules complètement réductibles, échange le socle avec la
tête, échange les notions de monomorphisme et d’épimorphisme, et même de monomorphisme
essentiel et d’épimorphisme essentiel, etc.
3.2.2.1 Proposition. Soit k un corps algébriquement clos et soit ∆ une k-algèbre à divi-
sion de dimension finie sur k. Alors ∆ = k1.
Preuve. Soit δ ∈ ∆. L’homomorphisme d’algèbres P 7→ P (δ) de k[X] dans ∆ ne peut pas être
injectif, pour des raisons de dimension. Son noyau est donc un idéal non-nul de k[X]. Soit P
un élément non-nul de degré minimal dans ker ϕ. Supposons que P ne soit pas irréductible.
On écrit alors P = QR, avec Q et R de degré strictement inférieur au degré de P . Alors Q(δ)
et R(δ) ne sont pas nuls. Ils sont donc inversibles dans ∆, et donc leur produit Q(δ)R(δ) est
donc aussi inversible, en contradiction avec P (δ) = 0. Bref P est nécessairement irréductible.
Comme k est algébriquement clos, P est de la forme X − a, avec a ∈ k, et donc δ est a fois
l’unité de ∆. L’homomorphisme d’anneaux a 7→ a1 de k dans ∆ est donc surjectif. Il est aussi
injectif car k n’a pas d’idéal non-banal.
104
Une k-algèbre de dimension finie est un anneau artinien à gauche et à droite. Si A est une
k-algèbre de dimension finie, alors chaque A-module de type fini est de dimension finie sur
k (puisqu’il est quotient d’un module libre de type fini An ). En particulier, un A-module
simple ou un A-module projectif indécomposable est de dimension finie sur k. La proposition
suivante montre que chaque A-module injectif indécomposable est aussi de dimension finie sur
k. Un phénomène amusant est que si A est de dimension finie, tout module simple, projectif
ou injectif est de k-dimension inférieure à celle de A ; en revanche, rien n’exclut l’existence de
modules indécomposables de dimension arbitrairement grande.
Preuve. (i) Essentiellement, il s’agit de reprendre les assertions (ii) des propositions 1.1.6.2
et 1.1.6.5 et de voir que le foncteur de dualité D, qui consiste à prendre la transposée des
homomorphismes, renverse les flèches et permet de passer de la caractérisation des modules
projectifs à celle des modules injectifs. Il y a toutefois un problème : les modules L, M et N
intervenant là sont quelconques alors que notre dualité D ne s’applique correctement qu’aux
modules de dimension finie sur k. Faisons donc les choses proprement.
Supposons que M est injectif. Prenons un homomorphisme surjectif de A-modules à droite
D(f )
f : An → D(M ). En dualisant, on obtient une suite exacte courte 0 → M −−−→ D(A)n →
coker D(f ) → 0 de A-modules à gauche. L’injectivité de M nous dit que cette suite est scindée :
M est un facteur direct de D(A)n . Dualisant à nouveau, nous voyons que D(M ) est un facteur
direct de An , et est par conséquent projectif.
Dans l’autre sens, supposons que D(M ) est projectif. Soient I un idéal à gauche de A et
h ∈ HomA (I, M ). La projectivité de D(M ) fait qu’on peut compléter le diagramme
D(M )
f
D(h)
z
D(A) / D(I) / 0.
105
3.2.3 Représentations et changement de base
phisme de l’ensemble des représentations matricielles de A(K) de degré n sur l’ensemble des
K-représentations de A de degré n. Concrètement, la représentation de A(K) correspondant à
une K-représentation X : A → Matn (K) de A est son prolongement K-linéaire
X X
λi ⊗ ai 7→ λi X(ai ), où I est fini, λi ∈ K et ai ∈ A.
i∈I i∈I
Chaque représentation X de A est une K-représentation de A, vu que Matn (k) ⊆ Matn (K).
En termes de modules, cette évidence s’écrit de la façon suivante : si le A-module M fournit la
représentation X, alors la K-représentation X est fournie par le A(K) -module M(K) . Pour s’en
convaincre, il faut revenir aux définitions du paragraphe 3.1.3. Plus précisément, prenons M
un k-espace vectoriel de dimension finie n et muni d’une base (m1 , . . . , mn ). Ainsi le K-espace
vectoriel M(K) est de dimension n et est muni de la base (1 ⊗ m1 , . . . , 1 ⊗ mn ). Le point est
de vérifier que le diagramme
/ EndK M(K)
Endk (M )
est commutatif, où les flèches verticales sont les isomorphismes définis par le choix des bases,
où la flèche du haut est l’inclusion, et où la flèche du bas est l’application f 7→ idK ⊗ f .
Preuve. Si X et Y sont équivalentes, alors il existe une matrice P ∈ GLn (k) qui entrelace X
et Y . En particulier P appartient à GLn (K) et vérifie P X(a) = Y (a)P pour tout a ∈ A. La
difficulté est dans la réciproque, où il faut montrer que l’existence d’une matrice P adéquate
à coefficients dans K entraîne celle d’une matrice à coefficients dans k.
Le sous-espace vectoriel {(X(a), Y (a)) | a ∈ A} de Matn (k)2 étant de dimension finie, il est
engendré par une partie finie {(X(ai ), Y (ai )) | 1 ≤ i ≤ s}, où (a1 , . . . , as ) est une suite finie
d’éléments de A. Pour toute extension L du corps k, regardons le système linéaire homogène
106
portant sur (les coefficients d’) une matrice P ∈ Matn (L). Les coefficients de ce système
appartiennent à k. D’après les théorèmes classiques sur les systèmes d’équations linéaires
(mise sous forme échelonnée, par exemple), on peut trouver une base (P1 , . . . , Pr ) de l’espace
des solutions, indépendante de L et formée de matrices à coefficients dans k.
Notre hypothèse est qu’il existe (t1 , . . . , tr ) ∈ K r tel que t1 P1 + · · · + tr Pr ∈ GLn (K). Nous
voulons montrer qu’il existe (u1 , . . . , ur ) ∈ k r tel que u1 P1 + · · · + ur Pr ∈ GLn (k).
Regardons le polynôme Q(T1 , . . . , Tr ) = det(T1 P1 + · · · + Tr Pr ). Notre hypothèse assure qu’il
n’est pas identiquement nul. Par ailleurs, il est homogène de degré n. Si k est infini, alors il
existe (u1 , . . . , ur ) ∈ k r n’annulant pas Q et c’est gagné. Sinon, k possède une extension finie
L de cardinal plus grand que n + 1. Il existe alors (v1 , . . . , vr ) ∈ Lr n’annulant pas Q. La
matrice v1 P1 + · · · + vr Pr appartient alors à GLn (L) et entrelace X et Y .
Appelons M et N les A-modules fournis par les représentations X et Y . En tant que A-
modules, M(L) = L ⊗k M est isomorphe à la somme directe de [L : k] copies de M . De même
pour N . Notre matrice v1 P1 + · · · + vr Pr fournit un isomorphisme de A(L) -modules entre M(L)
et N(L) , donc fournit a fortiori un isomorphisme de A-modules. En appliquant le théorème de
Krull-Schmidt à la situation
M · · ⊕ M} ∼
| ⊕ ·{z = |N ⊕ ·{z
· · ⊕ N},
[L:k] termes [L:k] termes
on conclut que M ∼
= N . Les représentations X et Y sont donc équivalentes.
Appliqué à l’algèbre k[T ], ce théorème affirme que deux matrices n × n à coefficients dans k
sont semblables si et seulement si elles sont semblables sur K. Dans le langage des modules,
ce théorème dit la chose suivante.
La théorie des représentations des algèbres est plus simple quand le corps de base k est
algébriquement clos. La principale raison pour cela est que k est alors la seule algèbre à
division de dimension finie sur k (proposition 3.2.2.1).
3.2.4.1 Lemme (Schur). Soit k un corps algébriquement clos, soit A une k-algèbre, soient
M et N deux A-modules simples de dimension finie sur k. Si M ∼ = N , alors HomA (M, N ) est
de dimension 1 sur k ; si M 6∼
= N , alors Hom A (M, N ) = 0. En particulier, EndA (M ) = k idM .
Preuve. Il suffit de combiner le lemme de Schur 1.2.4.2 du chapitre 1 avec la proposition 3.2.2.1.
La seule chose à dire en plus peut-être est que le k-espace vectoriel HomA (M, N ) est de
dimension finie, puisque c’est un sous-espace vectoriel de Homk (M, N ).
107
3.2.4.2 Théorème (Burnside). Soient k un corps, A une k-algèbre, et M un A-module
simple de dimension finie sur k. Si EndA (M ) = k idM , alors l’homomorphisme de A dans
Endk (M ) est surjectif.
3.2.4.3 Théorème (Frobenius, Schur). Soit k un corps algébriquement clos, soit A une
k-algèbre, et soient M1 , ..., Mr des A-modules simples de dimension finie sur k et deux à deux
(s)
non-isomorphes. Pour chaque s ∈ {1, . . . , r}, soit ns = dimk (Ms ) et soit {Xij | 1 ≤ i, j ≤ ns }
un ensemble de coefficients matriciels pour Ms . Alors le sous-ensemble
r
(s)
G
{Xij | 1 ≤ i, j ≤ ns }
s=1
108
Un peu de numérologie pour conclure ce paragraphe. Prenons une algèbre semi-simple A de
dimension finie n sur un corps k pas forcément algébriquement clos. On peut alors décomposer
A en produit de ses composantes simples A ∼ = Matn1 (∆1 ) × · · · × Matnr (∆r ). Ici, il y a r
(classes d’isomorphisme de) A-modules simples M1 , ... Mr , l’algèbre à division ∆i est l’opposée
de l’anneau d’endomorphismes EndA (Mi ), et ni est la longueur du ∆i -module à droite Mi (voir
la remarque 2.1.2.4). Enfin le centre Z(A) de A est isomorphe au produit des centres Z(∆i )
des algèbres à division ∆i . On voit ainsi que
r
X r
X
dimk Mi = ni dimk ∆i , dimk A = n2i dimk ∆i et dimk Z(A) = dimk Z(∆i ).
i=1 i=1
Soit A une k-algèbre. Notons A∗ l’espace vectoriel dual Homk (A, k).
Le caractère d’une représentation matricielle X : A → Matn (k) de A est la forme linéaire
χX : a 7→ tr X(a) sur A. Deux représentations équivalentes ont même caractère : si X et
Y : A → Matn (k) sont équivalentes, alors il existe une matrice inversible P ∈ GLn (k) telle
que Y (a) = P X(a)P −1 pour tout a ∈ A, ce qui implique que X(a) et Y (a) aient même trace.
De même, le caractère d’un A-module M de dimension finie sur k est la forme linéaire χM : a 7→
tr ρ(a), où ρ : A → Endk (M ) est l’homomorphisme d’algèbres définissant la structure de A-
module sur M . Évidemment χM = χX si le module M fournit la représentation matricielle X.
À partir de maintenant et jusqu’à la fin de ce paragraphe, nous supposerons que k est al-
gébriquement clos. La proposition suivante est une conséquence immédiate du théorème de
Frobenius-Schur.
109
3.2.5.2 Proposition. Soit A une algèbre sur un corps k algébriquement clos. Si M1 , ...,
Mr sont des A-modules simples de dimension finie sur k et deux à deux non-isomorphes, alors
les formes linéaires χM1 , ..., χMr sont linéairement indépendantes dans A∗ .
Supposons que A soit de dimension finie. Jointe à la proposition 1.2.5.2, le résultat suivant
nous dit que deux A-modules de dimension finie sur k ont même caractère si et seulement s’ils
ont mêmes facteurs de composition, avec les mêmes multiplicités de Jordan-Hölder.
3.2.5.3 Proposition. Soit A une algèbre de dimension finie sur un corps k algébriquement
clos. Alors il existe un unique homomorphisme de groupes abéliens ch : G0 (A) → A∗ tel que
ch[M ] = χM pour chaque A-module de type fini. Cet homomorphisme est injectif.
Preuve. Reprenons les notations du paragraphe 1.2.5. Dans notre contexte où A est une algèbre
de dimension finie sur k, I est l’ensemble des classes d’isomorphismes de A-modules de
dimension finie sur k. Soit ch0 : Z(I ) → A∗ l’homomorphisme de groupes abéliens qui envoie
(M ) sur χM . Le diagramme de la preuve de la proposition 1.2.5.2 peut alors être complété :
(I )
i 6Z ch0
( ∗
Z(S ) h p 6A .
d
ch
G0 (A)
Pour mémoire, l’application d ici envoie l’élément [M ] du groupe de Grothendieck sur l’élément
((M : S))S∈S . La proposition 3.2.5.1 dit que ch0 se factorise à travers p, donnant ainsi lieu à
l’homomorphisme ch. La proposition 3.2.5.2 implique que l’homomorphisme ch0 ◦i est injectif.
(Cette proposition dit en fait davantage, à savoir que l’homomorphisme de k-espaces vectoriels
de k (S ) dans A∗ déduit par changement de base de ch0 ◦i est injectif.) Puisque d est un
isomorphisme, nous obtenons l’injectivité de ch0 ◦i ◦ d = ch ◦p ◦ i ◦ d = ch.
Dans tout ce paragraphe, on se donne une algèbre A sur un corps k. Les modules considérés
sont toujours de dimension finie sur k.
Module absolument simple : un A-module M est dit absolument simple si pour toute extension
K de k, le A(K) -module M(K) est simple.
On définit de manière analogue la notion de représentation absolument irréductible.
110
3.2.6.1 Théorème. Pour un A-module M simple de dimension finie, les conditions sui-
vantes sont équivalentes :
(i) M est absolument simple.
(ii) Pour toute extension finie K de k, le A(K) -module M(K) est simple.
(iii) Il existe une extension algébriquement close Ω de k telle que le A(Ω) -module M(Ω) est
simple.
(iv) EndA (M ) = k idM .
(v) Pour toute k-algèbre B et tout B-module simple N , le A ⊗k B-module M ⊗k N est
simple.
Preuve. Supposons (iii). Le lemme de Schur 3.2.4.1 dit que EndA(Ω) M(Ω) est de dimension 1
sition 3.1.3.2 nous dit alors que EndA (M ) est de dimension 1 sur k. (Note : cet isomorphisme
peut être prouvé sans l’arsenal déployé au paragraphe 3.1.3 ; examiner à ce sujet la preuve du
théorème 3.2.3.1.) Cela prouve (iv).
Supposons (iv). Le théorème de Burnside 3.2.4.2 affirme que l’homomorphisme de A dans
Endk (M ) est surjectif. Prenons
une extension K de k. L’homomorphisme de A(K) dans
∼
Endk (M ) (K) = EndK M(K) est donc surjectif. On en déduit que M(K) est un A(K) -module
simple. Ceci étant valable quel que soit K, nous avons montré (i).
Supposons (ii). Soit Ω une clôture algébrique de k. Prenons une base (ei )i∈I P du k-espace
vectoriel sous-jacent à M . Soit m un élément non-nul de M(Ω) . Alors m s’écrit i∈I ωi ⊗ ei ,
pour une famille de scalaires (ωi ) ∈ ΩI . Soit K la sous-extension de Ω/k engendrée par les
éléments de cette famille ; ainsi K est une extension finie de k. Nous pouvons regarder M(K)
comme un sous-K-espace vectoriel de M(Ω) et A(K) comme une sous-K-algèbre de A(Ω) , et
nous avons m ∈ M(K) . Puisque nous supposons (ii), le A(K) -module M(K) est simple, donc
est engendré par m. Alors A(Ω) m = Ω ⊗K A(K) m = Ω ⊗K M(K) = M(Ω) . Ainsi le A(Ω) -
module M(Ω) est engendré par m. Ceci étant vrai pour tout élement m non-nul, M(Ω) est un
A(Ω) -module simple. (iii) est donc vérifiée.
L’implication (iv) ⇒ (v) est un cas particulier de la proposition 1.4.5.1 (iii). L’assertion (ii)
est un cas particulier de l’assertion (v). Enfin l’implication (i) ⇒ (iii) est une conséquence
immédiate de la définition.
Soit A une k-algèbre de dimension finie. On dit que A est décomposée si tout A-module simple
est absolument simple. On dit qu’une extension K de k décompose A si la K-algèbre A(K) est
décomposée.
111
(iii) Si le corps K est algébriquement clos, alors il décompose A.
(iv) Il existe une extension finie de k qui décompose A.
Preuve. Soit K une extension de k. OnQ peut décomposer l’algèbre semi-simple A(K) /J A(K)
en produit de composantes simples i∈I Matni (∆i ). Chacune de ces composantes simples
correspond à un module simple Mi et l’algèbre à division ∆i est l’opposée de l’anneau d’endo-
morphismes EndA (Mi ). D’après le théorème 3.2.6.1, le A(K) -module Mi est absolument simple
si et seulement si ∆i = K. Cela donne l’équivalence annoncée dans (i).
Supposons que K décompose A. Avec (i), on peut donc écrire A(K) /J A(K) comme un pro-
duit i∈I Matni (K). SoitQE une extension de K. Par extension des scalaires, nous avons
Q
alors A(E) /J A(K) (E) ∼= i∈I Matni (E). Cet anneau est semi-simple, donc son radical de
Jacobson est réduit à {0}. Comme J A(K) (E) est un idéal nilpotent de A(E) , il est inclus
dans le radical de Jacobson J A(E) . D’après l’exercice (7) du paragraphe 2.2.1,
le radical de
Jacobson du quotient A(E) /J A(K) (E) est J A(E) /JQ A(K) (E) . Ainsi J A(E) = J A(K) (E)
et l’algèbre A(E) /J A(E) est isomorphe au produit i∈I Matni (E). D’après (i), cela signifie
que E décompose A. (ii) est prouvée.
Compte-tenu des théorèmes de structure des algèbres semi-simples de dimension finie et de la
proposition 3.2.2.1, l’assertion (iii) découle de (i).
Soit Ω une clôture algébrique de k. Choisissons une base (as )s∈S du k-espace vectoriel sous-
jacent à A. Le (iii), combiné au (i), donne un isomorphisme de Ω-algèbres A(Ω) /J A(Ω) ∼
=
Par ailleurs, on peut trouver une base du vectoriel sous-
Q
i∈I Mat ni (Ω). (f )
t t∈T Ω-espace
jacent à A(Ω) , avec T partitionné en T 0 t T 00 , de sorte que les ft appartiennent au radical
J A(Ω) si t ∈ T 0 , et les images dans le quotient A(Ω) /J A(Ω) des ft restants soient envoyés
sur les matrices élémentaires par notre isomorphisme. La base (as )s∈S peut être vue comme
une base du Ω-espace vectoriel A(Ω) . On peut donc parler de la matrice de changement de
base de (as )s∈S à (ft )t∈T . Le sous-corps de Ω engendré par les coefficients de cette matrice est
une extension finie K de k. La famille (ft )t∈T peut alors être vue comme une base de l’algèbre
A(K) , et la table de multiplication dans cette base est la même dans A(K) que dans A(Ω) . En
particulier, le sous-K-espace vectoriel N engendré par les (ft )t∈T 0 est alors un idéal nilpotent
de A(K) , et les éléments restants (ft )Q t∈T 00 , qui fournissent une base du quotient A(K) /N ,
donnent un isomorphisme ∼
A(K) /N = i∈I Matni (K). Alors N est inclus dans le radical de
Jacobson J A(K) et le radical de Jacobson de A(K) /N est réduit à {0}. L’exercice (7) du
paragraphe 2.2.1 conduit alors à J A(K) = N , et l’assertion (i) nous permet de conclure que
Exercices.
(1) Soient A une k-algèbre de dimension finie, K une extension de k, N un A(K) -module
simple. Montrer qu’il existe un A-module simple M tel que N soit isomorphe à un
facteur de composition du A(K) -module M(K) . (Indication : N est isomorphe à un
facteur de composition du A(K) -module à gauche régulier. Par ailleurs, le foncteur
d’extension des scalaires ?(K) envoie une série de composition du A-module à gauche
régulier sur une filtration du A(K) -module à gauche régulier. Utiliser alors le théorème
de raffinement de Schreier 1.2.4.4 ou le théorème de Jordan-Hölder 1.2.4.5.)
112
(2) Soient A une k-algèbre, M et N deux A-modules de dimension finie sur k, et K une
extension de k. Montrer que M et N ont un facteur de composition commun si et
seulement si les A(K) -modules M(K) et N(K) ont un facteur de composition commun.
(Indication : il suffit de traiter le cas où M et N sont simples et non-isomorphes. L’image
B de A dans Endk (M ⊕ N ) est alors une algèbre semi-simple de dimension finie, et
on peut trouver un idempotent central ε ∈ B agissant par l’identité sur M et par zéro
sur N . Soit a ∈ A relevant ε. Alors 1 ⊗ a ∈ A(K) agit par l’identité sur M(K) et par
zéro sur N(K) . Il est alors impossible que M(K) et N(K) aient un facteur de composition
commun.)
(3) Soient A et B deux k-algèbres de dimension finie, avec A décomposée. Montrer que
J(A ⊗k B) = J(A) ⊗k B + A ⊗k J(B) et que les A ⊗k B-modules simples sont les
M ⊗k N , où M est un A-module simple et N est un B-module simple. (Indication :
utiliser l’exemple 3.1.2.1 (7) pour démontrer que A/J(A) ⊗k B/J(B) est semi-simple.
Puis utiliser l’exercice (7) du paragraphe 2.2.1 pour prouver que l’inclusion évidente
J(A ⊗k B) ⊇ J(A) ⊗k B + A ⊗k J(B) est une égalité. La simplicité des A ⊗k B-modules
M ⊗k N de l’énoncé est conséquence de la proposition 1.4.5.1 (iii). Pour conclure, utiliser
un argument de comptage.)
3.2.7.1 Proposition. Tout A-module absolument simple de dimension finie sur k possède
un caractère central.
3.2.7.2 Corollaire. Soit A une k-algèbre commutative. Tout A-module absolument simple
de dimension finie sur k est de dimension 1 sur k.
113
On notera que quand k est algébriquement clos, on peut supprimer le mot « absolument »
dans l’énoncé de cette proposition et de son corollaire (théorème 3.2.6.1 (iii)).
Supposons k algébriquement clos. Étant donnée une k-algèbre commutative A, nous notons
A∧ l’ensemble des caractères linéaire de A. Ainsi A∧ est l’ensemble des classes d’isomorphisme
de A-modules simples de dimension finie sur k. Le groupe de Grothendieck K0 (A-moddf ) de
la catégorie des A-modules de dimension finie sur K (voir le paragraphe 1.2.5) est alors un
Z-module libre de base A∧ .
Toujours avec k algébriquement clos, prenons une k-algèbre A, et supposons avoir explicité
une sous-algèbre commutative B de A. Chaque A-module M de dimension finie sur k peut
alors être vu comme un B-module, de sorte que l’on dispose du symbole [M ] ∈ K0 (B-moddf ).
Quand B est assez grosse dans A, M est entièrement déterminé par ce symbole. C’est par
exemple le cas quand A est l’algèbre enveloppante d’une algèbre de Lie semi-simple g et B est
l’algèbre enveloppante d’une sous-algèbre de Cartan h de g.
Exercices.
(1) Soient k un corps, A une k-algèbre. Montrer que les caractères linéaires de A sont des
éléments linéairement indépendants de l’espace dual A∗ . (Indication : procédant par
l’absurde, on considère une relation de dépendance linéaire non-triviale de longueur
minimale entre les caractères linéaires de A, disons a1 h1 + · · · + an hn = 0. Alors tous
les ai sont non-nuls et n ≥ 2. Trouvant y ∈ A tel que h1 (y) 6= h2 (y), on peut alors
fabriquer une relation de dépendance linéaire plus courte en soustrayant l’une de l’autre
les deux relations suivantes
114
d’indéterminées). Montrer que tout A-module simple M est de dimension 1 sur k.
(Note : on ne suppose pas que le module M est de dimension finie sur k. Indication :
utiliser le Nullstellensatz.)
Algèbre séparable : une algèbre A de dimension finie est dite séparable sur k si pour toute
extension K de k, la K-algèbre A(K) est semi-simple.
Exemple. Une algèbre de matrice Matn (k) est séparable sur k. Plus généralement, une al-
gèbre A semi-simple et décomposée sur k est séparable sur k.
3.3.1.1 Proposition. Soit E une extension finie du corps k. Alors E est séparable sur k
en tant qu’algèbre si et seulement si l’extension E/k est séparable au sens de la théorie des
corps.
Preuve. Supposons que E/k soit séparable au sens de la théorie des corps. D’après le théorème
de l’élément primitif, on peut écrire E ∼
= k[X]/(P ), où P est un polynôme sans racine multiple.
Pour chaque extension K de k, on peut décomposer P = Q1 · · · Qr en produit de facteurs
irréductibles dans K[X], et les Qi sont deux à deux non-associés. Par le théorème des restes
chinois,
E(K) ∼= K[X]/(P ) ∼= K[X]/(Q1 ) × · · · × K[X]/(Qr )
est un produit de corps, donc est semi-simple. L’algèbre E est donc bien séparable sur k.
Supposons au contraire que E/k ne soit pas séparable au sens de la théorie des corps. Il existe
alors un élément x ∈ E qui est racine multiple de µ, son polynôme Q minimal sur k. Écrivons
la décomposition en facteurs irréductibles dans E[X] : µ = u i∈I νini , avec u ∈ E ∗ et les
νi polynômes unitaires irréductibles dans E[X] et deux à deux distincts. Alors un des ni est
supérieur ou égal à 2. En utilisant le théorème des restes chinois, on obtient un isomorphisme
ni
Pour le i tel que ni ≥ 2, l’image de νi dans E[X]/ νi est non-nulle et nilpotente. Cela
montre que k(x) (E) possède un élément nilpotent. L’algèbre E(E) possède donc un élément
nilpotent ; comme elle est commutative, son radical de Jacobson ne peut pas être nul. Ainsi
l’algèbre E n’est pas séparable sur k.
On dit qu’une k-algèbre A est simple centrale si elle est simple et si son centre est la droite
k1. (L’étude des algèbres simples centrales conduit à la définition du groupe de Brauer de
k, dont les propriétés dépendent de l’arithmétique du corps k.) Le lemme ci-dessous a pour
conséquence qu’une k-algèbre simple centrale est séparable.
115
3.3.1.2 Lemme. Soient A et B deux algèbres de dimension finie sur un corps k. On
suppose que la k-algèbre A est simple centrale.
(i) Un élément x de A ⊗k B qui vérifie (a ⊗ 1)x = x(a ⊗ 1) pour tout a ∈ A est de la forme
1 ⊗ b, avec b ∈ B.
(ii) L’application I 7→ A ⊗k I est une bijection de l’ensemble des idéaux bilatères de B sur
l’ensemble des idéaux bilatères de A ⊗k B.
(iii) J(A ⊗k B) = J(A) ⊗k B.
Preuve. Choisissons une base (ei )i∈I du k-espace vectoriel sous-jacent à B. Soit x un élément
de A ⊗k B vérifiant (a ⊗ 1)x = x(a ⊗ 1) pour tout a ∈ A. Il existe une unique famille (xi ) ∈ AI
telle que x = i∈I xi ⊗ ei . Pour chaque a ∈ A, l’égalité
P
X
0 = (a ⊗ 1)x − x(a ⊗ 1) = (axi − xi a) ⊗ ei
i∈I
P
entraîne axi −xi a. Ainsi chaque xi est de la forme λi 1, avec λi ∈ k, et donc x = 1⊗ i∈I i i .
λ e
Cela montre (i).
À présent, nous regardons A ⊗k B comme un A-A-bimodule pour la multiplication à gauche
et à droite de A sur le premier facteur du produit tensoriel. Comme AL est une algèbre simple,
le A-A-bimodule régulier est simple. La décomposition A ⊗k B = i∈I A ⊗ ei en somme
directe de bimodules isomorphes à ce bimodule régulier montre que A ⊗k B est un bimodule
complètement réductible. Qui plus est, pour chaque homomorphisme f : A → A ⊗k B de
bimodules, l’élément f (1) vérifie les hypothèses de (i), donc s’écrit 1 ⊗ b. On en déduit que
chaque sous-bimodule simple de A ⊗k B est de la forme A ⊗ b pour un élément b ∈ B, puis
que chaque sous-bimodule de A ⊗k B est de la forme A ⊗ I pour un sous-espace vectoriel I de
B. L’assertion (ii) découle facilement de cela.
En particulier, le radical de Jacobson J(A ⊗k B) est de la forme A ⊗k I, où I est un idéal
bilatère de B. Comme J(A ⊗k B) est nilpotent, I est nilpotent, donc I ⊆ J(B). Dans l’autre
sens, A ⊗k J(B) est nilpotent, parce que J(B) l’est, et donc A ⊗k J(B) ⊆ J(A ⊗k B). Tout
cela prouve (iii).
3.3.1.3 Théorème. Soit A une algèbre de dimension finie sur un corps k. Les neuf pro-
priétés suivantes sont équivalentes.
(i) L’algèbre A est séparable sur k.
(ii) Pour toute extension finie K de k, l’algèbre A(K) est semi-simple.
(iii) Il existe une extension algébriquement close Ω de k telle que A(Ω) est semi-simple.
(iv) Le centre de A est une algèbre séparable sur k.
(v) Pour toute k-algèbre semi-simple B, l’algèbre A ⊗k B est semi-simple.
(vi) Pour toute k-algèbre B de dimension finie, J(A ⊗k B) = A ⊗k J(B).
(vii) L’algèbre A ⊗k Aop est semi-simple.
(viii) Le A-A-bimodule régulier A AA est projectif.
116
P P
(ix) Il existe un élément i∈I ai ⊗ bi ∈ A ⊗k A tel que i∈I ai bi = 1 et que pour tout c ∈ A,
on ait X X
cai ⊗ bi = ai ⊗ bi c dans A ⊗k A.
i∈I i∈I
A(K) est semi-simple, et cela est vrai pour chaque extension K de k. Ainsi (i) est vraie.
Preuve de (i) ⇔ (iv).
Pour étudier la séparabilité sur k de A ou de son centre, nous pouvons procéder composante
simple par composante simple. Sans nuire à la généralité, nous pouvons donc supposer que
A est une k-algèbre simple. Son centre Z est alors une extension de k d’après l’exercice (1)
du paragraphe 2.1.1.1 et A est une Z-algèbre simple centrale. Soit K une extension de k. Le
lemme 3.3.1.2 montre que le radical de Jacobson de
A(K) = K ⊗k A ∼ = K ⊗k Z ⊗Z A ∼
= Z(K) ⊗Z A
est J Z(K) ⊗Z A. Ainsi J A(K) est réduit à {0} si et seulement J Z(K) l’est. Les algèbres
117
g : x ⊗ y 7→ xy de A ⊗k Aop dans A étant un épimorphisme de A ⊗k Aop -module à gauche,
il existe un homomorphisme k : AP→ A ⊗k Aop tel que g ◦ k = idA . Écrivons k(1) sous la
forme k(1) = i∈I ai ⊗ bi . Alors i∈I ai bi = g(k(1)) = 1, et pour chaque c ∈ A, l’égalité
P
(c ⊗ 1)k(1) = k((c ⊗ 1) · 1) = k(c) = k((1 ⊗ c) · 1) = (1 ⊗ c)k(1) fournit la relation
X X
cai ⊗ bi = ai ⊗ bi c dans A ⊗k A.
i∈I i∈I
est m 7→ af (bm). Soit i∈I ai ⊗ bi l’élément dont (ix) affirme l’existence, soit L un sous-
espace vectoriel de M supplémentaireP de N , et soit f ∈ Homk (M, N ) la projection de M sur
N parallèlement à L. Alors g = i∈I ai f bi appartient à HomA (M, N ) ⊆ Homk (M, N ) et la
restriction de g à N est l’identité de N . De là vient alors facilement que le A-module ker g est
un supplémentaire de N dans M . Ainsi un sous-module d’un A-module admet toujours un
supplémentaire ; en d’autres termes, tout A-module est complètement réductible. Cela signifie
que A est semi-simple. Cet argument peut être repris pour chaque extension K de k : si A
vérifie (ix), alors A(K) vérifie également (ix), donc A(K) est semi-simple. Nous avons prouvé
l’implication (ix) ⇒ (i).
Les implications (i) ⇒ (ii), (i) ⇒ (iii), (vi) ⇒ (v) et (v) ⇒ (vii) découlent directement des
définitions.
3.3.1.4 Proposition. Soit A une k-algèbre de dimension finie. On suppose que A/J(A)
est séparable sur k. Alors :
(i) Pour toute k-algèbre B de dimension finie, J(A ⊗k B) = J(A) ⊗k B + A ⊗k J(B). En
particulier, pour tout A-module complètement réductible M et tout B-module complè-
tement réductible N , le A ⊗k B-module M ⊗k N est complètement réductible.
(ii) Pour toute extension K de k, J A(K) = J(A)(K) . En particulier, pour tout A-module
complètement réductible M , le A(K) -module M(K) est complètement réductible.
Supposons que A/J(A) soit séparable. D’après le théorème 3.3.1.3 (v), le membre
de droite
ci-dessus est semi-simple. On en déduit que J(A ⊗k B)/ J(A) ⊗k B + A ⊗k J(B) .
Maintenant, si M est un A-module complétement réductible et N est un B-module complète-
ment réductible, alors ann M ⊇ J(A) et ann N ⊇ J(B), donc l’annulateur du A ⊗k B-module
M ⊗k N contient J(A ⊗k B). Cela entraîne que M ⊗k N est un A ⊗k B-module complètement
réductible. L’assertion (i) est entièrement prouvée.
118
La preuve de l’assertion (ii) suit les mêmes lignes que celle de l’assertion (i). Les détails sont
laissés au lecteur, qui pourra d’ailleurs remarquer que quand K est une extension finie de k,
(ii) est un cas particulier de (i).
Exercices.
(1) Soit A une k-algèbre de dimension finie, et soit trA/k : A → k l’application qui à
a ∈ A associe la trace de la multiplication à gauche par a dans A (autrement dit, trA/k
est le caractère de la représentation régulière de A). Vérifier que la forme bilinéaire
T : (a, b) 7→ trA/k (ab) sur A est symétrique. Montrer que si T est non-dégénérée, alors
A est une k-algèbre séparable. (Indication : si a ∈ J(A), alors a est nilpotent, et il
s’ensuit que trA/k (a) = 0. En déduire que si a ∈ J(A), alors T (a, b) = 0 pour chaque
b ∈ A. Ainsi J(A) = {0} dès que T est non-dégénérée. Le même raisonnement prouve
la semi-simplicité de A(K) pour chaque extension K de k.)
(2) P
(Opérateur de Reynolds) Soit A une algèbre de dimension finie séparable sur k, et soit
i∈I ai ⊗ bi un élément de A ⊗k A dont le théorème 3.3.1.3 (ix) assure l’existence. À un
A-A-bimodule M , on associe son centre Z 0 (A, M ) = {m ∈ M | am = ma}. Montrer
que l’application \ : m 7→ m\ = i∈I ai mbi est une projection k-linéaire de M sur
P
son centre. Vérifier que pour tout élément a du centre Z(A) de A et tout m ∈ M ,
on a (am)\ = am\ = m\ a = (ma)\ . Vérifier enfin que chaque homomorphisme de
A-A-bimodules f : M → N donne lieu à un diagramme commutatif
f
M /N
\ \
Z 0 (A, M ) / Z 0 (A, N ).
f
(3) (Relations d’orthogonalité des caractères) Soit A une algèbre de dimension finie sépa-
rable sur k, et soit i∈I ai ⊗ bi un élément de A ⊗k A dont le théorème 3.3.1.3 (ix)
P
assure l’existence. Soient M et N deux A-modules de dimension finie sur k. Montrer
que X
dimk HomA (M, N ) = χN (ai )χM (bi ).
i∈I
Ce bref paragraphe n’a d’autre but que de préparer le terrrain pour la preuve du théorème
principal de Wedderburn, qui sera donnée au paragraphe suivant. Hormis la dernière proposi-
tion, il n’est en rien spécifique des algèbres séparables. On se fixe un corps k et une k-algèbre
A pour tout ce paragraphe.
119
Soit A une k-algèbre et M un A-A-bimodule. Pour un entier n ≥ 1, on note C n (A, M ) le
k-espace vectoriel des applications multilinéaires de An dans M . Un élément de C n (A, M )
peut aussi être vu comme une application k-linéaire de la puissance tensorielle n-ième A⊗n
dans M , où la puissance tensorielle A⊗n est le produit A ⊗k · · · ⊗k A de n facteurs. Pour n = 0,
on pose C 0 (A, M ) = Homk (k, M ) ∼= M . Les éléments de C n (A, M ) sont appelés n-cochaînes
de Hochschild.
À f ∈ C n (A, M ), on associe df ∈ C n+1 (A, M ) de la façon suivante :
On définit ainsi une application k-linéaire d : C n (A, M ) → C n+1 (A, M ), appelée différentielle
de Hochschild. Un calcul rapide montre que la composée d◦d de C n−1 (A, M ) dans C n+1 (A, M )
est nulle. La suite
d
0 → C 0 (A, M ) → · · · → C n (A, M ) −
→ C n+1 (A, M ) → · · ·
Cas n = 1. Un élément de Z 1 (A, M ) est appelé dérivation de A à valeurs dans M . C’est une
application k-linéaire f : A → M vérifiant f (ab) = af (b) + f (a)b pour tout (a, b) ∈ A2 . Un
élément de B 1 (A, M ) est appelé dérivation intérieure : c’est une dérivation f pour laquelle
existe un élément m ∈ M tel que f (a) = ma − am pour tout a ∈ A. Le quotient HH 1 (A, M )
est parfois appelé groupe des dérivations extérieures de A à valeurs dans M .
120
Cas n = 2. Un élément de Z 2 (A, M ) est appelé ensemble de facteurs (faute d’une meilleure
traduction de l’anglais factor set). C’est une application bilinéaire f : A × A → M vérifiant
af (b, c)−f (ab, c)+f (a, bc)−f (a, b)c = 0 pour tout (a, b, c) ∈ A3 . Un élément de B 2 (A, M ) est
appelé ensemble scindé de facteurs (split factor set en anglais) : c’est un ensemble de facteurs
tel qu’il existe une application k-linéaire F : A → M telle que f (a, b) = aF (b) − F (ab) + F (a)b
pour tout (a, b) ∈ A2 .
Remarque. Ces définitions peuvent en fait s’inscrire dans un cadre plus général. Notons Ae =
A ⊗k Aop l’algèbre enveloppante de A ; elle est définie de sorte que les Ae -modules soient
exactement les A-A-bimodules. Ainsi A et M sont des Ae -modules.
Posons Cnbar (A) = A⊗n+2 . Les éléments de Cnbar (A) sont combinaisons linéaires d’éléments de
la forme a0 ⊗ a1 ⊗ · · · ⊗ an ⊗ an+1 ; on convient de simplifier la notation en écrivant plutôt
a0 [ a1 | · · · | an ] an+1 pour ce dernier. On munit Cnbar (A) d’une structure de A-A-bimodule en
faisant agir A par multiplication à gauche sur le premier facteur et par multiplication à droite
sur le dernier facteur. La suite
bar δ m
· · · → Cn+1 − Cnbar (A) → · · · → C0bar (A) −→ A → 0,
(A) →
est alors une suite exacte de A-A-bimodules. De plus, chaque Cnbar (A) est un Ae -module libre.
On dit que C•bar (A) est la résolution bar de A.
Le complexe de Hochschild s’obtient alors en prenant l’image par le foncteur HomAe (?, M ) de
cette résolution bar. Les méthodes de l’algèbre homologique nous assurent alors de l’existence
d’un isomorphisme canonique HH n (A, M ) ∼ = ExtnAe (A, M ).
u v
3.3.2.1 Lemme. Soit 0 → L − →M − → N → 0 une suite exacte courte de A-modules. On
munit T = Homk (N, L) de sa structure de A-A-bimodule naturelle : pour g ∈ T et (a, b) ∈ A2 ,
l’application linéaire agb : N → L est n 7→ ag(bn). Soit s : N → M une application k-linéaire
telle que v ◦ s = idN . Pour a ∈ A, l’homomorphisme de k-modules n 7→ as(n) − s(an) de N
dans M est à valeurs dans im u, donc s’écrit u ◦ (f (a)), avec f (a) ∈ Homk (N, L) uniquement
déterminé. Nous définissons ainsi une application f : A → T .
(i) L’application f est une dérivation de A à valeurs dans T , autrement dit un 1-cocyle de
Hochschild appartenant à Z 1 (A, T ).
(ii) La classe de cohomologie [f ] ∈ HH 1 (A, T ) ne dépend que de la suite exacte, et pas du
choix de s.
121
(iii) La suite exacte est scindée si et seulement si f est une dérivation intérieure, autrement
dit si et seulement si [f ] = 0 dans HH 1 (A, T ).
Preuve. Soit (a, b) ∈ A2 . Alors u ◦ (f (ab)) est l’application n 7→ abs(n) − s(abn) de N dans M ,
u ◦ (f (a)b) est l’application n 7→ as(bn) − s(abn), et la A-linéarité de u montre que u ◦ (af (b))
est l’application n 7→ a(u ◦ f (b))(n) = a(bs(n) − s(bn)). Cela prouve (i).
Soit t ∈ Homk (N, L). Les définitions montrent que quand on remplace s par s + u ◦ t, la
dérivation f est changée en f + dt. La classe de cohomologie [f ] ∈ HH 1 (A, T ) ne change donc
pas dans cette transformation. L’assertion (ii) découle ainsi du fait que toute section k-linéaire
de v s’écrit sous cette forme s + u ◦ t.
Si la suite exacte courte est scindée, alors on peut choisir une section A-linéaire s, et la
dérivation associée est f = 0. Dans l’autre sens, supposons que [f ] = 0. Alors f s’écrit dt pour
un élément t ∈ T . Le remplacement de s par s − u ◦ t fait que f est changée en f − dt = 0.
Cela signifie que s − u ◦ t est A-linéaire. Ainsi s − u ◦ t : N → M est un homomorphisme de
A-modules tel que v ◦ (s − u ◦ t) = v ◦ s = idN , ce qui montre que la suite exacte courte est
scindée. Nous avons montré (iii).
Preuve. La preuve, semblable en tout point à celle du lemme précédent, est laissée au lecteur.
La seule petite difficulté supplémentaire est dans la preuve de (iii) : il faut montrer que si f = 0,
alors s est un homomorphisme d’algèbres. Il est manifeste qu’alors s préserve le produit, mais
il faut aussi montrer que s préserve l’élément neutre.
Pour chaque a ∈ A, l’égalité f (1, a) = 0 signifie que s(1)s(a) = s(a). De plus, s(1) − 1
appartient au noyau de v (car v est un homomorphisme d’algèbres), donc appartient à N . Il
s’ensuit que pour chaque n ∈ N , on a (s(1) − 1)n = 0. L’ensemble des éléments x ∈ E tels que
s(1)x = x contient donc s(A) et N ; c’est donc E tout entier, et en substituant x = 1, nous
obtenons s(1) = 1.
122
3.3.2.3 Théorème. Soit A une algèbre de dimension finie séparable sur k. Alors pour tout
A-bimodule M , on a HH n (A, M ) = 0 en tout degré n > 0.
Prenons (c1 , . . . , cn ) ∈
An . Un
Pcalcul direct etPfacile basé sur les
P définitions et utilisant les
égalités df (bi , c1 , . . . , cn ) = 0, i∈I c1 ai ⊗ bi = i∈I ai ⊗ bi c1 et i∈I ai bi = 1 donne f = dg.
Le cocycle f est donc un cobord.
Exercice. Soit A une k-algèbre de dimension finie. Montrer que si HH 1 (A, M ) = 0 pour
tout A-A-bimodule M , alors A est séparable sur k.
3.3.3.1 Théorème (Wedderburn, Malcev). Soit B une algèbre de dimension finie sur
un corps k. On note N le radical de Jacobson de B et on suppose que A = B/N est séparable
sur k.
(i) Il existe une sous-algèbre semi-simple S de B telle que B = S ⊕ N .
(ii) Si S et S 0 sont deux sous-algèbres de B telles que B = S ⊕ N = S 0 ⊕ N , alors il existe
n ∈ N tel que S 0 = (1 − n)S(1 − n)−1 .
123
Exemple. Soient V un k-espace vectoriel de dimension finie, u un endomorphisme de V , et
µ le polynôme minimal de u. La sous-algèbre B de Endk (V ) engendrée par u est isomorphe à
k[X]/(µ). On suppose que chaque diviseur irréductible unitaire de µ est séparable sur k (c’est-
à-dire, à racines simples). Notant ν le produit des diviseurs irréductibles distincts de µ, nous
savons que le radical de Jacobson de k[X]/(µ) est (ν)/(µ) (exercice (7) du paragraphe 2.2.2).
Notons N le radical de Jacobson de B ; d’après l’exercice (6) du paragraphe 2.2.2, N est
l’ensemble des éléments nilpotents de B. L’algèbre A = B/N est isomorphe à k[X]/(ν), donc
est un produit d’extensions séparables de k, donc est une k-algèbre séparable. Nous pouvons
donc appliquer le théorème de Wedderburn-Malcev : il existe une unique sous-algèbre S de B
telle que B = S ⊕ N . Manifestement S ∼ = k[X]/(ν) ; chaque élément de S est ainsi annulé par
le polynôme ν, donc est semi-simple (exercice (3) du paragraphe 1.3.1).
Décomposons u ∈ B selon la somme directe S⊕N en u = s+n. Alors s et n sont des polynômes
en u, donc commutent. De plus, n est nilpotent car n ∈ N , et s est semi-simple car s ∈ S.
Nous montrons ainsi l’existence d’une décomposition de Jordan-Dunford de u. Examinons à
présent l’unicité. On part d’une décomposition u = s + n, avec s semi-simple, n nilpotent, et
s et n des polynômes en u (cette hypothèse affaiblit notre résultat d’unicité en comparaison
de l’énoncé habituel du théorème de Jordan-Dunford). Alors n ∈ N et B = k[s] + N , car
pour tout polynôme P ∈ k[X], on a P (u) ≡ P (s) mod (n). Par ailleurs, k[s] est une algèbre
semi-simple et commutative ; elle n’a donc pas d’élément nilpotent, d’où k[s] ∩ N = {0}. Ainsi
B = k[s] ⊕ N est la décomposition de Wedderburn-Malcev de B. Cela montre que S = k[s], et
par suite notre écriture u = s + n était celle qu’on obtenait en décomposant u selon la somme
directe B = S ⊕ N .
Remarque (décembre 2022). Le théorème 3.3.4.1 présenté plus loin dans ce paragraphe n’est
pas pertinent. L’énoncé suivant requiert moins d’hypothèses et sa démonstration est plus
simple.
Soient A un anneau et M un A-module de longueur finie. Rassemblons les termes isomorphes
d’une décomposition de Krull-Schmidt de M en écrivant M ∼ ⊕ni
L
= i∈I i , où les A-modules
N
Ni sont indécomposables et deux à deux non isomorphes. Posons B = EndA (M ), et pour i ∈ I,
posons Bi = EndA (Ni ) (un anneau local) et ∆i = Bi /J(Bi ) (son anneau à division résiduel).
124
(i) Le radical de JacobsonQJ(B) est formé d’éléments nilpotents et l’anneau B/J(B) est
isomorphe au produit i∈I Matni (∆i ).
(ii) Pour chaque i ∈ I, la tête Si du B-module HomA (Ni , M ) est simple. On obtient ainsi
tous les B-modules simples à isomorphisme près. L’anneau des endomorphismes de Si
est ∆op op
i et Si est un ∆i -espace vectoriel de dimension ni .
(iii) Si M est de longueur finie en tant que B-module, alors la multiplicité de Jordan-Hölder
de Si dans ce module est égale à la longueur de Ni en tant que Bi -module.
On peut même démontrer que le radical de Jacobson J(B) est un idéal nilpotent (théorème
de Small et Fisher ; voir [1], Theorem 29.2).
Esquisse de preuve. L’anneau B 0 des endomorphismes de i∈I Ni⊕ni est un ensemble de ma-
L
trices par blocs, le bloc (i, j) devant appartenir à Matni ,nj (HomA (Nj , Ni )). Si i 6= j, alors
v ◦ u ∈ J(Bi ) pour chaque (u, v) ∈ HomA (Ni , Nj ) × HomA (Nj , Ni ) ; par suite, le sous-groupe
additif J de B 0 formé des matrices dont les blocs diagonaux appartiennent à Matni (J(Bi )) est
un idéal. Chaque choix d’une décomposition de Krull-Schmidt de M définit un isomorphisme
ϕ : B → B 0 , cependant l’idéal ϕ−1 (J) est indépendante de ce choix, car deux décompositions
de Krull-Schmidt de M sont conjuguées par l’action du groupe AutA (M ). De cette observa-
tion, on déduit que les éléments ϕ−1 (J) sont nilpotents : en effet, regardons un endomorphisme
f ∈ B pour lequel la somme directe M = f ∞ (M ) ⊕ f −∞ (0) donnée par le lemme de Fitting
possède un terme f ∞ (M ) non trivial ; alors, pour l’isomorphisme ϕ défini par une décomposi-
tion de Krull-Schmidt appropriée, la matrice ϕ(f ) comporte un bloc diagonal inversible, donc
ne peut pas appartenir à J. Ceci entraîne que ϕ−1 (J) est inclus dans le radical de Jacobson
J(B), et finalement lui est égal puisque l’anneau quotient B/ϕ−1 (J) ∼ = B 0 /J est isomorphe à
i∈I Matni (∆i ) donc est semi-simple.
Q
125
Le texte original de ce paragraphe 3.3.4 est reproduit ci-dessous.
126
Supposons qu’il existe i ∈ {1, . . . , m} tel que a0 ei = 0. Pour chaque t ∈ T , on a alors
On en déduit que ei ⊗ ϕk (t) = uk (ei ⊗ t). Comme u est nilpotent, il existe un k, qui ne dépend
pas de t, tel que ei appartienne au noyau de ϕk (t). Comme S est un A0 -module simple, cela
signifie que ϕk (t) = 0. Ceci étant vrai pour chaque t ∈ T , ϕ est nilpotent.
Supposons au contraire que a0 ei n’est nul pour aucun Pmindice i. Définissons alors une matrice
(αij )1≤i,j≤m d’éléments de ∆ de sorte que a ei = j=1 ej αji pour chaque i. Appelons Np1 ,
0
..., Npr ceux des sous-modules Nn qui sont isomorphes à S et choisissons des isomorphismes
de A0 -module f1 : S → Np1 , ..., fr : S → Npr . Alors (f1 , . . . , fr ) est une baseP
du ∆-module T .
r
Définissons alors une matrice (φkl )1≤k,l≤r d’éléments de ∆ par ϕ(fk ) = l=1 φkl fl . Pour
chaque i ∈ {1, . . . , m} et chaque k ∈ {1, . . . , r}, l’élément
r
X m
X
ei ⊗ φkl fl − ej αji ⊗ fk = ϕ̃(ei ⊗ fk ) − a0 (ei ⊗ fk ) = u(ei ⊗ fk )
l=1 j=1
appartient à M
S ⊗∆ T ∩ u Mpk = S ⊗∆ T ∩ Mpk −1 = S ⊗ fl .
l<k
Pm
On en déduit que ei φkl = 0 si l > k, et que ei φkk = j=1 ej αji . Ceci devant être valable
pour chaque i et chaque k, nous en déduisons que φkl = 0 si l > k, que αji = 0 si i 6= j,
et que les αii et P les φkk sont tous égaux. Nous voyons ainsi qu’il existe α ∈ ∆ tel que
×
ϕ(fk ) − αfk ∈ l<k ∆fl pour chaque k ∈ {1, . . . , r}. Cette conclusion n’est en rien liée au
choix de (f1 , . . . , fr ) auquel nous avons procédé ; on peut y remplacer fk par λk fk chaque fois
que c’est utile, pour n’importe quel λk ∈ ∆× , sans que la valeur de α soit altérée. Il est alors
aisé de voir que ϕ est bijective. (La dernière observation est nécessaire pour s’accomoder de
ce que ϕ n’est pas ∆-linéaire.)
Les deux étapes précédentes montrent qu’un élément ϕ de EndB (M ) est toujours nilpotent
ou inversible, d’où l’indécomposabilité du B-module M .
Supposons enfin qu’on puisse trouver deux A-modules simples S et S 0 non-isomorphes pour les-
quels existe un isomorphisme de B-modules ϕ entre T = HomA0 (S, M ) et T 0 = HomA0 (S 0 , M ).
Parmi les modules Nn de notre suite de composition, énumérons (dans l’ordre croissant des
indices) les modules Np1 , ..., Npr isomorphes à S et les modules Nq1 , ..., Nqs isomorphes
à S 0 . Quitte à échanger les rôles de S et S 0 , nous pouvons supposer que p1 < q1 . Posons
∆ = EndA (S)op , T = HomA0 (S, M ), ∆0 = EndA (S 0 )op et T 0 = HomA0 (S 0 , M ). Choisissons
une base (e1 , . . . , em ) du ∆-module à droite S et un élément non-nul
Lm e0 ∈ S 0 . La composante
S-isotypique du A -module M s’écrit sous la forme S ⊗∆ T = i=1 ei ⊗ T ; la composante S 0 -
0
isotypique de M est S 0 ⊗∆0 T 0 . Définissons ϕ̃ ∈ EndB (M ) en demandant que ϕ̃(e1 ⊗t) = e0 ⊗ϕ(t)
pour chaque t ∈ T , que ϕ(ei ⊗ t) = 0 si i > 1, et que ϕ soit nulle sur les composantes iso-
typiques de A0 M autres que S ⊗∆ T . Par hypothèse, ϕ est donnée par l’action sur M d’un
élément a de A. Soit f : S → Np1 un isomorphisme de A0 -modules. Alors
127
appartient au noyau de ϕ(f ) ∈ T 0 . Ce noyau est ainsi un sous-A0 -module non-nul de S 0 , donc
est S 0 tout entier, d’où ϕ(f ) = 0, ce qui contredit l’injectivité de ϕ. Bref notre hypothèse
de départ était absurde : deux B-modules indécomposables T et T 0 correspondant à deux
A-modules simples S et S 0 non isomorphes ne peuvent être isomorphes.
128
4 Représentations des groupes
Introduction
Le père fondateur de la théorie des représentations est Ferdinand Georg Frobenius (1849–
1917). Le problème qui a initié ses recherches était le calcul du Gruppendeterminant. Partant
d’un groupe fini G, on introduit une famille d’indéterminées (Xg )g∈G . On regarde la matrice
(Xgh )(g,h)∈G2 , dont les coefficients sont des indéterminées, et on cherche à calculer son déter-
minant, qui est un polynôme homogène de degré égal à l’ordre de G. Le cas où G est un groupe
abélien avait été traité par Dedekind pour des travaux sur les bases normales des extensions
galoisiennes : sur C, le polynôme se factorise en produit de facteurs de degré 1. Dedekind avait
signalé à Frobenius que le cas général était une question ouverte. Frobenius a prouvé que le
Gruppendeterminant avait s facteurs irréductibles distincts, où s est le nombre de classes de
conjugaison de G, que chaque facteur irréductible apparaissait avec une multiplicité égale à
son degré, et que les degrés des facteurs irréductibles divisaient l’ordre de G.
Une représentation linéaire d’un groupe G est un homomorphisme de G dans un groupe de
matrices GLn (k). Le but est d’utiliser les outils du calcul matriciel pour pouvoir ensuite dire
des choses sur G. Une autre façon de dire cela est d’avoir la prétention de penser connaître
suffisamment bien le groupe concret GLn (k) pour en tirer des informations sur tous les autres
groupes. On peut justifier cette approche à travers deux résultats dûs à Schur, et dont on
pourra trouver une preuve dans le chapitre 36 de [6] :
— Soit G un sous-groupe de GLn (C). On suppose que G est engendré par un nombre fini
d’éléments et que tout élement de G est d’ordre fini. Alors G est fini.
— Soit G un sous-groupe de GLn (C). On suppose que tout élement de G est d’ordre fini.
Alors G possède un sous-groupe abélien distingué d’indice au plus
√ 2 √ 2
( 8n + 1)2n − ( 8n − 1)2n .
Un autre point de vue est le suivant. Un groupe n’existe qu’à travers ses actions. Vu que l’al-
gèbre linéaire est un pilier de notre culture mathématique, il est naturel d’étudier les actions
d’un groupe sur un espace vectoriel. Des applications apparaissent alors, tant en géométrie
élémentaire (l’existence de l’icosaèdre reflète l’existence d’une représentation réelle de dimen-
sion 3 du groupe alterné A5 ) qu’en analyse (la théorie des séries de Fourier permet d’écrire
une fonction sur U(1) comme combinaison linéaire de caractères du groupe U(1)).
Enfin, la théorie a aussi des applications dans le grand monde, puisque ce dernier est écrit en
caractères mathématiques. Par exemple, le formalisme de la mécanique quantique est basé sur
les espaces de Hilbert. Toute symétrie d’un système physique provient donc d’une action d’un
groupe sur un espace de Hilbert. Ainsi le spin des particules élémentaires, si important pour
la résonance magnétique nucléaire par exemple, provient d’une représentation de SU(2) sur
l’espace des états internes de la particule.
Bien qu’il soit parfois utile d’examiner des représentations de groupes sur des anneaux com-
mutatifs quelconques, nous conviendrons dans tout ce chapitre que k est un corps.
129
4.1.1 k-algèbre d’un groupe
Si e désigne l’élement neutre du groupe G, alors le neutre multiplicatif de l’anneau kG est 1e,
qu’on note plus simplement 1 ou e.
On vérifie alors sans peine que cette application est un homomorphisme d’algèbres, c’est-à-dire
qu’elle préserve le produit et le neutre multiplicatif. Les détails et la preuve de la réciproque
sont laissés en exercice au lecteur.
Appliquée à la k-algèbre A = Matn (k), cette proposition montre que la donnée d’une repré-
sentation matricielle de G sur k est équivalente à la donnée d’une représentation matricielle de
kG de même degré. Appliqué à la k-algèbre A = Endk (V ), où V est un k-espace vectoriel, cette
proposition montre que la donnée d’une représentation linéaire de G sur V est équivalente à
la donnée d’une structure de kG-module sur V .
130
Dans la suite, nous utiliserons ainsi librement le langage établi au chapitre 3. Seule variation :
si M et N sont deux représentations de G sur k, on note souvent HomG (M, N ) au lieu de
HomkG (M, N ).
4.1.2 Exemples
Si λ et µ sont deux caractères linéaires, alors leur produit g 7→ λ(g)µ(g) est encore un caractère
linéaire. L’ensemble des caractères linéaires de G est ainsi un groupe abélien : l’élement neutre
est le caractère unité g 7→ 1, et l’inverse d’un caractère linéaire λ est g 7→ λ(g)−1 .
ε : rk 7→ 1, rk s 7→ −1,
toutes deux de G dans k ∗ , sont des caractères linéaires de Dn . Nous avons donc déjà trouvé
deux représentations irréductibles de Dn .
131
Pour n impair, Dn possède 2 + (n − 1)/2 classes de conjugaison : {1}, {rk s | 0 ≤ k < n}, et
les paires {rj , r−j } pour j entier entre 1 et (n − 1)/2. Pour chaque tel j, posons
cos jθ − sin jθ 1 0
Rj = et S = .
sin jθ cos jθ 0 −1
Ces matrices appartiennent à GL2 (k) et vérifient les relations (Rj )n = S 2 = (Rj S)2 = I. Il
existe donc un homomorphisme de groupes de Dn dans GL2 (k) qui envoie r sur Rj et s sur
S ; dans cet homomorphisme,
cos jkθ − sin jkθ cos jkθ sin jkθ
k
r 7→ et r s 7→
k
.
sin jkθ cos jkθ sin jkθ − cos jkθ
Cette représentation est irréductible, car Rj et S n’ont pas de vecteur propre commun (ni sur
R, ni sur C). Nous obtenons ainsi (n − 1)/2 représentations irréductibles de degré 2 de Dn .
Elles sont par ailleurs deux à deux non-équivalentes : les matrices Rj ont des traces différentes,
donc appartiennent à des classes de conjugaison différentes dans GL2 (k). Au total, nous avons
donc construit 2 + (n − 1)/2 représentations irréductibles de Dn .
Pour n pair, Dn possède 3 + n/2 classes de conjugaison : {1}, {rn/2 }, {r2k s | 0 ≤ k < n/2},
{r2k+1 s | 0 ≤ k < n/2}, et les paires {rj , r−j } pour j entier entre 1 et n/2 − 1. Pour chaque
tel j, nous pouvons à nouveau poser
cos jθ − sin jθ 1 0
Rj = et S = ,
sin jθ cos jθ 0 −1
constater que ces matrices appartiennent à GL2 (k) et vérifier les relations (Rj )n = S 2 =
(Rj S)2 = I. Il existe donc une représentation de degré 2 de Dn qui envoie r sur Rj et s sur
S. Nous obtenons ainsi n/2 − 1 représentations irréductibles distinctes de degré 2 de Dn . Par
ailleurs, le groupe Dn possède deux autres caractères linéaires, donnés par
Au total, nous avons construit 3 + n/2 représentations irréductibles deux à deux non-équi-
valentes de Dn .
±1 7→ 1, ±i 7→ 1, ±j 7→ 1, ±k 7→ 1
±1 7→ 1, ±i 7→ 1, ±j 7→ −1, ±k 7→ −1
±1 7→ 1, ±i 7→ −1, ±j 7→ 1, ±k 7→ −1
±1 7→ 1, ±i 7→ −1, ±j 7→ −1, ±k 7→ 1
132
fournissent quatre représentations de degré 1 de Q. Par ailleurs, les trois matrices (de Pauli)
0 1 0 −i 1 0
σx = , σy = et σz =
1 0 i 0 0 −1
vérifient (−iσx )2 = (−iσy )2 = (−iσz )2 = (−iσx )(−iσy )(−iσz ) = −I. Il existe donc une
représentation matricielle de Q de degré 2 qui envoie −1, i, j et k sur −I, −iσx , −iσy et −iσz ,
respectivement. Cette représentation de Q est irréductible, car −iσx , −iσy et −iσz n’ont pas
de vecteur propre commun.
Une remarque pour conclure : adoptons les notations usuelles pour l’algèbre H des quaternions.
En particulier, H est un R-espace vectoriel de dimension 4, de base (1, i, j, k). L’ensemble
Sp(1) = {q ∈ H | q q̄ = 1} des quaternions de norme 1 est un groupe, homéomorphe à la
sphère de dimension 3. Le plongement de R-algèbres
a − id −c − bi
a + bi + cj + dk 7→
c − bi a + id
de H dans Mat2 (C) induit par restriction un isomorphisme de groupes de Sp(1) sur SU(2).
La représentation de Q de degré 2 que nous venons de définir est la composée
Q ,→ Sp(1) ∼
= SU(2) ,→ GL2 (C).
133
GLm (k) × GLn (k) ,→ GLmn (k) provenant de l’isomorphisme de k-algèbres Matm (k) ⊗k
Matn (k) ∼
= Matmn (k) de l’exemple 3.1.2.1 (7) 15 .
Le produit tensoriel de deux représentations est une opération commutative quand on ne
regarde les représentations qu’à équivalence près. De fait,
P étant données
P deux représentations
linéaires de G sur des espaces vectoriels V et W , le flip i∈I vi ⊗wi 7→ i∈I wi ⊗vi de V ⊗k W
sur W ⊗k V est un isomorphisme de kG-modules. De la même manière, la somme directe de
deux représentations est une opération commutative quand on ne regarde les représentations
qu’à équivalence près.
Contragrédiente : soit V un kG-module à gauche. Alors le k-espace vectoriel V ∗ = Homk (V, k)
est muni d’une structure de kG-module à droite, ainsi que nous l’avons observé dans la re-
marque 3.2.1.1. On peut transformer cette action à droite de G sur V ∗ en une action à gauche
en utilisant l’involution g 7→ g −1 de G. Concrètement, l’action de g sur une forme linéaire
f ∈ V est donnée par gf = m 7→ f (g m) . On peut dire cela d’une autre manière : étant
∗ −1
cette action d’une autre manière, en transportant à Homk (M, N ) la structure de kG module
par l’isomorphisme naturel de k-modules M ∗ ⊗k N ∼ = Homk (M, N ) (voir l’exercice du para-
graphe 3.1.1). Vice-versa, la représentation contragrédiente M ∗ s’identifie à la représentation
Homk (M, k), le deuxième kG-module k étant ici la représentation unité.
Puissances tensorielles, symétriques et extérieures : si on se donne une représentation linéaire
de G sur un espace vectoriel V , alors chaque Tn V est muni d’une action linéaire de G (par
itération de la construction ci-dessus du produit tensoriel de deux représentations). Ainsi G
agit par automorphismes sur l’algèbre T V . Les noyaux des applications canoniques de T V
sur S V et V sont des idéaux et des V sous-kG-modules de T V : cela permet V de définir une
V
action de G sur les quotients S V et V . Alors chaque pièce graduée Sn V et n V est l’espace
d’une représentation linéaire de G. Enfin les complexes de Koszul (théorème 3.1.4.6) sont des
suites exactes de kG-modules.
Invariants : soit π : G → GL(V ) une représentation d’un groupe T G sur un k-espace vectoriel
V . L’espace des invariants est le sous-espace vectoriel invG V = g∈G ker(π(g) − idV ) ; c’est
le plus grand sous-espace sur lequel l’action de G est triviale. (On note souvent V G au lieu
de invG V , mais cette notation prête confusion avec celle employée pour indiquer la puissance
d’un ensemble ou l’induite d’une représentation.)
Coinvariants : soit
P π : G → GL(V ) une représentation d’un groupe G sur un k-espace vectoriel
V . Posons J = g∈G im(π(g) − idV ). L’espace des coinvariants est l’espace vectoriel quotient
coinvG V = V /J ; c’est le plus grand quotient de V sur lequel l’action de G est triviale.
15. L’isomorphisme Matm (k) ⊗k Matn (k) ∼ = Matmn (k) n’est pas canonique, mais déterminé seulement à
composition par un automorphisme de Matmn (k) près. Cependant, l’exercice (2) du paragraphe 2.1.1 montre
que les automorphismes de la k-algèbre Matmn (k) sont de la forme A 7→ SAS −1 , où S ∈ GLmn (k). Le
plongement GLm (k) × GLn (k) ,→ GLmn (k) est donc déterminé à conjugaison près, et la représentation
matricielle X ⊗ Y est déterminée à équivalence près.
134
Exercices.
(1) Soient V et W deux k-représentations de G. Montrer que HomG (V, W ) est l’espace des
G-invariants de la représentation Homk (V, W ).
(2) Soient G un groupe et V une représentation de G sur un corps k. Construire des
isomorphismes canoniques de k-espaces
∗ vectoriels HomG (k, V ) = invG V , coinvG V =
k ⊗kG V et HomG (V, k) = coinvG V , où k est la représentation unité de G.
(3) Soit V une k-représentation de G. Montrer que invG V et J sont des sous-kG-modules de
V . Montrer que si le kG-module V est complètement réductible, alors V = invG V ⊕ J
et la composée invG V ,→ V coinvG V est un isomorphisme d’espaces vectoriels.
(Indication : pour montrer que V = invG V ⊕ J, on commencera par traiter le cas où
π est irréductible en distinguant selon que π est la représentation triviale ou non.)
4.1.4.1 Rappels sur la trace d’une application linéaire. Soit k un corps. Dans ces rappels,
tous les espaces vectoriels seront des k-espaces vectoriels de dimension finie.
(1) La trace d’une matrice carrée A est la somme tr A des éléments diagonaux de A. Si
m et n sont deux entiers strictement positifs, si A ∈ Matm,n (k) et B ∈ Matn,m (k),
alors tr(AB) = tr(BA). Deux matrices A et B carrées de même taille et semblables ont
même trace. Une matrice a même trace que sa transposée.
(2) Soit f un endomorphisme d’un espace vectoriel V . La trace de la matrice représentant
f ne dépend pas du choix de la base utilisée ; on la note tr f .
(3) Si V et W sont deux espaces vectoriels, si f : V → W et g : W → V sont deux
applications linéaires, alors tr(f ◦ g) = tr(g ◦ f ). La forme bilinéaire (f, g) 7→ tr(f ◦ g)
de Homk (V, W ) × Homk (W, V ) dans k est non-dégénérée et permet d’identifier chacun
des espaces Homk (V, W ) et Homk (W, V ) au dual de l’autre.
(4) Soit Vun espace vectoriel de dimension finie et V ∗ le dual de V . L’application i∈I vi∗ ⊗
P
vi 7→ w 7→ i∈I vi∗ (w)vi de V ∗ ⊗ V dans Endk (V ) est un isomorphisme d’espaces
P
135
pour tout couple (g, h) ∈ G2 . On note cf k (G) le k-espace vectoriel des fonctions centrales sur
G à valeurs dans k.
Caractère d’une représentation : soit π : G → GL(V ) une représentation linéaire d’un groupe
G sur un k-espace vectoriel V de dimension finie. Le caractère de π est la fonction χπ : g 7→
tr π(g) de G à valeurs dans k. Le caractère χπ appartient à cf k (G), car
χπ (ghg −1 ) = tr π(ghg −1 ) = tr(π(g)π(h)π(g)−1 ) = tr(π(h)π(g)−1 π(g)) = tr π(h) = χπ (h).
Si on choisit une base de V et qu’on appelle X la représentation matricielle définie par π dans
cette base, on a χπ (g) = tr X(g) pour tout g ∈ G. On notera éventuellement χX au lieu de
χπ . De même, si on sous-entend que V est un kG-module et non un simple espace vectoriel,
on pourra noter χV au lieu de χπ .
4.1.4.2 Remarque. Dans le paragraphe 3.2.5, nous avons défini le caractère d’une représen-
tation d’une algèbre A comme une forme linéaire sur A. Le lien avec la notion de caractère
définie ci-dessus est le suivant. L’algèbre A utilisée est évidemment l’algèbre kG du groupe,
de façon à pouvoir identifier représentations de G et représentations de A. Une forme linéaire
sur A est déterminée dès qu’on se donne ses valeurs sur une base de A. Comme G est une
base de A, cela signifie qu’on peut identifier l’espace des formes linéaires sur A avec l’espace
des fonctions sur G.
Opérateurs d’Adams : soit m ∈ Z un entier. Pour chaque fonction centrale ϕ, on note ψm (ϕ)
la fonction g 7→ ϕ(g m ). Manifestement ψm (ϕ) est une fonction centrale et l’application ψm :
cf k (G) → cf k (G) est un endomorphisme de la k-algèbre cf k (G). Quand m ≥ 1, ψm est appelé
opérateur d’Adams. L’opérateur ψ−1 est une involution, et est habituellement noté avec une
étoile : ψ−1 (ϕ) = ϕ∗ .
136
Preuve. L’assertion (i) est presque évidente (et a été considérée comme telle dans le para-
graphe 3.2.5). On peut par exemple dire que si X et Y : G → GLn (k) sont deux représenta-
tions matricielles équivalentes, alors il existe P ∈ GLn (k) telle que Y (g) = P X(g)P −1 pour
chaque g ∈ G, d’où tr X(g) = tr Y (g).
L’assertion (ii) a été prouvée dans un contexte plus général à la proposition 3.2.5.1. L’asser-
tion (iv) résulte des définitions et des rappels 4.1.4.1 (5) et (6).
L’assertion (iii) résulte de la proposition 3.2.5.3. La preuve qui en a été alors donnée peut être
réécrite sans faire appel à la notion de groupe de Grothendieck. On raisonne par récurrence
sur le degré de la représentation (c’est-à-dire sur la dimension du k-espace vectoriel M ). Si M
est une représentation irréductible, alors r = 1, S1 = M , et il n’y a rien à démontrer. Sinon,
M contient un sous-espace vectoriel non-banal L stable par l’action de tous les éléments du
groupe. On obtient alors une suite exacte courte 0 → L → M → N → 0 de représentations
de G, avec N = M/L. Puisque les dimensions de L et M sont strictement Pr inférieures à la
dimension
Pr de M , l’hypothèse de récurrence nous permet d’écrire χ L = i=1 (L : Si )χSi et
χN = i=1 (N : Si )χSi . Les égalités (M : Si ) = (L : Si ) + (N : Si ) et χM = χL + χN , prouvées
respectivement dans la proposition 1.2.5.1 et dans l’assertion (ii), entraînent alors la formule
souhaitée pour χM . Ceci achève la preuve de (iii).
Il reste à prouver l’assertion (v). Quitte à passer à une extension du corps de base, on peut
supposer que k est algébriquement clos. Soit π : G → GL(V ) l’homomorphisme de groupes
définissant la structure de kG-module de V . Soit g ∈ G. Il existe une base (e1 , . . . , ep ) de V
dans laquelle la matrice de π(g) est triangulaire supérieure, avec les valeurs (ξ1 , . . . , ξp ) sur la
diagonale. Alors pour chaque entier m ≥ 1,
137
p
!
X
= exp − log(1 − tξi )
i=1
p X m
!
X t m
= exp ξ
m i
i=1 m≥1
!
X tm
= exp ψm (χV )(g) .
m
m≥1
Ceci fournit la première égalité voulue. La seconde résulte d’un calcul analogue, qui débute
par
X X p
Y
tn χVn V (g) = (tξi1 ) · · · (tξin ) = (1 + tξi ).
n≥0 n≥0 i=1
1≤i1 <···<in ≤p
4.1.4.4 Théorème. Soit G un groupe et k un corps. Supposons que l’une des trois hypo-
thèses suivantes soit satisfaite :
(a) k est algébriquement clos.
(b) k est de caractéristique 0.
(c) G est fini.
Si M1 , ..., Mr sont des kG-modules simples de dimension finie sur k et deux à deux non-
isomorphes, alors les caractères χM1 , ..., χMr sont linéairement indépendants dans cf k (G).
Preuve. Le résultat a déjà été prouvé sous l’hypothèse (a) (c’était notre proposition 3.2.5.2)
et sous l’hypothèse (b) (voir l’exercice du paragraphe 3.2.5). La preuve sous l’hypothèse (c)
nécessite un peu de théorie de Galois ; je renvoie au paragraphe (17.3) de [7].
Ce théorème montre en particulier que sous n’importe laquelle des hypothèses (a), (b) ou
(c), une représentation irréductible de G est déterminée à équivalence près par son caractère.
Plutôt que de parler de classe d’équivalence de représentation irréductible, nous parlerons
donc de caractère irréductible. Nous notons Irr(G) l’ensemble des caractères irréductibles de
G sur k.
138
Preuve. D’après le théorème 4.1.4.4, Irrk (G) est une partie linéairement indépendante du k-
espace vectoriel cf k (G). D’après le théorème 4.1.4.3 (iii), c’en est aussi une partie génératrice.
Exercices.
(1) (i) Soit G un groupe fini agissant sur un ensemble fini Ω et soit k un corps de carac-
téristique 0. Soit χ le caractère de la représentation de permutation de G sur k (Ω)
(paragraphe 4.1.2.1). Montrer que pour chaque g ∈ G, χ(g) est le nombre de points
fixes de g dans Ω. Montrer que la dimension de l’espace des G-invariants dans k (Ω) ,
le nombre d’orbites de G dans Ω, et |G| 1
g∈G χ(g) sont trois quantités égales.
P
(ii) Soit F un corps fini et soit G = GL3 (F). On fait agir G à gauche sur l’ensemble
Ω = F3c des vecteurs colonnes de la façon habituelle. On munit l’ensemble Ω0 = F3l
des vecteurs lignes d’une action de G en posant g · v = vg −1 , le membre de droite
étant le produit matriciel ordinaire d’un vecteur ligne par une matrice. Enfin, soit
k un corps de caractéristique 0. Montrer que les représentations de permutation
0
de G sur k (Ω) et k (Ω ) ont même caractère. (Note : ces deux représentations de
permutation sont donc isomorphes. On montre cependant sans grande difficulté
qu’il n’existe pas de bijection G-équivariante entre les ensembles Ω et Ω0 .)
(2) Soit k un corps de caractéristique 0, soit G un groupe, soit π : G → GL(V ) une
représentation de G sur un k-espace vectoriel V . Calculer χS2 π et χV2 π en fonction de
χπ et de ψ2 (χπ ).
(3) Soit k un corps de caractéristique 0, soit G un groupe, soit π : G → GL(V ) une
représentation de G sur un k-espace vectoriel V . Montrer que pour tout entier n ≥ 1,
n
X
(−1)p χSn−p V χVp V = 0.
p=0
(Indication : on peut utiliser soit le théorème 3.1.4.6, soit le théorème 4.1.4.3 (v).)
(4) Soient k un corps de caractéristique 0 et G un groupe. On note A = cf k (G)[[t]] l’anneau
des séries formelles en t à coefficients dans cf k (G). Construire deux homomorphismes
de groupes abéliens Ht et Et de cf k (G) dans A× tels que pour chaque k-représentation
V de G, on ait
X X
Ht (χV ) = tn χSn V et Et (χV ) = t n χV n V .
n≥0 n≥0
139
4.1.5 Anneau de Grothendieck
Le théorème 4.1.4.5 met le doigt sur un petit inconvénient des caractères : la théorie ne marche
bien que sur un corps de caractéristique 0. Pour pallier cette limitation, on utilise le groupe
de Grothendieck G0 (kG) 16 , qu’on munit d’une structure d’anneau. Rappelons brièvement la
construction.
Soit I l’ensemble des classes d’équivalence de représentations de G sur k. Le groupe abélien
libre Z(I ) possède une base naturelle, en bijection avec I : à la classe d’équivalence d’une
représentation X correspond un élément (X) de la base de Z(I ) . Les éléments de Z(I ) sont
les combinaisons Z-linéaires des symboles (X), où il y a un symbole par classe d’équivalence
de k-représentation de G. On munit Z(I ) d’une structure d’anneau en définissant le produit
des vecteurs de base par la formule (X)(Y ) = (X ⊗ Y ) ; l’unité multiplicative est alors le
symbole (k) correspondant à la représentation triviale de G. On munit Z(I ) d’une involution
∗ en posant (X)∗ = (X ∗ ).
4.1.5.1 Proposition. Soit J le sous-groupe de Z(I ) engendré par les éléments de la forme
(Y ) − (X) − (Z), chaque fois qu’il existe une suite exacte courte 0 → X → Y → Z → 0 de
k-représentations (vues comme des kG-modules à gauche). Alors J est un idéal stable par
l’involution ∗.
Preuve. Soit T une k-représentation de G, et montrons que J est stable par multiplication à
gauche par (T ). Considérons un générateur de J, disons (Y ) − (X) − (Z), où 0 → X → Y →
Z → 0 est une suite exacte de k-représentations de G. Regardons cette suite comme une suite
exacte de kG-modules à gauche et appliquons le foncteur T ⊗k ?. Puisque le k-module T est
libre, donc plat, nous obtenons une suite exacte de k-modules
0 → T ⊗k X → T ⊗k Y → T ⊗k Z → 0.
On définit l’anneau de Grothendieck G0 (kG) comme étant le quotient Z(I ) /J, où J est l’idéal
construit dans l’énoncé de la proposition 4.1.5.1. On note [X] l’image de (X) dans G0 (kG) ;
16. Stricto sensu, le groupe G0 (kG) introduit ci-dessous ne coïncide avec celui du paragraphe 1.2.5 que quand
kG est de dimension finie, c’est-à-dire quand G est fini.
140
d’après la proposition 1.2.5.2, sa donnée est équivalente à celle des multiplicités de Jordan-
Hölder des représentations irréductibles dans X.
Tout élément de G0 (kG) est égal à une différence [X] − [Y ], où X et Y sont deux k-
représentations de G ; pour le voir, il suffit d’écrire que dans G0 (kG),
" # " #
X M M
nX [X] = X ⊕nX − X ⊕(−nX ) .
X∈I nX >0 nX <0
ch : G0 (kG) → cf k (G)
tel que ch[M ] = χM pour chaque représentation M de G sur k ; son image est ch kG. La
proposition 1.2.5.2 et les théorèmes 4.1.4.3 (iii) et 4.1.4.4 montrent que ch est injectif dès que
le corps k est de caractéristique 0.
Exercices.
(1) Soient k un corps, G un groupe, M une représentation
Pn k-linéaire de G, et n un en-
k Vn−k
tier strictement positif. Montrer que dans G0 (kG), k=0 (−1) [S M ][
k M ] = 0.
(Indication : utiliser le théorème 3.1.4.6.)
(2) Soient k un corps, G un groupe, et n un entier strictement positif. Montrer que pour
toute suitePexacte courte 0 → L → M → N → 0 de k-représentations de G, l’égalité
[Sn M ] = ni=0 [Sn−i L][Si N ] a lieu dans l’anneau G0 (kG). En déduire que si M est une
k-représentation de G, alors [Sn M ] ne dépend que de [M ] et pas de M . (Indication :
pour la première question, construire explicitement une filtration 0 = P0 ⊂ P1 ⊂
· · · ⊂ Pn+1 = S n M telle que Pi+1 /Pi ∼
=S
n−i
L ⊗ Si N . Pour la seconde, raisonner par
récurrence sur la longueur de M .)
(3) Soient k un corps, G un groupe, et n un entier strictement positif. Montrer que pour
toute
Vn suiteP exacte courteV0 → L → M → N → 0 de k-représentations de G, l’égalité
n Vn−i
[ M ] = i=0 [ L][ i N ] a lieu
V dans l’anneau G0 (kG). En déduire que si M est
une k-représentation de G, alors [ n M ] ne dépend que de [M ] et pas de M .
(4) Soient k un corps, G un groupe, et n un entier strictement positif. Soit ξ ∈ G0 (kG). Il
existe alors des k-représentations M et N de G telles que ξ = [M ] − [N ]. On pose
n
X n
X
Sn ξ = (−1)i [Sn−i M ][ i N ] et (−1)i [ n−i M ][Si N ].
V Vn V
ξ=
i=0 i=0
141
En multipliant cette formule par (−1)j+k [ j N ][ k N 0 ], en sommant sur j et k et en
V V
utilisant la relation provenant du complexe de Koszul, on trouve
n
X Xn
n−j
j
(−1) [S M ][ j N ] = (−1)k [Sn−k M 0 ][ k N 0 ].
V V
j=0 k=0
Ainsi Sn ξ est bien défini. Le cas deV n ξ se traite de manière analogue ou bien en
V
utilisant la formule Sn (−ξ) = (−1)n n ξ.)
Dans toute cette section, G sera un groupe fini et k sera un corps dont la caractéristique ne
divise pas l’ordre de G.
4.2.1 Séparabilité
Remarque. Ce théorème entraîne que J(kG) = {0}, et donc que kG/J(kG) est séparable.
On peut en fait montrer (voir [7], paragraphe (7.10)) que kG/J(kG) est séparable pour tout
groupe fini G, quelle que soit la caractéristique de k.
Le théorème 3.3.1.3, et plus particulièrement l’implication (ix) ⇒ (i), montre que tout kG-
module est complètement réductible. Par commodité pour le lecteur, nous allons redonner
cette preuve ici en faisant appel à l’opérateur de Reynolds. (Le lien avec l’exercice (2) du
paragraphe 3.3.1 est le suivant : une représentation de G sur un espace vectoriel V peut être
vu comme un kG-kG-bimodule en faisant agir G à droite sur V de façon triviale ; de cette
142
façon, l’espace des invariants invG V est vu comme le centre Z 0 (kG, V ) du bimodule ainsi
obtenu.)
Opérateur de Reynolds : soit π : G → GL(V )P une représentation k-linéaire de G. L’opérateur
de Reynolds est l’application linéaire \ = |G|
1
g∈G π(g) de V dans lui-même.
4.2.1.2 Proposition.
P
(i) Soit π : G → GL(V ) une représentation linéaire de G. Posons J = g∈G im(π(g) −
idV ). Alors V = invG V ⊕ J, et l’opérateur de Reynolds \ est le projecteur d’image
invG V et de noyau J.
(ii) L’opérateur de Reynolds commute à l’action de G sur V ; autrement dit, c’est un en-
domorphisme de π.
(iii) L’opérateur de Reynolds est naturel : chaque homomorphisme de représentations f :
V → W donne lieu à un diagramme commutatif
f
V /W
\ \
invG V / invG W.
f
Preuve. Pour chaque g ∈ G, on a π(g)◦\ = \◦π(g) = \. Cela montre que l’image de \ est incluse
dans invG V et que le noyau de \ contient J. Par ailleurs, idV −\ = |G|
1 P
g∈G (idV −π(g)) ; ainsi
invG est inclus dans le noyau de idV − \ et J contient l’image de idV − \. Nous en déduisons
que invG V ∩ J ⊆ ker(idV − \) ∩ ker \ = 0, que invG V + J ⊇ im \ + im(idV − \) = V , donc que
V = invG V ⊕ J. De plus, \ s’annule sur J et idV − \ s’annule sur invG V . Tout cela montre
l’assertion (i). Chemin faisant, nous avons aussi montré l’assertion (ii).
Soit π̂ : kG → Endk (V ) l’homomorphisme d’algèbres de kG dans Endk (V ) qui définit la
structure de représentation
P linéaire
de G sur V ; autrement dit, π̂ est le prolongement k-linéaire
de π. Soit e l’élement g∈G g /|G| de kG. L’opérateur de Reynolds sur V est \ = π̂(e). Par
définition, un homomorphisme de représentations est un homomorphisme de kG-modules,
c’est-à-dire une application linéaire qui commute à l’action de kG. Cela donne l’assertion (iii).
143
Preuve. L’opérateur de Reynolds est un projecteur sur invG V . La dimension de cet espace
est donc égale à
!
1 X 1 X 1 X
tr \ = tr π(g) = tr π(g) = χπ (g).
|G| |G| |G|
g∈G g∈G g∈G
pour tout v ∈ V . Cette formule montre que p\ prend ses valeurs dans W et que p\ (w) = w pour
chaque w ∈ W . Ainsi p est un projecteur sur W , de sorte que son noyau est un supplémentaire
de W . Par ailleurs, p\ est un élément G-invariant de E, donc appartient à HomG (V, V ) (voir
éventuellement l’exercice (1) du paragraphe 4.1.3). Son noyau est donc un sous-espace G-
stable. C’est le supplémentaire G-stable de W cherché.
Le théorème de Maschke affirme que tout kG-module est complètement réductible, autrement
dit que l’algèbre kG est semi-simple 17 .
Le théorème de Maschke a la conséquence très importante suivante, déjà signalée à la fin du
paragraphe 4.1.4, et que nous ne répéterons jamais assez : quand k est de caractéristique 0,
le caractère d’une représentation de dimension finie de G détermine cette représentation à
isomorphisme près.
À présent, démontrons la première relation d’orthogonalité entre les caractères, selon les lignes
de l’exercice (3) du paragraphe 3.3.1.
Preuve. Le caractère de la représentation de G sur l’espace Homk (V, W ) est la fonction cen-
trale (χV )∗ χW . Il suffit alors d’appliquer le corollaire 4.2.1.3 pour déterminer la dimension de
l’espace HomG (V, W ) = invG Homk (V, W ).
17. Pour une algèbre A de dimension finie sur un corps k, il y a équivalence entre les assertions : (i) toute
représentation de dimension finie sur k est complètement réductible ; (ii) A est un anneau semi-simple ; (iii) tout
A-module est complètement réductible. En fait, (i) entraîne que le A-module régulier à gauche est complètement
réductible, d’où (ii) ; (ii) entraîne (iii) en vertu du théorème 2.1.2.1 ; et l’implication (iii) ⇒ (i) est banale.
144
Exercice. Soit k un corps algébriquement clos de caractéristique 0. Soit G un groupe et
soit π : G → GL(V ) une représentation linéaire de G sur un k-espace vectoriel V . On regarde
l’action par automorphismes de G sur l’algèbre S V ∗ des fonctions polynomiales sur V . Notons
I = invG S V ∗ le sous-espace des invariants de G dans S V ∗ ; ainsi I ∩ Sn V ∗ = invG Sn V ∗ .
(ii) Soit f ∈ Endk (V ), et soit {ξ1 , . . . , ξp } l’ensemble des valeurs propres de f , répétées
selon leurs multiplicités. Introduisons une indéterminée t et étendons les scalaires de k
à k(t) ; ainsi id − tfQest un endomorphisme du k(t)-espace vectoriel k(t) ⊗k V . Vérifier
que det(id − tf ) = pi=1 (1 − tξi ).
(iii) (Théorème de Molien) Montrer que dans l’anneau k[[t]] des séries formelles en t,
X 1 X 1
tn dimk I ∩ Sn V ∗ =
.
|G| det(id − tπ(g))
n≥0 g∈G
À présent, et jusqu’à la fin du paragraphe, nous supposons que le corps k est tel que l’algèbre
kG est décomposée (voir le paragraphe 3.2.6). D’après la proposition 3.2.6.2, il suffit pour cela
que k soit algébriquement clos ; en outre, on peut trouver un tel k qui est une extension finie
de Q ou de Fp . Afin de disposer des résultats du paragraphe 4.2.1, nous demandons que la
caractéristique de k ne divise pas l’ordre de G.
D’après le théorème de Maschke, kG est une algèbre semi-simple. Le théorème 2.1.2.1 dit
alors que kG s’écrit comme le produit de ses composantes simples. Il y en a autant que de
145
classes d’isomorphisme de kG-modules simples. Prenons un représentant de chacune des classes
d’isomorphisme de kG-modules simples : S1 , ..., St . Pour chaque m ∈ {1, . . . , t}, l’anneau des
endomorphismes de Sm est EndG (Sm ) = k id, d’après la proposition 3.2.6.1. Appelons zm
la dimension sur k de Sm . D’après le théorème de Wedderburn-Artin 2.1.1.1, la composante
simple Bm de kG correspondant à Sm est isomorphe à Matzm (k) ; en tant que Bm -module
régulier à gauche, Bm est complètement réductible, somme directe de zm sous-modules simples
isomorphes à Sm . La remarque 2.1.2.4 dit enfin que l’annulateur dans kG du module Sm est
n6=m Bn .
L
Par ailleurs, le centre de kG est le produit des centres de chacune des algèbres Matzm (k),
d’où Z(kG) ∼ = k t . Le nombre de classes d’isomorphismes de kG-modules simples (c’est-à-dire
de représentations irréductibles de G sur k) est égal à la dimension sur k de Z(kG).
L’indépendance linéaire dans cf k (G) des caractères des représentations irréductibles, procla-
mée dans le théorème 4.1.4.4, se déduit facilement de cette relation d’orthogonalité.
On note ζ (m) le caractère de la représentation Sm . Ainsi, on a une énumération des caractères
irréductibles de G sur k : Irrk (G) = ζ (1) , . . . , ζ (s) . En général, on numérote de sorte que ζ (1)
soit le caractère de la représentation triviale : ζ (1) (g) = 1 pour tout g ∈ G. De la même façon,
on arrange la numérotation des classes de conjugaison de sorte que C1 = {1}.
146
On note hi le nombre d’éléments dans la classe de conjugaison Ci ; ainsi hi est l’indice dans G
du centralisateur de chaque élément dans Ci .
Pour chaque i ∈ {1, . . . , s}, l’ensemble {g −1 | g ∈ Ci } est une classe de conjugaison de G ;
disons que c’est Ci∗ . On définit ainsi une involution i 7→ i∗ sur l’ensemble {1, . . . , s}.
(m)
La fonction ζ (m) prend une valeur constante sur Ci ; on note ζi cette valeur.
4.2.2.5 (In)dépendance par rapport au choix du corps k. La théorie des caractères est es-
sentiellement indépendante du choix de k, pourvu que celui-ci soit de caractéristique 0 et que
l’algèbre kG soit décomposée. Expliquons brièvement pourquoi.
Prenons d’abord un corps k de caractéristique 0 et tel que l’algèbre kG soit décomposée. Soit
K une extension de k. Alors l’algèbre KG est décomposée (proposition 3.2.6.2 (ii)). Chaque
représentation irréductible X : G → GLn (k) de G sur k fournit alors par extension des
scalaires une représentation de G sur K, et cette dernière est irréductible, par définition du
fait que kG est décomposée. On obtient ainsi une bijection entre classes d’isomorphisme de
représentations de G sur k et classes d’isomorphisme de représentation de G sur K. Plus
précisément, appelant ι le plongement de k dans K, l’application χ 7→ ι ◦ χ est une bijection
de Irrk (G) sur IrrK (G).
147
Maintenant, soient k et k 0 sont deux corps de caractéristique 0 tels que les algèbres kG et k 0 G
soient décomposées. On peut alors trouver une extension commune K de k et k 0 : il suffit de
prendre un quotient de k ⊗Z k 0 par un idéal maximal. Les plongements k ,→ K et k 0 ,→ K
induisent des bijections Irrk (G) ∼
= IrrK (G) ∼
= Irrk0 (G), dans lesquelles les tables des caractères
de G sur k, K et k se trouvent identifiées.
0
Exercices.
(1) Déterminer les degrés des caractères irréductibles du groupe alterné A5 .
(2) Comparer les tables des caractères du groupe diédral D4 et du groupe quaternionique
Q, tous deux d’ordre 8.
(3) Dresser la table des caractères du groupe alterné A4 et construire les représentations
correspondantes.
(4) Soient k un corps algébriquement clos de caractéristique zéro, G un groupe fini et H
un sous-groupe distingué de G. Considérant l’action de G sur G/H par translations à
gauche, on construit une représentation de permutation V de G sur k. Déterminer les
multiplicités des représentations simples dans V . (Indication : considérer V comme une
représentation de G/H plutôt que comme une représentation de G.)
(5) (Calcul du Gruppendeterminant) Soit G un groupe fini. On conserve les notations intro-
duites plus haut : s est le nombre de classes de conjugaison, les zm sont les dimensions
des kG-modules simples. On introduit une famille d’indéterminées (xg )g∈G . On regarde
la matrice (xgh−1 )(g,h)∈G2 , dont les lignes et les colonnes sont indexées par G. Son dé-
terminant ∆ est un polynôme à coefficients entiers, homogène de degré |G|. Montrer
que la factorisation de ∆ sur C en produit de facteurs irréductibles s’écrit δ1z1 · · · δszs ,
où chaque δm est homogène de degré zm en les indéterminées xg . (Indication : on consi-
dère l’élément X = g∈G xg g, qui vit dans l’algèbre du groupe de G à coefficients dans
P
l’anneau des polynômes en les xg . La matrice deQl’énoncé donne l’action de X dans la
représentation régulière. L’isomorphisme CG ∼ s
= m=1 Matzm (C) conduit à réécrire X
comme une famille (Ym ) de matrices : les coefficients ym,i,j de Ym sont des polynômes
homogènes de degré 1 en les xg , algébriquement indépendants. Soit δm le déterminant
de la matrice Ym . Le résultat annoncé traduit le fait que chaque représentation simple
de G intervient dans la représentation régulière avec une multiplicité égale à son degré.)
148
4.2.3 Un peu d’analyse hilbertienne
Dans ce paragraphe, nous prenons k = C. Soit G un groupe fini. Une représentation complexe
de G est une représentation C-linéaire de G. Un caractère complexe de G est le caractère
d’une représentation C-linéaire de G ; c’est une fonction de G dans C.
Preuve. Adoptons les notations de l’énoncé. Posons N = |G|. Soit g ∈ G. Alors g N = 1, donc
X(g)N = I, ce qui montre que X(g) annule le polynôme T n − 1. Ce polynôme étant séparable
sur k (sans racine multiple), X(g) est diagonalisable, et ses valeurs propres ξ1 , ..., ξn (répétées
selon leurs multiplicités) sont des racines de T N − 1 dans k.
On a alors ζ(g) = ξ1 + · · · + ξn . Puisque les valeurs propres de X g −1 sont ξ1−1 , ..., ξn−1 , avec
multiplicité, on a aussi
Enfin pour que |ζ(g)| = n, il faut et il suffit que les ξi soient tous égaux. Alors X(g) est
semblable, donc égale, à une matrice scalaire.
L’assertion (i) de la proposition 4.2.3.1 explique comment se lit l’involution i 7→ i∗ sur la table
(m) (m)
des caractères complexes de G : on a ζi∗ = ζi pour chaque m{1, . . . , s}.
On définit un produit scalaire hermitien sur l’espace CG des fonctions sur G à valeurs com-
plexes en posant
1 X
(ϕ, ψ)G = ϕ(g)ψ(g)
|G|
g∈G
pour ϕ, ψ ∈ CG . Par restriction, le sous-espace cf C (G) des fonctions de classe est alors muni
lui aussi d’un produit scalaire hermitien.
4.2.3.2 Proposition.
(i) La famille Irrk (G) est une base orthonormée de cf C (G).
(ii) Soient deux représentations linéaires V et W de G sur C. Alors dim HomG (V, W ) =
(χV , χW )G .
(iii) Décomposons une représentation linéaire de G sur un C-espace vectoriel V en somme
directe de sous-représentations simples. Alors la multiplicité avec laquelle la représen-
tation simple de caractère ζ (m) apparaît dans V est égale à (ζ (m) , χV )G .
149
(iv) Une fonction ϕ ∈ cf C (G) appartient à l’anneau des caractères virtuels ch CG si et
seulement si (ζ (m) , ϕ)G ∈ Z pour chaque m ∈ {1, . . . , s}.
(v) Une fonction centrale ϕ : G → C est un caractère irréductible si et seulement si
(a) ϕ ∈ ch CG ; (b) (ϕ, ϕ)G = 1 ; (c) ϕ(1) ≥ 0.
Preuve. Le théorème 4.2.2.2 dit que IrrC (G) est une base de cf C (G). Compte-tenu de la propo-
sition 4.2.3.1, l’assertion (i) découle directement de la première relation d’orthogonalité 4.2.2.3.
L’assertion (ii) est la relation d’orthogonalité 4.2.1.5.
Considérons une représentation de G sur un espace vectoriel V . Décomposons cette repré-
sentation en somme directe de sous-représentations simples et appelons am P la multiplicité
avec laquelle la représentation simple de caractère ζ (m) intervient. Alors χV = sm=1 am ζ (m) .
D’après (i), on a donc am = (ζ (m) , χV ).
Pour chaque fonction de classe ϕ, nous pouvons écrire, compte-tenu de (i),
s
X
ϕ= (ζ (m) , ϕ)G ζ (m) .
m=1
Exemple et application.
(1) Le caractère ρ de la représentation régulière de G est donné par
(
|G| si g = 1,
ρ(g) =
0 si g =
6 1.
150
D’autres propriétés des représentations de groupes s’inscrivent agréablement dans le cadre de
l’analyse hilbertienne. Le lecteur est ici invité à consulter le paragraphe 4.4.6 ; il y trouvera
notamment une autre voie d’accès au théorème de Maschke 4.2.1.4 et à une partie de la
proposition 4.2.3.1.
Le cas des groupes abéliens est ainsi relativement simple. On cherche donc à y ramener le cas
d’un groupe G quelconque. Cela peut être fait de deux manières : en regardant des quotients
commutatifs de G ou en regardant les sous-groupes commutatifs de G. Regardons à ce propos
les quotients commutatifs de G.
Sous-groupe dérivé : soit G un groupe. Le sous-groupe dérivé de G est le sous-groupe de G
engendré par les commutateurs (g, h) = ghg −1 h−1 , avec (g, h) ∈ G2 . C’est un sous-groupe
distingué, noté G0 ou D(G).
Le sous-groupe dérivé G0 est contenu dans le noyau de tout homomorphisme de G dans un
groupe abélien. Le groupe quotient G/G0 est le plus grand quotient abélien de G, au sens où
un sous-groupe distingué H de G contient G0 si et seulement si G/H est abélien.
Un caractère linéaire d’un groupe G, c’est-à-dire un homomorphisme de G dans k ∗ (voir le
paragraphe 4.1.2.2), se factorise ainsi à travers l’abélianisé G/G0 . Il y a donc une bijection
canonique entre l’ensemble des caractères linéaires de G et l’ensemble des caractères linéaires
de G/G0 . En outre si k est algébriquement clos, ce dernier est l’ensemble des caractères irré-
ductibles de G/G0 , d’après la proposition 4.2.4.1.
Revenons au cas particulier d’un groupe abélien fini G. Pour fixer les choses, nous prenons k =
C. Pour G, les notions de (classes d’équivalence de) représentation irréductible, de caractère
irréductible, et de caractère linéaire sont identiques. Plutôt que IrrC (G), nous noterons dans
ce paragraphe G∧ l’ensemble des caractères irréductibles de G. D’après le théorème 4.2.2.2,
c’est un ensemble qui possède autant d’éléments que G, puisque les classes de conjugaison de
G sont réduites à un élément.
Nous savons que l’ensemble des caractères linéaires de G est un groupe (paragraphe 4.1.2.2) 18 .
On peut en fait voir G∧ comme un ensemble de fonctions jamais nulles de G à valeurs com-
18. En utilisant le théorème 4.1.4.3 (iv), on voit que le produit sur G∧ n’est autre que le produit tensoriel
des représentations.
151
plexes, c’est-à-dire comme un sous-groupe du groupe des éléments inversibles de l’algèbre CG .
Le théorème 4.2.2.2 dit que G∧ est une base de CG . Nous pouvons donc identifier l’algèbre du
groupe CG∧ à l’algèbre CG .
Enfin comme G∧ est un groupe abélien fini, on peut itérer la construction et considérer (G∧ )∧ .
Chaque élément g ∈ G fournit alors un caractère linéaire de G∧ , à savoir l’évaluation evg :
λ 7→ λ(g). On obtient ainsi un homomorphisme ev de G dans (G∧ )∧ .
4.2.4.2 Théorème. Soient G et H deux groupes abéliens finis. Conservons les notations
ci-dessus.
(i) L’application ev : G → (G∧ )∧ est un isomorphisme de groupes.
(ii) À deux caractères linéaires λ ∈ G∧ et µ ∈ H ∧ , associons le caractère linéaire λ × µ :
(g, h) 7→ λ(g)µ(h) de G × H. Alors l’application (λ, µ) 7→ λ × µ est un isomorphisme
de groupes de G∧ × H ∧ sur (G × H)∧ .
(iii) Les groupes G et G∧ sont isomorphes.
On peut pousser plus loin le développemement de cette théorie. D’une part, on peut mettre en
place une correspondance entre sous-groupes de G et quotients de G∧ (et vice-versa). Ensuite,
∧
on peut identifier CG au dual de CG et CG au dual de CG∧ (voir la remarque 4.1.4.2) ; ceci
fait, la transposée de l’isomorphisme CG∧ ∼ = CG du (ii) de la proposition ci-dessus s’identifie
∧
∼
à l’isomorphisme CG = C . Enfin, cette théorie n’est autre que la transformation de Fourier
G
discrète. Elle rejoint la théorie des séries de Fourier et de la transformation de Fourier dans
le cadre plus vaste de la dualité de Pontrjagin entre groupes localement compacts abéliens ;
pour plus de détails, je renvoie à Walter Rudin, Fourier analysis on groups, Pure and Applied
Mathematics, Vol. XII, Interscience Publishers (John Wiley & Sons), 1962.
Exercice. Soit G un groupe fini. Montrer que le nombre de caractères linéaires de G est
égal à l’indice dans G du sous-groupe dérivé G0 .
152
4.2.5 Centre de l’algèbre du groupe
4.2.5.1 Proposition. Les idempotents primitifs centraux sont reliés aux sommes de classe
par les formules
s (m) s
X ζi zm X (m)
Ci = hi εm et εm = ζi∗ Ci .
zm |G|
m=1 i=1
(m)
La matrice de passage de la base (εm ) à la base Ci est donc (hi ζi /zm ). Les relations d’or-
(m)
thogonalité 4.2.2.3 montrent que l’inverse de cette matrice est (zm ζi∗ /|G|). Cela donne la
seconde égalité.
153
Dans la base des sommes de classe, l’élément Pneutre pour la multiplication est C1 . La mul-
s
tiplication s’écrit avec des formules Ci Cj = k=1 cijk Ck , où pour chaque z ∈ Ck , cijk est le
nombre de couples (x, y) ∈ Ci × Cj tels que xy = z. Les cijk sont des entiers naturels.
En revanche, dans la base des idempotents primitifs, la multiplication de Z(kG) est donnée
par une règle très simple : εm εn = δmn εm , l’élement neutre étant 1 = ε1 + · · · + εs .
Le passage de la base « naturelle » de Z(kG) donnée par les sommes de classe à la base
des idempotents primitifs fournie par la théorie des représentations permet de passer d’une
table de multiplication compliquée à une table de multiplication très simple. Le coût de cette
opération est la connaissance de la table des caractères de G. Il n’y a donc rien de surprenant
à ce que la connaissance de la table des caractères de G entraîne celle des constantes cijk . Une
formule fermée existe :
s (m) (m) (m)
hi hj X ζi ζj ζk∗
cijk = .
|G| zm
m=1
(1) (s)
4.2.5.2 Proposition. Fixons i ∈ {1, . . . , s}. Alors ωi , . . . , ωi sont les valeurs propres
de la matrice (cijk )1≤j,k≤s , avec multiplicité.
Preuve. Appliquant le caractère central ω (m) à la relation Ci Cj = sk=1 cijk Ck , nous obtenons
P
(m) (m) Ps (m) (m) (m)
ωi ωj k=1 cijk ωk . Cette relation dit que le vecteur ω1 , . . . , ωs est un vecteur
(m)
propre de la matrice (cijk )1≤j,k≤s pour la valeur propre ωi .
Par ailleurs, les relations d’orthogonalité s’écrivent ici
s
X 1 (m) (n) |G|
ωj ωj ∗ = δmn
hj zm zn
j=1
(m) (m)
pour 1 ≤ m, n ≤ s. Étant orthogonaux, les vecteurs ω1 , . . . , ωs sont linéairement in-
dépendants, pour 1 ≤ m ≤ s. Nous avons ainsi décrit une base de diagonalisation pour la
matrice (cijk )1≤j,k≤s .
Ainsi la connaissance des constantes de structures cijk permet en théorie de déterminer les
(m)
ωi . Elle donne également les hi = cii∗ 1 . On trouve alors les degrés zm par la relation
s
X 1 (m) (m) |G|
ω ωi ∗ = 2 ,
hi i zm
i=1
(m) (m)
puis enfin les ζi = zm ωi /hi .
À présent, et jusqu’à la fin de ce paragraphe, nous prenons pour k un sous-corps algébriquement
clos de C. La proposition précédente a alors un corollaire remarquable.
154
(m)
4.2.5.3 Corollaire. Les ωi sont des entiers algébriques.
(m)
Preuve. Fixons i ∈ {1, . . . , s}. La proposition 4.2.5.2 affirme que ωi est une valeur propre
de la matrice à coefficients entiers (cijk )1≤j,k≤s . Le polynôme caractéristique de cette matrice,
(m)
qui est unitaire et à coefficients entiers, annule donc ωi . Ceci montre que ce nombre est un
entier algébrique.
(m)
Preuve. Insérant zm ωi = hi ζi (m) dans la première relation d’orthogonalité 4.2.2.3, nous
obtenons
s
X (m) (m) |G|
ωi ζi∗ = .
zm
i=1
(m) (m)
Maintenant, chaque ωi est un entier algébrique d’après le corollaire 4.2.5.3 et chaque ζi∗
est un entier algébrique d’après la proposition 4.2.3.1. Ainsi |G|/zm est un entier algébrique.
Comme c’est un rationnel, c’est un entier.
(Indication : soit C1 , ..., Cs une énumération des classes de conjugaison dans G. Prenons une
représentation irréductible complexe de G, de caractère ζ et de caractère central ω. Pour
chaque i ∈ {1, . . . , s}, P
notons ζi la valeur de ζ en un point de Ci et ωi la valeur de ω sur la
somme de classe Ci = g∈Ci g. Montrer qu’alors
s
1 X X |G|
ζ xyx−1 y −1 = ζi ωi∗ = .
|G| 2
ζ(1)
(x,y)∈G i=1
Conclure en observant que la quantité ϕ(g) cherchée définit une fonction de classe ϕ ∈ cf C G.)
Nous en arrivons à un très beau résultat, prouvé par Burnside en 1911. La théorie des caractères
fournit une preuve particulièrement courte et élégante. Rappelons qu’un groupe est dit simple
s’il ne possède pas de sous-groupe distingué non-banal.
155
Preuve. Soit k une extension finie de Q telle que l’algèbre de groupe kQ soit décomposée
(l’existence de k est assurée par la proposition 3.2.6.2). Nous pouvons plonger k dans C. Nous
(m)
utilisons nos notations habituelles Ci , ζi , etc. Appelant O l’anneau des éléments de k entiers
(m)
sur Z, la proposition 4.2.3.1 montre que chaque ζi appartient à O.
Supposons que G soit un groupe ayant une classe de conjugaison, disons Cj , de cardinal
hj = q d . De la seconde relation d’orthogonalité
s s
(m) (m) (m)
X X
0= ζ1 ζj =1+ zm ζj ,
m=1 m=2
(m) (m)
on tire l’existence d’un m > 1 tel que zm ζj 6∈ qO, et donc tel que q - zm et ζj 6= 0.
(m) (m)
Le corollaire 4.2.5.3 dit que ωj = hj ζ j /zm est un entier algébrique. Comme hj et zm sont
(m)
premiers entre eux, υ = ζj /zmest aussi un entier algébrique. (Pour le voir, on multiplie υ
par une relation de Bézout 1 = ahj + bzm ; chaque terme de la somme donnant υ appartient
alors à O, d’où υ ∈ O.)
(m)
La proposition 4.2.3.1 dit que ζj est somme de zm racines complexes de l’unité. Il en est
de même des conjugués algébriques de ce nombre. Cela entraîne que les conjugués algébriques
(m)
de ζj sont tous de module au plus zm . Les conjugués algébriques de υ sont donc tous de
module au plus 1. Le produit Υ de tous les conjugués de υ est donc de module au plus 1, avec
égalité si et seulement si |υ| = 1.
Un peu de théorie de Galois à présent : Υ est un nombre rationnel. C’est aussi un entier
(m)
algébrique. C’est donc un entier rationnel. Comme ζj 6= 0, on a υ 6= 0, et donc Υ 6= 0.
L’inégalité |Υ| ≤ 1 de l’alinéa précédent est donc une égalité, ce qui force |υ| = 1, c’est-à-dire
(m)
ζj = zm .
D’après la proposition 4.2.3.1, cela signifie que dans la représentation matricielle X dont
ζ (m) est le caractère, chaque élément de Cj est envoyé sur une matrice scalaire. L’image
réciproque par X de l’ensemble des matrices scalaires est alors un sous-groupe distingué de G
qui contient Cj .
À présent, raisonnons par l’absurde. Supposons que G soit simple. Alors ce sous-groupe est
G tout entier. Autrement dit, chaque élément de G est représenté par une matrice scalaire.
Comme X est une représentation irréductible, elle est de degré 1. Comme m > 1, cela entraîne
que G possède au moins deux caractères linéaires. Or tout caractère linéaire se factorise à
travers l’abélianisé G/G0 de G (paragraphe 4.2.4). L’existence de deux caractères distincts se
factorisant à travers G/G0 interdit à G/G0 d’être réduit à un seul élément. Ainsi G0 est un
sous-groupe distingué de G différent de G. Mais G est supposé simple. Finalement, G0 est
réduit à l’élément neutre, donc G est abélien. Nous obtenons alors une contradiction avec
l’hypothèse que G possède une classe de conjugaison de cardinal q d > 1. Cette contradiction
montre que G est simple.
4.2.6.2 Théorème. Un groupe fini dont l’ordre est de la forme pa q b , avec p et q deux
nombres premiers, ne peut être simple que s’il est cyclique d’ordre premier.
156
Preuve. Supposons qu’il existe un groupe simple non-abélien d’ordre pa q b . Alors le centre de
G est réduit à l’élément neutre (c’est un sous-groupe distingué de G, différent de G tout entier
puisque G n’est pas abélien).
Soit P un p-Sylow de G. Soit h un élément du centre de P autre que l’élément neutre. Le
centralisateur CG (h) de h dans G est un sous-groupe de G qui contient P . L’indice dans G de
CG (h) divise l’indice de P , donc est de la forme q d . Certainement d > 0, car h n’appartient
pas au centre de G. Le cardinal de la classe de conjugaison de h est alors égal à q d , et nous
nous trouvons donc en situation d’appliquer la proposition 4.2.6.1. La contradiction que nous
obtenons montre l’absurdité de notre hypothèse de départ.
Ainsi l’ordre d’un groupe simple non-abélien fait intervenir au moins trois nombres premiers ;
on vérifie ce phénomène sur l’exemple du groupe alterné A5 , d’ordre 60 = 22 · 3 · 5. Un résultat
dû à Feit et Thomson, de démonstration beaucoup plus longue que le théorème 4.2.6.2, dit
qu’un groupe simple non-abélien est d’ordre pair.
Un groupe G est dit résoluble s’il existe une suite de sous-groupes {e} = H0 ⊆ H1 ⊆ · · · ⊆
Hn = G tels que chaque Hm est distingué dans Hm+1 et Hm+1 /Hm est abélien. Le théo-
rème 4.2.6.2 entraîne alors par une récurrence immédiate le résultat suivant.
4.2.6.3 Théorème (Burnside). Un groupe fini dont l’ordre est de la forme pa q b , avec p
et q deux nombres premiers, est résoluble.
Dans toute cette section, k est un corps quelconque (voire un anneau commutatif quelconque).
4.3.1.2 Induction. Une des technique les plus efficaces pour construire des représentations
de G est la méthode des représentations induites. Cette notion généralise les représentations
de permutation vues au paragraphe 4.1.2.1. Là, nous partions d’un ensemble Ω muni d’une
action de G, considérions le k-espace vectoriel k (Ω) de base (eω )ω∈Ω , et définissions un ho-
momorphisme de groupes de G dans GL k (Ω) . Cette représentation de G se décompose en
somme directe d’une façon dictée par la partition en G-orbites de Ω. Pour qui ne s’intéresse
qu’aux représentations indécomposables, il est suffisant de se limiter aux ensembles Ω sur
lesquels G agit transitivement. Plaçons-nous dans ce cas.
Pour ω ∈ Ω, le vecteur eω est fixé par le stabilisateur StabG (ω) de ω dans G. Une idée qui
vient à l’esprit est de remplacer la droite keω de k (Ω) par une représentation Wω de StabG (ω).
157
Pour que la somme directe V = ω∈Ω Wω soit une représentation de G, il faut disposer, pour
L
chaque g ∈ G, d’un isomorphisme d’espace vectoriel entre Wω et Wgω qui échange l’action de
StabG (ω) sur Wω avec l’action de g StabG (ω)g −1 = StabG (gω) sur Wgω . On voit ainsi que si
l’on se donne un seul Wω , les autres sont dictés par la condition d’avoir une représentation de
G sur V tout entier.
Fixons donc un point ω ∈ Ω et appelons H son stabilisateur. L’application g 7→ gω induit
donc une bijection G-équivariante de G/H sur Ω. Donnons-nous une représentation W de H
et fabriquons l’espace M
V = k (G/H) ⊗k W = kegH ⊗k W.
gH∈G/H
Supposant Ω fini, H est d’indice fini dans G et la somme directe est finie. Prenons une famille
(gi )i∈I de représentants dans G des classes à gauche modulo H. Ainsi G/H = {gi H | i ∈ I}.
On note gi ⊗ W au lieu de kegi H ⊗k W . On peut alors définir une action de G sur V de la façon
suivante : pour g ∈ G et i ∈ I, il existe j ∈ I et h ∈ H tel que ggi = gj h, et pour w ∈ W , on
pose g(gi ⊗ w) = gj ⊗ (hw).
Reformulons cette construction en termes d’algèbres de groupe. On constate que kG est un
kH-module à droite libre de base (gi )i∈I . Voyant W comme un kH-module à gauche, on peut
former le produit tensoriel kG ⊗kH W . Par distributivité du produit tensoriel sur la somme
directe, on a !
M M
kG ⊗kH W = gi kH ⊗kH W = gi kH ⊗kH W ,
i∈I i∈I
Exemples.
(1) Soit Ω un ensemble fini muni d’une action transitive d’un groupe G. Soit H le sta-
bilisateur d’un point de Ω. Alors la représentation de permutation de G sur k (Ω) est
isomorphe à l’induite à G de la représentation triviale de H.
(2) Soit G un groupe fini. La représentation régulière de G, c’est-à-dire le kG-module
régulier à gauche, est isomorphe à l’induite à G de la représentation triviale du sous-
groupe trivial {1}.
158
4.3.1.3 Coinduction. La coinduction est une technique duale de la technique d’induction.
Repartons d’un ensemble Ω sur lequel G agit. Une forme linéaire sur k (Ω) est spécifiée par les
valeurs qu’elle donne des vecteurs de base eω . On a ainsi une bijection entre l’espace k (Ω) ∗
des formes linéaires sur k (Ω) etl’espace k Ω des fonctions sur Ω. L’espace k (Ω) étant une repré-
sentation de G, son dual k (Ω) ∗ peut être vu comme l’espace sous-jacent à la représentation
contragrédiente. Ainsi k Ω est l’espace d’une représentation de G, l’action d’un g ∈ G sur une
fonction f : Ω → k étant donnée par gf = ω 7→ f (g −1 ω) .
À nouveau, nous allons généraliser cette construction. Nous supposons que l’action de G sur Ω
est transitive, nous choisissons ω ∈ Ω et appelons H son stabilisateur dans G. Toute fonction
de Ω ∼= G/H dans k s’identifie alors à une fonction sur G constante sur chaque classe à gauche
gH. Considérant une représentation linéaire de H sur un espace vectoriel W , nous pouvons
considérer une variante de cette construction en regardant
V = f : G → W ∀(g, h) ∈ G × H, f (gh−1 ) = hf (g) 19 .
f ∈V.
Cette construction se traduit aisément en termes d’algèbres de groupes. De fait, kG est un
kH-module grâce à la multiplication à gauche ; ce module est libre, n’importe quel système de
représentants des classes Pà droite en formant une base. À une fonction f : G → W , on associe
l’application linéaire fˆ : g∈G ag g 7→ g∈G ag f (g −1 ) de kG dans W . Cette correspondance
P
19. Faisons agir H sur G × W par la règle h · (g, w) = (gh−1 , hw). L’ensemble des orbites (G × W )/H est noté
G ×H W ; on note traditionnellement [g, w] l’image dans G ×H W d’un élément (g, w) de G × W . L’ensemble
G ×H W est un fibré au dessus de G/H et l’espace V s’identifie à l’ensemble des sections de ce fibré : à f ∈ V
correspond la section gH 7→ [g, f (g)].
159
Afin de pouvoir rester en dimension finie, nous avons limité notre définition des représentations
induites et coinduites au cas des sous-groupes d’indice fini. Cette restriction peut être levée,
le prix à payer étant évidemment d’accepter les contraintes de l’étude des représentations de
dimension infinie. Toutefois, le cas des sous-groupes d’indice fini présente une autre particu-
larité : il n’y a pas de différence fondamentale entre représentation induite et représentation
coinduite (voir l’exercice ci-dessous). Autrement dit, on peut oublier la coinduction et penser
à l’induction comme l’adjoint à gauche et à droite du foncteur de restriction.
pour chaque i ∈ I et w ∈ W .
indG H G
H (indK W ) = kG ⊗kH kH ⊗kK W = kG ⊗kH kH ⊗kK W = kG ⊗kK W = indK W.
Soient k un corps et H un sous-groupe d’indice fini d’un groupe G. On choisit une famille (gi )i∈I
de représentants des classes à gauche de G modulo H. À une fonction de classe λ ∈ cf k (H)
sur H, on associe la fonction λG : G → k définie par
X
λ̇ gi−1 ggi ,
g 7→
i∈I
où λ̇ : G → k est la fonction qui coïncide avec λ sur H et qui vaut 0 hors de H. À une fonction
de classe µ ∈ cf k (G) sur G, on associe sa restriction µH , qui est une fonction sur H à valeurs
dans k.
160
4.3.2.2 Proposition. Partant des objets ci-dessus, nous avons les propriétés suivantes.
(i) Si λ ∈ cf k (H), alors λG ∈ cf k (G). Si λ est le caractère d’une représentation de H sur
un espace vectoriel W , alors λG est le caractère de l’induite indG H W . Si λ ∈ ch kH,
G
alors λ ∈ ch kG.
(ii) Si µ ∈ cf k (G), alors µH ∈ cf k (H). Si µ est le caractère d’une représentation de G sur
un espace vectoriel V , alors µH est le caractère de la restriction resG
H V . Si µ ∈ ch kG,
alors µH ∈ ch kH.
Supposons que k soit de caractéristique 0. Pour chaque λ ∈ cf k (H), on a λG (g) =
(iii)
−1
P
x∈G λ̇ x gx /|H|.
(iv) Prenons k = C et supposons que G soit un groupe fini. Munissons cf C (H) et cf C (G) des
produits scalaires hermitiens du paragraphe 4.2.3. Soient λ ∈ cf C (H) et µ ∈ cf C (G).
Alors (λG , µ)G = (λ, µH )H .
Preuve. Plaçons-nous dans le cadre de l’assertion (i). Chaque x ∈ G induit par multiplication
à gauche une permutation de l’ensemble G/H. Il existe donc une permutation σ de I et des
éléments hi de H tels que xgi = gσ(i) hi pour chaque i ∈ I. Pour chaque g ∈ G, on a alors
X X X
λG (x−1 gx) = λ̇ gi−1 x−1 gxgi = λ̇ h−1 −1 −1
ggσ(i) = λG (g).
i gσ(i) ggσ(i) h i = λ̇ gσ(i)
i∈I i∈I i∈I
Ainsi λG ∈ cf k (G).
Supposons que λ soit le caractère d’une représentation de H sur un espace vectoriel W . Prenant
une base (w1 , . . . , wm ) de W , nous obtenons une représentation matricielle X : H → GLm (k).
Prolongeons X en une application Ẋ : G → Matm (k) en décrétant que Ẋ(g) = 0 si g 6∈ H. À
réindexation près, nous pouvons supposer que I = {1, . . . , n}. Munissant indG H W de la base
(g1 ⊗ w1 , . . . , g1 ⊗ wm , g2 ⊗ w1 , . . . , g2 ⊗ wm , . . . , gn ⊗ w1 , . . . , gn ⊗ wm ), on vérifie que l’induite
à G de notre représentation de H est fournie par la représentation matricielle
g 7→ .. ..
. . .
161
Enfin, l’assertion (iv) provient du calcul suivant :
!
1 X 1 X
(λG , µ)G = λ̇(x−1 gx) µ(g)
|G| |H|
g∈G x∈G
!
1 X 1 X
= λ̇(x−1 gx)µ(x−1 gx)
|G| |H|
x∈G g∈G
1 X
= λ̇(z)µ(z)
|H|
z∈G
1 X
= λ(h)µ(h)
|H|
h∈H
= (λ, µH )H .
Dans le cas où λ est le caractère d’une représentation de H et µ est le caractère d’une repré-
sentation de G, l’assertion (iv) traduit la réciprocité de Frobenius (théorème 4.3.1.4), compte
tenu de l’interprétation du produit scalaire comme dimension d’un espace d’homomorphismes
(proposition 4.2.3.2 (ii)).
(3) Si n est impair (respectivement, pair), alors pour chaque j entier entre 1 et (n − 1)/2
(respectivement, n/2 − 1), la fonction indG H λj est le caractère de la représentation
r 7→ Rj , s 7→ S de Dn construite dans le paragraphe 4.1.2.4.
(4) Si n est pair, alors indG
H λn/2 est la somme des deux caractères linéaires de Dn définis
à la fin du paragraphe 4.1.2.4.
On trouvera dans les livres bon nombre d’autres résultats basiques concernant les représen-
tations et les caractères induits. Citons ici pour mémoire les résultats classiques de Mackey
(voir par exemple [7], §10B) :
(1) Quand H et K sont deux sous-groupes d’un groupe G, avec H d’indice fini, on peut
décrire explicitement la restriction de l’induction resG
K (indH W ) d’une représentation
G
la forme gHg −1 ∩ K.
(2) Quand H et K sont deux sous-groupes d’indice fini de G et W et X sont des représen-
tations de H et K respectivement, on peut décrire explicitement le produit tensoriel
H W ) ⊗k (indK X) des représentations induites en termes d’induites indL Y , où
(indG G G
162
Exercice. Soit H un sous-groupe d’un groupe fini G. Soient λ ∈ cf k (H) et µ ∈ cf k (G).
Montrer que λ µ = λ µH .
G
G
4.3.3.2 Critère pour les caractères virtuels. Une fonction de classe ϕ ∈ cf C (G) appar-
tient à ch CG si et seulement si ϕH appartient à ch CH pour chaque sous-groupe élémentaire
H de G.
Preuve. Le sens direct est conséquence immédiate de la proposition 4.3.2.2 (ii). Réciproque-
ment, soit ϕ ∈ cf C (G) tel que ϕH ∈ ch CH pour chaque sous-groupe élémentaire H. Le
théorème d’induction de Brauer dit qu’on peut écrire le caractère trivial de G comme une
combinaison Z-linéaire 1 = i∈I ai λG i d’induits de caractères linéaires λi de sous-groupes élé-
P
mentaires Hi de G. Chaque restriction ϕHi étant un caractère virtuel de Hi , l’induite (ϕHi λi )G
est un caractère virtuel de G. Utilisant l’exercice du paragraphe 4.3.2, nous pouvons donc ex-
primer X X
ϕ=ϕ1= ai ϕ λG
i = ai (ϕHi λi )G
i∈I i∈I
163
sur k, c’est-à-dire équivalente sur C à une représentation matricielle de G sur k. La proposi-
tion 3.2.6.2 (iv) affirme l’existence d’une extension finie de Q qui décompose G. Le résultat
suivant est plus précis.
Le premier alinéa montre que chaque λG i est le caractère d’une représentation de G réalisable
sur Q(ω). Il existe donc des représentations matricielles X et Y de G sur Q(ω) dont µ et ν
sont les caractères, respectivement. L’égalité ζ + ν = µ se traduit alors par un isomorphisme
T ⊕Y(C) ∼ = X(C) , où X(C) et Y(C) sont les représentations X et Y , vues comme représentations
sur C.
En décomposant X et Y en somme directe de représentations simples sur Q(ω), on par-
vient à une décomposition X ∼ = X 0 ⊕ Z et Y ∼ = Y 0 ⊕ Z telle que X 0 et Y 0 n’aient aucune
composante irréductible en commun, ce qui se traduit par HomG (X 0 , Y 0 ) = 0. La proposi-
tion 3.1.3.2 (ou l’argument dans la preuve du théorème de Noether-Deuring 3.2.3.1) dit qu’alors
0 ,Y 0 c’est-à-dire que X(C)
0 et Y(C)
0 n’ont aucune composante irréductible
HomG X(C) (C) = 0,
en commun (voir aussi l’exercice (2) du paragraphe 3.2.6). L’isomorphisme T ⊕ Y(C) 0 ∼ 0
= X(C)
amène alors Y(C)0 = 0, et ainsi T est réalisée sur Q(ω) par X 0 .
Nous avons donc montré que chaque représentation T de G sur C est réalisable sur Q(ω). Le
théorème est prouvé.
Groupe topologique : une topologie sur un groupe G est dite compatible avec la structure de
groupe si le produit (g, h) 7→ gh et l’inversion g 7→ g −1 sont des applications continues de
164
G × G ou G dans G. Un groupe muni d’une topologie compatible est dit groupe topologique.
Tout groupe fini, muni de la topologie discrète, est un groupe topologique.
Espaces vectoriels topologiques : ici k est un corps valué complet non discret, par exemple
R, C ou Qp . Sur un k-espace vectoriel V de dimension finie existe une topologie canonique
obtenue en transportant la topologie produit sur k dim V à V grâce au choix d’une base de V (le
résultat ne dépend pas du choix de la base). Le groupe GL(V ), en tant qu’ouvert de l’espace
vectoriel de dimension finie Endk (V ), est lui aussi muni d’une topologie canonique ; c’est en
fait un groupe topologique.
Représentation continue : soit G un groupe topologique et k un corps valué complet non
discret. Soit π : G → GL(V ) une représentation linéaire de G sur un k-espace vectoriel V de
dimension finie. Alors les trois conditions suivantes sont équivalentes :
(1) π : G → GL(V ) est une application continue ;
(2) l’action (G × V → V, (g, v) 7→ π(g)(v)) est une application continue ;
(3) pour chaque vecteur v ∈ V et chaque forme linéaire v ∗ ∈ V ∗ , la fonction (appelée
« coefficient matriciel ») g 7→ hv ∗ , π(g)(v)i sur G à valeurs dans k est continue.
Si ces conditions sont vérifiées, on dit que π est continue. Nous n’étudierons pas le cas des
représentations de dimension infinie, pour lequel plusieurs définitions différentes sont utilisées
de manière concurrente.
g · ϕ = (h 7→ ϕ(hg)) et ϕ · g = (h 7→ ϕ(gh)).
Enfin si ϕ ∈ k G est une fonction sur G, on note ϕ∗ la fonction g 7→ ϕ(g −1 ), prolongeant ainsi
la notation du paragraphe 4.1.4 pour les fonctions de classe.
Soit π une représentation de G dans un k-espace vectoriel V . On munit V ∗ de la structure de
kG-module à droite induite par la structure de kG-module à gauche sur V . L’espace V ⊗k V ∗
se trouve ainsi muni d’une structure de P kG-bimodule : les actions à gauche et à droite d’un
élément g ∈ G ⊆ kG sur un tenseur t = vi ⊗ fi sont données par
X X
g·t= π(g)(vi ) ⊗ fi et t · g = vi ⊗ (t π(g))(fi ).
i i
165
définit alors une application linéaire de V ⊗k V ∗ dans k G , que nous noterons également θπ .
On note Mπ = θπ (V ⊗k V ∗ ) ; c’est le sous-espace vectoriel de k G engendré par les coefficients
de π. Le caractère χπ de π appartient à Mπ .
et
θπ (v, v ∗ ) · g = h 7→ θπ (v, v ∗ )(gh) = h 7→ ht π(g)v ∗ , π(h))vi = θπ (v, t π(g)v ∗ ).
4.4.2.2 Remarques.
(1) Soit π : G → GL(V ) une représentation de G. Alors l’orthogonal dans kG de Mπ ,
relativement à la dualité entre kG et k G , est l’annulateur du kG-module V . Supposons
que V soit de dimension finie sur k. Alors Mπ est de dimension finie, et donc, par
bidualité, Mπ est l’orthogonal dans k G de ann V .
(2) Plaçons-nous dans les hypothèses de l’énoncé de la proposition 4.4.2.1. En confondant
V ⊗k V ∗ avec l’espace vectoriel Homk (V, V ), nous identifions θπ à l’application qui
envoie u ∈ Homk (V, V ) sur la fonction g 7→ tr(u ◦ π(g)). Considérons la représentation
de G sur Homk (V,
V ) et munissons k Gd’une action à gauche de G en posant g · ϕ =
G
4.4.2.3 Proposition.
(i) Soit 1 : G → GL1 (k) la représentation triviale. Alors M1 est l’ensemble des fonctions
constantes sur G à valeurs dans k.
(ii) Soient π : G → GL(V ) et ρ : G → GL(W ) deux représentations de G, soient v ∈ V ,
v ∗ ∈ V ∗ , w ∈ W et w∗ ∈ W ∗ . On considère v ∗ ⊕ w∗ comme un élément de (V ⊕ W )∗
grâce à l’isomorphisme V ∗ ⊕ W ∗ ∼ = (V ⊕ W )∗ . Alors θπ⊕ρ (v ⊕ w, v ∗ ⊕ w∗ ) = θπ (v, w∗ ) +
θ (w, w ). On a Mπ⊕ρ = Mπ + Mρ .
ρ ∗
166
On note (kG)◦ la somme dans k G de tous les espaces Mπ , où π décrit l’ensemble des re-
présentations de dimension finie de G. D’après les propositions 4.4.2.1 et 4.4.2.3, c’est un
sous-kG-bimodule et une sous-algèbre de k G stable par l’involution ∗.
4.4.2.4 Proposition. L’espace (kG)◦ coïncide avec les trois ensembles suivants :
— L’ensemble des fonctions ϕ : G → k telles que le sous-espace vectoriel engendré par
l’ensemble {g · ϕ | g ∈ G} des translatées à droite de ϕ est de dimension finie.
— L’ensemble des fonctions ϕ : G → k telles que le sous-espace vectoriel engendré par
l’ensemble {ϕ · g | g ∈ G} des translatées à gauche de ϕ est de dimension finie.
— L’ensemble des fonctions ϕ : G → k telles que le sous-espace vectoriel engendré par
l’ensemble {g · ϕ · h | (g, h) ∈ G2 } de toutes les translatées de ϕ est de dimension finie.
Preuve. Un sous-espace Mπ est de dimension finie et stable par les translations à gauche et à
droite. Il est donc inclus dans chacun des trois ensembles de l’énoncé.
À présent, soit ε : k G → k l’évaluation d’une fonction en l’élément neutre de G et soit
ρ : G → GL(k G ) la représentation linéaire de G sur k G donnée par la translation à droite.
Alors chaque fonction ϕ ∈ k G est égale au coefficient matriciel θρ (ϕ, ε).
Montrons l’inclusion du premier ensemble de l’énoncé dans (kG)◦ . Soit ϕ : G → k une fonction
et soit V le sous-espace vectoriel engendré par {g · ϕ | g ∈ G}. Certainement V est un sous-
kG-module à gauche de k G ; ρ se restreint donc en une sous-représentation π : G → GL(V ).
Alors ϕ = θπ (ϕ, ε) appartient à Mπ . Donc ϕ ∈ (kG)◦ dès que V est de dimension finie.
L’inclusion du second ensemble de l’énoncé dans (kG)◦ se démontre de façon analogue (ou en
utilisant l’involution ∗). Enfin, le troisième ensemble de l’énoncé est inclus dans le premier et
le second.
4.4.2.5 Remarque. Dans le cas où G est un groupe topologique et k est un corps valué
complet non discret, l’espace C(G, k) des fonctions continues de G dans k est un sous-kG-
bimodule de k G . Si π est une représentation continue, Mπ est un sous-kG-bimodule de C(G, k).
On peut alors énoncer des résultats pour les représentations continues de dimension finie
analogues aux propositions 4.4.2.1, 4.4.2.3 et 4.4.2.4 et aux remarques 4.4.2.2.
Soit G un groupe fini et k un corps dont la caractéristique ne divise pas l’ordre de G. On peut
alors définir la moyenne d’une fonction f : G → k par la formule |G|1 P
g∈G f (g).
Cette construction d’une moyenne s’étend aux groupes compacts à condition de prendre R
ou C comme corps de base et de se restreindre aux fonctions continues. Pour une preuve du
résultat suivant, voir par exemple John von Neumann, Zum Haarschen Maß in topologischen
Gruppen, Compositio Math. 1 (1934), 106–114.
167
4.4.3.1 Théorème. Soit G un groupe topologique compact et soit C(G, R) l’espace des
fonctions continues sur G à valeurs réelles. Alors il existe une unique forme R-linéaire sur
C(G, R) → R, appelée moyenne, satisfaisant aux conditions (i) à (iii) ci-dessous. Elle satisfait
en outre aux conditions (iv) et (v).
(i) La moyenne d’une fonction à valeurs positives est positive.
(ii) La moyenne d’une fonction constante est égale à la valeur de cette fonction.
(iii) Pour toute fonction f ∈ C(G, R) et tout g ∈ G, la fonction h 7→ f (g −1 h) a même
moyenne que f .
(iv) Si une fonction continue positive est de moyenne nulle, alors elle est identiquement
nulle.
(v) Pour toute fonction f ∈ C(G, R) et tout g ∈ G, les fonctions h 7→ f (hg), h 7→ f (g −1 hg)
et h 7→ f (h−1 ) ont même moyenne que f .
D’après le théorème de représentation de Riesz, la donnée d’une forme linéaire positive sur
C(G, R) est équivalente à la donnée d’une mesure de Radon positive sur G. La moyenne cor-
respond ainsi à une mesure positive sur G, qu’on appelle mesure de Haar ou mesure invariante,
et que nous noterons µ. On peut alors intégrer sur G toute fonction borélienne bornée à valeurs
dans un R-espace vectoriel de dimension finie. On peut aussi parler de fonctions mesurables
et considérer les espaces Lp (G, R) et l’espace de Hilbert complexe L2 (G, C).
4.4.3.2 Exemples.
(1) Si G = R/2πZ, alors la moyenne d’une fonction continue f : G → R est
R
R 2π Gf dµ =
1 it
2π 0 f (e ) dt.
(2) Si G1 , ..., Gn sont des groupes compacts et si µ1 , ..., µn sont leurs mesures de Haar,
alors la moyenne d’une fonction f : G → R sur le groupe produit G = G1 × · · · × Gn
est donnée par
Z Z Z
f dµ = ··· f (g1 , . . . , gn ) dµ1 (g1 ) · · · dµn (gn ).
G G1 Gn
168
Celle de la proposition 4.2.1.5 devient
Z
χV g −1 χW g dµ(g).
dim HomG (V, W ) =
G
De ces relations d’orthogonalité entre caractères, on déduit que les caractères des représen-
tations de dimension finie irréductibles et continues sont linéairement indépendants. Joint
au théorème de Maschke, ce fait implique que le caractère d’une représentation continue de
dimension finie de G détermine cette représentation à isomorphisme près.
Sur C, on a également une relation d’orthogonalité pour les coefficients d’une représentation.
(Cette relation d’orthogonalité aurait pu être établie au paragraphe 4.2.1 pour un groupe fini
G et un corps de base k algébriquement clos et de caractéristique ne divisant pas l’ordre de
G ; nous n’en aurions cependant pas eu l’usage.) Reprenons le contexte du paragraphe 4.4.2,
dans le cadre de la remarque 4.4.2.5.
si π ∼
Z 0
6 ρ,
=
π ∗ −1 ρ ∗
θ (v, v )(g )θ (w, w )(g) dµ(g) = hw∗ , f (v)ihv ∗ , f −1 (w)i s’il existe un isomorphisme
G
deg π f ∈ HomG (π, ρ).
169
Remarque. Le caractère d’une représentation π est une combinaison linéaire de coefficients
de π. Les relations d’orthogonalité entre les caractères peuvent ainsi être vues comme une
conséquence directe de la proposition 4.4.4.1.
On note M la somme des sous-espaces Mπ dans C(G, C), quand π parcourt l’ensemble des
représentations continues de dimension finie. C’est une sous-algèbre et un sous-kG-bimodule
stable par l’involution ∗ de C(G, C). Par ailleurs, notons G∧ l’ensemble des classes d’isomor-
phisme de représentations linéaires irréductibles continues de dimension finie de G.
4.4.4.2 Proposition.
(i) Soit π : G → GL(V ) un élément de G∧ . Alors θπ est un isomorphisme kG-bimodules
de V ⊗k V ∗ sur Mπ .
(ii) Les sous-espaces Mπ sont en somme directe dans k G , pour π décrivant G∧ .
(iii) M = π∈G∧ Mπ .
L
on trouve que chaque λkl = 0 en utilisant les relations d’orthogonalité 4.4.4.1. Les coefficients
θπ (vi , vj∗ ) forment donc une famille libre dans C(G, C). Cela montre l’injectivité de θπ : V ⊗k
V ∗ → C(G, C). Par définition, l’image de cette application est Mπ . Nous prouvons ainsi (i).
Les relations d’orthogonalité disent que les espaces Mπ sont deux à deux orthogonaux pour la
forme bilinéaire B. Comme la restriction de B à chaque Mπ est non-dégénérée, cela entraîne
que les Mπ sont en somme directe, d’où (ii).
Enfin, l’assertion (iii) provient de (ii), de la proposition 4.4.2.3 (ii), et du théorème de Maschke.
Remarques. Les assertions (i) et (ii) de la proposition ci-dessus peuvent être vues comme
des cas particuliers du théorème de Frobenius-Schur 3.2.4.3. Notre preuve ici basée sur les
relations d’orthogonalité présente l’avantage de ne pas faire appel au théorème de structure
de Wedderburn-Artin, et l’inconvénient de nécessiter l’emploi de la mesure invariante.
Nous notons C le sous-espace vectoriel de C(G, C) engendré par les caractères des repré-
sentations continues de dimension finie de G. C’est une sous-algèbre de C(G, C) stable par
l’involution ∗ et formée de fonctions de classe.
170
4.4.4.3 Proposition. L’ensemble {χπ | π ∈ G∧ } des caractères des représentations irré-
ductibles continues est une base de C . L’algèbre C est exactement l’ensemble des fonctions de
classe appartenant à M .
Preuve. Chaque caractère χπ appartient à l’espace Mπ . La proposition 4.4.4.2 (ii) montre que
les χπ sont linéairement indépendants. Le théorème de Maschke et le théorème 4.1.4.3 (iv)
montrent que chaque caractère est combinaison Z-linéaire de caractères irréductibles. On dé-
duit de tout cela que {χπ | π ∈ G∧ } est bien une base de C .
Faisons agir G sur C(G, C) par g · ϕ = h 7→ ϕ(g −1 hg) . Les invariants de cette action sont
Remarque. Dans le cas où G est fini, toutes les représentations sont continues, de sorte que
l’espace M coïncide avec l’espace (kG)◦ du paragraphe 4.4.2, qui est lui-même égal à k G tout
entier d’après la proposition 4.4.2.4. De la proposition 4.4.4.2, on déduit que |G| = dim k G =
π∈G∧ (deg π) , un résultat que nous avions prouvé dans le paragraphe 4.2.2 en faisant appel
2
P
au théorème de Wedderburn-Artin. La proposition 4.4.4.3 affirme pour sa part que le nombre
de représentations irréductibles de G est égal à la dimension de C , qui ici est l’algèbre cf C (G)
toute entière puisque M = k G . Utilisant la proposition 4.2.2.1, on retrouve que G a autant
de représentations irréductibles que de classes de conjugaison.
4.4.5.1 Théorème (Peter, Weyl). Soit G un groupe compact. Alors M est une sous-
algèbre dense de C(G, C) pour la norme de la convergence uniforme.
171
d’intégrale 1. Alors kρ ∗ ϕ − ϕk ≤ ε pour la norme de la convergence uniforme dans C(G, C).
En outre, quitte à remplacer ρ par (ρ + ρ∗ )/2, nous pouvons supposer que ρ = ρ∗ .
L’opérateur ρ∗? sur C(G, C) s’étend en un opérateur K sur l’espace de Hilbert H = L2 (G, C).
Cet opérateur K est autoadjoint, puisque nous avons pris soin d’imposer ρ = ρ∗ . Il est compact,
car c’est un opérateur à noyau intégral. Enfin, son image est incluse dans C(G, C), vu ici
comme un sous-espace de L2 (G, C).
D’après le théorème spectral pour les opérateurs autoadjoints compacts, K est diagonalisable
en base hilbertienne. Plus précisément, soit σ(K) l’ensemble des valeurs propres de K, et pour
λ ∈ σ(K), soit Hλ = ker(K − λ idH ) l’espace propre correspondant. On sait que Hλ est de
dimension finie si λ 6= 0, que H est la somme directe hilbertienne des Hλ , et que l’on peut
ranger les éléments de σ(K) \ {0} en une suite (éventuellement finie) (λn )n≥0 tendant vers 0.
Si λ est une valeur propre non-nulle de K, alors Hλ est inclus dans im K, donc dans C(G, C).
L’opérateur K agit sur une fonction ψ en faisant une moyenne, selon la mesure ρ(h) dµ(h),
de translatées à gauche de ψ. Cette opération commute avec l’action de G par translations à
droite. Cela entraîne que cette dernière laisse stables les espaces propres de K. Les Hλ sont
donc des sous-espaces de dimension finie de C(G, C), stables sous l’action de G par translations
à droite. La proposition 4.4.2.4 dit alors que Hλ est inclus dans M .
Développons ϕ sur la somme directe H = λ∈σ(K) Hλ en écrivant ϕ = λ∈σ(K) ϕλ . Cette
L P
série est convergente pour la norme de H , autrement dit en moyenne quadratique. En utili-
sant l’inégalité de Cauchy-Schwarz, on montre alors que la série K(ϕ) = λ∈σ(K) K(ϕλ ) est
P
convergente dans C(G, C) pour la norme de la convergence uniforme. D’après l’alinéa précé-
dent, chaque K(ϕλ ) appartient à M . Ainsi K(ϕ) = ρ ∗ ϕ est limite dans C(G, C) d’une suite
d’éléments de M .
Prenant alors ε = 1/n et faisant tendre n vers l’infini, on en déduit que ϕ est limite dans
C(G, C) d’une suite d’éléménts de M .
L’ensemble des fonctions de classe continues est une sous-algèbre fermée de C(G, C). On la
munit de la norme de la convergence uniforme.
4.4.5.2 Corollaire. Soit G un groupe compact. Alors C est une sous-algèbre dense de
l’algèbre des fonctions de classe continues pour la norme de la convergence uniforme.
Preuve. Soit ϕ une fonction de classe continue et soit ε > 0. Le théorème de Peter-Weyl
garantit l’existence d’une fonction ψ ∈ M telle que kϕ − ψk ≤ ε.
Nous munissons C(G, C) de l’action de G par conjugaison, comme dans la preuve de la pro-
position 4.4.4.3. Chaque Mπ en est une sous-représentation de dimension finie, ce qui permet
d’introduire un opérateur de Reynolds \ : Mπ → invG Mπ . On peut donc appliquer \ à ψ et
obtenir un élément ψ \ ∈ C .
Pour chaque h ∈ H, ψ \ (h) = G ψ(g −1 hg) dµ(g), puis en utilisant que ϕ est centrale :
R
Z Z
\ −1
|ϕ(h) − ψ (h)| = (ϕ − ψ)(g hg) dµ(g) ≤ kϕ − ψk dµ(g) = kϕ − ψk ≤ ε.
G G
172
4.4.6 Représentations unitaires
Preuve. Plaçons-nous dans les hypothèses de (i). Le fait que le polaire W ◦ de W est un
supplémentaire de W dans V est un résultat classique de théorie des espaces de Hilbert. Soit
g ∈ G. Comme π(g) est unitaire, son adjoint est son inverse π g −1 . Par hypothèse, cet adjoint
laisse stable W . Un argument classique montre alors que π(g) laisse stable le polaire W ◦ de
W , achevant la preuve de (i).
L’assertion (ii) est une conséquence immédiate de l’assertion (i).
(iii) Pour chaque g ∈ G, |ζ(g)| ≤ ζ(1), avec égalité si et seulement si π(g) est un opérateur
scalaire.
173
Cela donne (ii).
Comme n’importe quelle matrice unitaire, U est diagonalisable et ses valeurs propres ξ1 , ...,
ξn sont des nombres complexes de module 1. Ici, n = dim V = ζ(1). Le module de ζ(g) =
ξ1 +· · ·+ξn est donc plus petit que n. Et pour que |ζ(g)| = n, il faut et il suffit que les ξi soient
tous égaux. Alors U est semblable, donc égale, à une matrice scalaire. Tout cela prouve (iii).
Preuve. Fixons un produit scalaire hermitien (?, ?)0 sur V . Pour (v, w) ∈ V 2 , posons (v, w) =
G (π(g)v, π(g)w)0 dµ(g). Alors (?, ?) est une forme sesquilinéaire hermitienne sur V . Elle est
R
de plus définie positive, car si v 6= 0, l’intégrale (v, v) = G (π(g)v, π(g)v)0 dµ(g) est celle d’une
R
fonction partout strictement positive. Enfin, on a fait tout ce qu’il fallait pour que (?, ?) soit
invariante sous G.
Cette proposition, jointe à la proposition 4.4.6.1 (ii), fournit une nouvelle démonstration du
théorème de Maschke.
4.4.6.4 Théorème. Soit G un groupe compact. Dans chaque représentation continue irré-
ductible π : G → GL(V ), de dimension finie nπ , choisissons un produit scalaire hermitien G-
invariant (?, ?) et une base orthonormée (ei )1≤i≤nπ . On note cπij le coefficient
P π π g 7→ (ei , π(g)ej )
de la représentation π. Ainsi, le caractère de π est la fonction χπ = ni=1 cii .
√ π ∧
(i) Les éléments nπ cij , pour π ∈ G et 1 ≤ i, j ≤ nπ , forment une base hilbertienne de
l’espace L2 (G, C) des fonctions de carré sommable sur G.
(ii) Les caractères χπ , pour π ∈ G∧ , forment une base hilbertienne de l’ensemble des fonc-
tions de classe de carré sommable sur G.
Preuve. Les relations d’orthogonalité 4.4.4.1 et la proposition 4.4.6.2 (i) montrent que les
√
éléments nπ cπij forment une famille orthonormée dans L2 (G, C). Le théorème de Peter-
Weyl 4.4.5.1 dit que le sous-espace vectoriel que cette famille engendre est dense dans C(G, C)
pour la norme de la convergence uniforme, ce qui implique qu’il est dense dans L2 (G, C) pour
la norme de la convergence en moyenne quadratique. Ces deux faits donnent l’assertion (i).
La preuve de l’assertion (ii) est analogue.
Application. Soit U(1) le groupe compact des nombres complexes de module 1 ; ainsi θ 7→ eiθ
est un isomorphisme de R/2πZ sur U(1). Les représentations irréductibles de U(1) sont
de degré 1 d’après la proposition 4.2.4.1 ; ce sont les caractères linéaires en : z 7→ z n , vus
comme fonctions de U(1) dans C∗ , pour n ∈ Z. Le théorème 4.4.6.4 dit alors que la famille
(en )n∈Z est une base hilbertienne de l’espace L2 (U(1), C) des fonctions 2π-périodiques de
carré sommable sur R. On retrouve un fait bien connu de la théorie des séries de Fourier.
Ainsi le théorème 4.4.6.4 généralise la théorie des séries de Fourier aux groupes compacts
non-commutatifs.
174
Exercices.
(1) Soient G un groupe compact et π : G → GL(V ) une représentation de dimension finie.
Soit (?, ?) un produit scalaire hermitien invariant sous G. Montrer que l’opérateur de
Reynolds \ est le projecteur orthogonal de V sur invG V .
(2) Énoncer et prouver une généralisation aux groupes compacts de la proposition 4.2.3.2,
pour les représentations linéaires continues.
175
5 Représentations du groupe symétrique et du groupe unitaire
5.1.1 Partitions
Une partition est une suite décroissante λ = (λ1 , λ2 , . . .) d’entiers naturels nuls à partir d’un
certain rang. On représente parfois une partition comme une suite finie, la convention étant
que seuls des zéros ont été omis. Les λn sont appelées les parts de λ. On écrit parfois avec un
exposant pour indiquer qu’une part est répétée un certain nombre de fois.
Partition conjuguée d’une partition λ : c’est la partition λ0 dont les parts sont les λ0n =
Card {i ≥ 1 | λi ≥ n}. Notamment λ01 = `(λ). Pour λ = 5531, on trouve ainsi λ0 = 43322. Le
diagramme de Ferrers de λ0 s’obtient en réfléchissant le diagramme de Ferrers de λ selon l’axe
nord-ouest, sud-est. La conjugaison des partitions est une opération involutive : λ00 = λ.
Ordre de dominance : pour λ, µ ∈ P, on écrit λ ≥ µ si
λ 1 ≥ µ1 ,
λ1 + λ2 ≥ µ1 + µ2 ,
|λ| = |µ| et
λ + λ2 + λ3 ≥ µ1 + µ2 + µ3 ,
1
...
177
Le groupe Sn agit sur Z[x1 , · · · , xn ] en permutant les indéterminées. Dans la partie 5.1,
nous nous intéressons au sous-anneau Λn = Z[x1 , · · · , xn ]Sn des éléments invariants, appelés
polynômes symétriques.
Le moyen le plus simple d’obtenir un polynôme symétrique est certainement de prendre un
monôme xα et de le symétriser. Le résultat ne dépend du multi-exposant α qu’à permutation
près de ses termes α1 , ..., αn , de sorte qu’on peut les supposer rangés dans l’ordre décroissant.
Dit autrement, on part d’une partition λ de longueur `(λ) ≤ n on pose
pour chaque α ∈ Nn . Ce polynôme est nul si α a deux coordonnées égales, et il change de signe
si l’on permute les coordonnées de α. Ainsi nous pouvons nous borner aux suites α strictement
décroissantes ; elles s’écrivent sous la forme λ + δ où λ est une partition de longueur `(λ) ≤ n
et δ = (n − 1, n − 2, . . . , 1, 0).
En effectuant une division euclidienne dans l’anneau Z[x1 , . . . , xi−1 , xi+1 , . . . , xn ][xi ], nous
voyons qu’un polynôme antisymétrique en x1 , . . . , xn est divisible par chaque facteur xi − xj ,
donc est divisible par leur produit, le déterminant de Vandermonde
Y
aδ = (xi − xj ).
1≤i<j≤n
La multiplication par aδ est donc une bijection de Λn sur l’ensemble des polynômes antisymé-
triques en x1 , ..., xn .
Le quotient sλ = aλ+δ /aλ est appelé fonction de Schur. Nous verrons plus loin (théorème de
Littlewood 5.1.6.4) comment trouver une expression explicite de ces polynômes.
5.1.2.1 Proposition.
(i) {aλ+δ | λ ∈ P, `(λ) ≤ n} est une base du sous-Z-module de Z[x1 , · · · , xn ] formé des
polynômes antisymétriques.
(ii) {mλ | λ ∈ P, `(λ) ≤ n} et {sλ | λ ∈ P, `(λ) ≤ n} sont deux bases du Z-module Λn .
178
5.1.3 Fonctions élémentaires
Le théorème de Viète exprimant les coefficients d’un polynôme en fonction de ses racines
conduit à l’identité
Yn
E(t) = (1 + xi t).
i=1
Par ailleurs,
n n
!
X X Y X Y 1
H(t) = (xi1 t) · · · (xik t) = (x1 t)p1 · · · (xn t)pn = (xi t)p = .
1 − xi t
k≥0 p1 ,...,pn ≥0 i=1 p≥0 i=1
1≤i1 ≤···≤ik ≤n
Pk
On en déduit l’égalité H(t)E(−t) = 1, puis les relations i
i=0 (−1) ei hk−i = 0 pour tout k ≥ 1.
Pour λ ∈ P, on pose eλ = eλ1 eλ2 · · · et hλ = hλ1 hλ2 · · · .
179
que eλ0 = `(µ)≤n Cλµ mµ . On passe ainsi des {mµ } aux {eλ0 } par une matrice inversible. La
P
proposition 5.1.2.1 (ii) entraîne alors que {eλ0 | `(λ) ≤ n} est une base du Z-module Λn .
Ainsi Λn est l’anneau des polynômes en e1 , ..., en à coefficients dans Z. Il existe donc un
homomorphisme d’anneaux Pk ωn :i Λn → Λn qui envoie ek sur hk pour chaque 1 ≤ k ≤ n.
À l’aide des relations i=0 (−1) ei hk−i = 0, pour 1 ≤ k ≤ n, on peut exprimer hk comme
un polynôme Pk (e1 , . . . , en ) en les fonctions symétriques élémentaires. Ces relations faisant
jouer des rôles symétriques aux variables (ek )1≤k≤n et (hk )1≤k≤n , les mêmes manipulations
conduisent à l’égalité ek = Pk (h1 , . . . , hn ). Ainsi
Par conséquent, (ωn )2 fixe les éléments ek . Ceux-ci engendrant l’anneau Λn , cela montre que
l’homomorphisme ωn est involutif, donc en particulier est un isomorphisme. On en déduit que
{hλ0 | `(λ) ≤ n} est également une base du Z-module Λn .
pk (−t)k
Y
−1
E(t) = H(−t) = exp − .
k
k≥1
180
Notons également l’identité
!
X
k d X pk tk d tH 0 (t) tE 0 (−t)
pk t = t =t log H(t) = =
dt k dt H(t) E(−t)
k≥1 k≥1
Preuve. Nous venons de voir que les éléments e1 , ..., en sont des polynômes à coefficients
rationnels en les variables p1 , ..., pn . Par conséquent, tous les éléments de la famille {eλ0 |
λ ∈ `(λ) ≤ n} appartiennent au sous-Q-espace vectoriel de Λn ⊗Z Q engendré par la famille
{pλ0 | `(λ) ≤ n}. De plus, ces deux familles sont formées d’éléments homogènes et ont le
même nombre fini d’éléments en chaque degré. Le fait que la première famille soit une base
(théorème 5.1.3.1) entraîne alors que la seconde en est aussi une.
α∈Nn σ∈Sn
|α|=k
X
= aλ+δ+α .
α∈Nn
|α|=k
181
Ainsi X X
aλ+δ hk = aµ+δ + aλ+δ+α .
µ∈λ⊗k |α|=k
λ+α6∈λ⊗k
La condition λ + α 6∈ λ ⊗ k signifie qu’il existe i tel que αi+1 > λi − λi+1 . Choisissant i le plus
grand possible vérifiant cette inégalité et posant
si j = i,
αi+1 − (λi − λi+1 + 1)
βj = αi + (λi − λi+1 + 1) si j = i + 1,
sinon,
αj
pour laquelle aλ+α+δ = −aλ+β+δ . Les termes non nuls de la seconde somme s’annulent donc
deux à deux, prouvant la première formule de Pieri.
La preuve de la seconde est similaire, en fait un peu plus simple.
Exemple. s311 h2 = s511 + s331 + s421 + s4111 + s3211 ; les cases rajoutées au diagramme de 311
sont indiquées par une étoile.
∗
∗ ∗ ∗
∗
∗ ∗ ∗
∗ ∗
N’ayant pas besoin des formules de Jacobi-Trudi, nous ne les démontrons pas. Notons cepen-
dant que si `(λ) > n, alors le membre de gauche de la première formule est nul, donc le membre
de droite l’est aussi ; cela donne une relation non triviale entre les fonctions symétriques com-
plètes.
Maintenant, appelons bande un ensemble de cases contiguës, obtenu en parcourant un chemin
formé de pas soit vers le haut, soit vers la droite. La hauteur h(θ) d’une bande θ est le nombre
de lignes qu’elle occupe moins un.
182
h(θ) s
P
5.1.4.3 Proposition. sλ pk = θ (−1) λ+θ , la somme portant sur les bandes θ à k
cases telles que λ + θ soit une partition.
Exemple. s421 p4 = s821 − s551 − s443 + s42221 − s4211111 , les différents termes correspondant
aux bandes repérées ci-dessous par des ∗ :
∗ ∗ ∗ ∗ ∗
∗ ∗ ∗ ∗ ∗ ∗ ∗
∗ ∗ ∗ ∗ ∗
∗ ∗
∗
5.1.5 L’anneau Λ
183
La proposition 5.1.2.1 (ii) affirme que {mλ | λ ∈ P, |λ| = k, `(λ) ≤ n} est une base de
Λkn . Comme la longueur d’une partition est inférieure ou égale à son poids, on voit que la
composante en degré k de notre homomorphisme Λn+1 → Λn est bijective si n ≥ k.
On peut donc noter Λk l’espace Λkn pour n assez grand, car il devient alors essentiellement in-
dépendant de n. Concrètement, on peut voir Λ comme l’ensemble de toutes les séries formelles
en x1 , x2 , ... homogènes de degré k et symétriques. On pose ensuite
M
Λ= Λk .
k∈N
Alors Λ hérite une structure d’anneau gradué. Pour chaque n ≥ 1, ’évaluation xi 7→ 0 pour
i > n définit un homomorphisme surjectif d’anneaux de Λ sur Λn . Les fonctions symétriques
hk , ek , pk , mλ , sλ se remontent naturellement à Λ, et toutes les identités qu’elles satisfont
dans Λ « descendent » ensuite dans les anneaux Λn . Utiliser Λ est ainsi une commodité qui
ne présente aucun inconvénient.
5.1.5.1 Proposition.
(i) {mλ | λ ∈ P}, {hλ | λ ∈ P}, {eλ | λ ∈ P} et {sλ | λ ∈ P} sont des bases du
Z-module Λ. En particulier, Λ est l’anneau des polynômes en h1 , h2 , ... ; c’est aussi
l’anneau des polynômes en e1 , e2 , ...
(ii) {pλ | λ ∈ P} est une base du Q-espace vectoriel Λ ⊗Z Q.
L’anneau Λ est muni d’une involution ω qui échange hk et ek pour chaque k ≥ 1. (Note :
l’involution ωn de l’anneau Λn utilisée dans la preuve du théorème 5.1.3.1 n’est pas induite
par ω.) On vérifie sans difficulté (par exemple avec les formules de Newton) que ω(pk ) =
(−1)k+1 pk . La symétrie présente dans les relations de Pieri ou les formules de Jacobi-Trudi
entraîne que ω(sλ ) = sλ0 pour chaque λ ∈ P.
À présent, nous cherchons à munir Λ d’un produit scalaire, pour lequel les composantes ho-
mogènes sont deux à deux orthogonales. Nous commençons par quelques formules, faisant
intervenir deux jeux de variables {x1 , x2 , . . .} et {y1 , y2 , . . .}.
5.1.5.2 Proposition.
X Y
hλ (x)mλ (y) = (1 − xi yj )−1
λ∈P i,j≥1
X pλ (x)pλ (y) Y
= (1 − xi yj )−1
zλ
λ∈P i,j≥1
X Y
sλ (x)sλ (y) = (1 − xi yj )−1
λ∈P i,j≥1
X Y
sλ0 (x)sλ (y) = (1 + xi yj ).
λ∈P i,j≥1
184
Preuve. La première formule est
!
Y Y Y X X
−1
(1 − xi yj ) = H(yj ) = hr (x)yjr = hλ (x)mλ (y).
i,j≥1 j≥1 j≥1 r≥0 λ∈P
Y pk (x)pk (y)
= exp
k
k≥1
X 1 Y mk (λ)
= pk (x)pk (y)
zλ
λ∈P k≥1
X pλ (x)pλ (y)
= .
zλ
λ∈P
On prouve cette formule par des manipulations de lignes et de colonnes sur la matrice dont
on veut calculer le déterminant. Écrivant
1 1 xi − x1 yj
− = · ,
1 − x i yj 1 − x 1 yj 1 − x1 yj 1 − xi yj
et retranchant la première ligne des lignes suivantes, on voit que le déterminant cherché est
1 1 ... 1
y1 y2 yn
Qn
(x − x1 ) 1−x2 y1 1−x2 y2 ... 1−x2 yn
Qni=2 i .. .. .. .. .
j=1 (1 − x1 yj ) . . . .
y1 y2 yn
1−xn y1 1−xn y2 ... 1−xn yn
Soustrayant alors la première colonne des colonnes suivantes, et utilisant pour ce faire
yj y1 yj − y1 1
− = · ,
1 − x i yj 1 − x i y1 1 − xi y1 1 − xi yj
185
on obtient
1 0 ... 0
Qn 1 1
Qn
(x − x1 ) j=2 (yj − y1 )
∗ 1−x2 y2 ... 1−x2 yn
Qni=2 i · Qn .. .. .. .. .
j=1 (1 − x1 yj ) i=2 (1 − xi y1 ) . . . .
1 1
∗ 1−xn y2 ... 1−xn yn
On définit un produit scalaire h?, ?i sur Λ ⊗Z Q en demandant que les fonctions de Schur
forment une base orthonormée. L’involution ω de Λ permute les fonctions de Schur, donc
préserve ce produit scalaire.
186
5.1.5.3 Proposition. Pour (λ, µ) ∈ P 2 , on a hhλ , mµ i = δλµ et hpλ , pµ i = zλ δλµ .
Preuve. Nous allons montrer plus généralement que si {uλ }, {vλ } sont deux familles de poly-
nômes symétriques homogènes, avec uλ et vλ de degré |λ|, telles que
X Y
uλ (x)vλ (y) = (1 − xi yj )−1 ,
λ∈P i,j≥1
X Y X X
sλ (x)sλ (y) = (1 − xi yj )−1 = uµ (x)vµ (y) = Bλµ Cµν sλ (x)sν (y),
λ∈P i,j≥1 µ∈P λ,µ,ν∈P
d’où µ∈P Bλµ Cµν = δλν puisque les éléments de {sλ (x)sν (y)} forment une famille libre.
P
Ainsi le produit de matrices BC est l’identité. Il en est donc de même du produit CB, d’où
X X
huµ , vρ i = Bλµ Cρν hsλ , sν i = Cρλ Bλµ = δρν .
λ,ν∈P λ∈P
5.1.6 Tableaux
Soient λ ∈ P et µ = (µ1 , µ2 , . . .) une suite d’entiers naturels presque tous nuls de somme |λ|.
On appelle tableau semi-standard de forme λ et de poids µ un remplissage du diagramme de
λ par les éléments
1, . . . , 1, 2, . . . , 2, . . .
| {z } | {z }
µ1 fois µ1 fois
de façon croissante dans les lignes et strictement croissante dans les colonnes.
On appelle tableau multibande de forme λ et de poids µ un remplissage du diagramme de λ
par les mêmes éléments, mais cette fois de façon croissante dans les lignes et dans les colonnes
et de sorte que pour chaque i l’ensemble des cases contenant la valeur i forme une bande. La
hauteur d’un tableau multibande est la somme des hauteurs des bandes qui le forment.
Exemple.
1 2 2 3 3 5 1 3 3 3 4 4
2 3 5 5 et 2 5 5 6
4 4 6 6 2 5 6 6
5 6 2 5
sont respectivement des tableaux semi-standard et multibande de forme λ = 642 2 et de poids
µ = (1, 3, 3, 2, 4, 3) (les zéros traînant à la fin de µ ont été supprimés). Le tableau multibande
est de hauteur 5.
187
On note Kλ,µ le nombre de tableaux semi-standards de forme λ et de poids µ. On se restreint
souvent au cas où µ est une partition ; dans ce cas Kλ,µ s’appelle nombre de Kostka.
Enfin, soit λ une partition de poids n. On appelle tableau standard de forme λ un tableau
semi-standard de poids (1, . . . , 1, 0, . . .) (1 répété n fois). Ainsi, tous les chiffres entre 1 et
n apparaissent exactement une fois dans les cases du diagramme de λ, de façon strictement
croissante dans les lignes et dans les colonnes. Le nombre de tableaux standards de forme λ
est le nombre de Kostka Kλ,(1n ) ; il est strictement positif.
Preuve. Dans un tableau semi-standard, les entiers entre 1 et i ne peuvent apparaître que
dans les i premières lignes. Par conséquent, s’il existe un tableau semi-standard de forme λ et
de poids µ, alors nécessairement µ1 + · · · + µi ≤ λ1 + · · · + λi pour chaque i.
5.1.6.2 Proposition. Soit µ = (µ1 , µ2 , . . .) une suite d’entiers naturels presque tous nuls
et soit n = µ1 + µ2 + · · · . Alors dans l’anneau Λ
!
X X X
hµ1 hµ2 · · · = Kλ,µ sλ et pµ1 pµ2 · · · = (−1)h(T ) sλ ,
λ`n λ`n T
la somme intérieure dans la deuxième formule portant sur l’ensemble des tableaux multibandes
de forme λ et de poids µ et la notation h(T ) désignant la hauteur du tableau T .
Preuve. La preuve se fait par récurrence sur p, le plus grand des indices i tels que µi 6= 0. Pour
la première formule, l’hérédité se prouve à l’aide de la formule de Pieri 5.1.4.1 : un tableau
semi-standard de poids µ s’obtient à partir d’un tableau de poids (µ1 , µ2 , . . . , µp−1 , 0, 0, . . .) en
ajoutant µp cases dans des colonnes différentes de façon à former encore une partition. Pour
la seconde formule, on utilise la proposition 5.1.4.3.
Preuve. Le corollaire découle de la proposition précédente et du fait que les fonctions de Schur
forment une base orthonormée de Λ.
Une conséquence de la proposition 5.1.6.2 est qu’à l’instar de hµ , le nombre Kλ,µ ne dépend
de µ qu’à permutation des µi près. Ce fait est exploité dans la preuve du théorème ci-dessous.
188
Preuve. La remarque qui précède l’énoncé de ce théorème explique que le membre de droite
de l’égalité (∗) est un polynôme symétrique. Il est donc égal à
X
Kλ,µ mµ .
µ∈P
En utilisant le corollaire 5.1.6.3 et le fait que {hµ } et {mµ } forment des bases duales pour
h?, ?i, on est alors conduit à
X X
Kλ,µ mµ = hhµ , sλ imµ = sλ .
µ∈P µ∈P
À σ ∈ Sn , on associe la suite ρ(σ) des longueurs des cycles de σ, classées par ordre décroissant ;
c’est une partition de n. Cette application σ 7→ ρ(σ) induit une bijection entre l’ensemble des
classes de conjugaison de Sn et l’ensemble des partitions de poids n. Pour une partition λ de
n, on note Cλ ⊂ Sn la classe de conjugaison formée des permutations σ telles que ρ(σ) = λ.
Rappelons(voir lasection 5.1.3) que pour chaque partition λ = · · · 2m2 1m1 , nous posons
zλ = i≥1 imi mi ! .
Q
5.2.1.1 Proposition.
(i) Le centralisateur d’un élément σ ∈ Sn est d’ordre zρ(σ) .
(ii) Pour toute partition λ de n, la classe de conjugaison Cλ contient n!/zλ éléments.
189
diviser le nombre obtenu par mi !, pour chaque longueur i de cycle. Tout compte fait, le nombre
d’éléments de Cλ est égal à
n! 1 n!
× (λ1 − 1)! × (λ2 − 1)! × · · · × = .
λ1 ! λ2 ! · · · m1 ! m2 ! · · · zλ
Le raisonnement ci-dessus établit l’énoncé (ii). L’énoncé (i) s’en déduit par la formule des
classes. Alternativement, on peut voir que le centralisateur dans Sn d’une permutation σ ∈ Cλ
est isomorphe au groupe produit
Y m
Z/iZ i o Smi
i≥1
mi
où la structure de produit semi-direct est donnée par l’action de Smi sur Z/iZ par per-
mutation des facteurs.
Soit µ = (µ1 , µ2 , . . . , µp ) une suite finie d’entiers strictement positifs de somme n. On dispose
alors d’un homomorphisme injectif de groupes
!
Sµ = Sµ1 × · · · × Sµp → Sn
,
(σ1 , . . . , σp ) 7→ σ1 × · · · × σp
où σ1 × · · · × σp est la permutation obtenue en décomposant {1, . . . , n} en blocs {1, . . . , µ1 } t
{µ1 + 1, . . . , µ1 + µ2 } t · · · et en faisant agir σ1 sur le premier bloc, σ2 sur le second, etc.
On identifie Sµ à son image, appelée sous-groupe de Young de Sn .
Nous nous intéressons aux caractères complexes du groupe symétrique Sn , avec n ≥ 1. Pour
cela, introduisons l’espace Fn = cf C (Sn ) des fonctions de classes à valeurs complexes sur Sn .
L’espace F n est muni d’un produit scalaire hermitien (?, ?)Sn . L’ensemble R n = ch CSn des
caractères virtuels de Sn est un sous-groupe de F n .
Nous avons vu dans la section 5.1.5 que l’espace des polynômes symétriques de degré n ne
dépend pas du nombre d’indéterminées, pourvu que celui-ci soit au moins n. Notons-le Λn , et
munissons Λn ⊗Z C du produit scalaire hermitien pour lequel les fonctions de Schur forment
une base orthonormée.
L’application caractéristique de Frobenius ch : F n → Λn ⊗Z C est définie en posant
1 X
ch(ϕ) = ϕ(σ) pρ(σ)
n!
σ∈Sn
190
5.2.3.1 Théorème. L’application ch est un isomorphisme isométrique d’espaces vectoriels
' '
Fn − → Λn ⊗Z C. Elle se restreint en un isomorphisme de Z-modules R − → Λn . Les caractères
irréductibles de Sn sont les images inverses des fonctions de Schur de degré n par l’applica-
tion ch.
Preuve. Par construction, ch est linéaire. Son caractère isométrique résulte de la comparaison
des propositions 5.1.5.3 et 5.2.1.1 : si λ et µ sont deux partitions de n, alors le produit scalaire
dans F n des fonctions indicatrices des classes de conjugaison Cλ et Cµ , à l’instar du produit
scalaire hpλ /zλ , pµ /zµ i dans Λ, vaut 1/zλ si λ = µ et zéro sinon.
Prenons à présent une suite finie µ = (µ1 , µ2 , . . . , µp ) d’entiers strictement positifs de somme n,
considérons la représentation de permutation définie par l’action de Sn sur Sn /Sµ par trans-
lations à gauche (paragraphe 4.1.2.1), et notons ηµ le caractère de celle-ci. Alors la valeur
de ηµ en une permutation σ ∈ Sn est le nombre de points fixes de l’action de σ sur Sn /Sµ
(exercice (1) de la section 4.1.4). Notant 1Sµ la fonction indicatrice de Sµ , nous avons donc
1 X
ηµ (σ) = 1Sµ (τ −1 στ )
|Sµ |
τ ∈Sn
1 X
= 1Sµ (σ) pρ(σ)
|Sµ |
σ∈Sn
1 X
= pρ(σ1 ×···×σp )
|Sµ |
(σ1 ,...,σp )∈Sµ1 ×···×Sµp
p
!
Y 1 X
= pρ(σ)
µi !
i=1 σ∈Sµi
p
!
Y X
= pλ /zλ
i=1 λ`µi
191
formée par les nombres de Kostka, on en déduit que ch(R n ) contient Λn . Pour chaque partition
λ de poids n, il existe donc χλ ∈ R tel que ch χλ = sλ . Alors (χλ , χλ )Sn = hsλ , sλ i = 1. En
outre, l’égalité
1 X λ
sλ = ch(χλ ) = χ (σ) pρ(σ)
n!
σ∈Sn
ϕ · ψ = (ϕ × ψ)Sm+n
à Sm+n de la fonction centrale ϕ×ψ : (σ, τ ) 7→ ϕ(σ)ψ(τ ) sur Sm ×Sn = S(m,n) ; l’associativité
se prouve en utilisant la transitivité de l’induction. Un calcul simple, semblable à la preuve de
la proposition 4.3.2.2 (iv), prouve alors que l’application
ch : F → Λ ⊗Z C
'
définie en recollant par linéarité les applications F n −
→ Λn ⊗Z C est un isomorphisme d’al-
gèbres. Cet isomorphisme envoie le sous-anneau R = n≥0 R n de F sur Λ.
L
Adoptant les notations de la preuve du théorème 5.2.3.1, nous avons donc une indexation
(χλ )λ`n des caractères irréductibles de Sn par l’ensemble des partitions de poids n.
192
(2) Soit µ une partition de n. Chaque permutation appartenant à la classe de conjugaison
Cµ se décompose en produit de `(µ) cycles à supports disjoints (y compris les cycles de
longueur 1), donc a pour signature (−1)n+`(µ) . L’image par ch de la signature de Sn
est donc égale à X
(−1)|λ|+`(λ) pλ /zλ = en = s(1n )
λ`n
n)
(voir la proposition 5.1.3.2). Ainsi χ(1 est la signature de Sn .
Preuve. La valeur d’une fonction centrale ϕ ∈ F n sur la classe de conjugaison Cµ est égale à
hch ϕ, pµ i. En particulier, χλµ = hsλ , pµ i. Le résultat découle alors du fait que {sλ | λ ` n} est
une base orthonormée de Λn .
La table des caractères des groupes symétriques s’obtient donc comme une matrice de change-
ment de base dans Λ ⊗Z Q. Utilisant la proposition 5.1.2.1 (ii), on voit même que les nombres
χλµ sont entiers.
5.2.4.3 Proposition.
(i) Pour chaque partition λ de n, le degré de χλ est égal au nombre Kλ,(1n ) de tableaux
standards de forme λ.
(ii) (Règle de Young.) Soit µ = (µ1 , µ2 , . . . , µp ) une suite d’entiers strictement positifs, de
somme n. Induisons à Sn le caractère trivial 1Sµ du sous-groupe de Young Sµ . Alors
Sn X
1Sµ = Kλ,µ χλ
λ`n
Preuve. L’énoncé (i) a été prouvé au cours de la démonstration du théorème 5.2.3.1. Les
règles de Young et de Murnaghan-Nakayama s’obtiennent en appliquant ch−1 aux formules de
la proposition 5.1.6.2.
193
Exemple d’utilisation de la règle de Murnaghan-Nakayama. Prenons n = 7, λ = 421, µ = 331.
Il y a trois tableaux multibandes, à savoir
1 1 1 3 1 2 2 2 1 2 2 3
2 2 , 1 3 et 1 2 ,
2 1 1
5.2.4.5 Remarques.
(1) La somme des carrés des degrés des caractères irréductibles d’un groupe fini est égal à
l’ordre du groupe. Ici, cela donne
X 2
Kλ,(1n ) = n!.
λ`n
194
où h(x) est la longueur d’équerre de x : si x est la case (i, j), alors h(x) = λi +λ0j −i−j+1.
Ainsi pour x = (2, 2) et λ = 6432, on a ainsi h(x) = 5, car il y a cinq ∗ dans le
diagramme de gauche ci-dessous.
9 8 6 4 2 1
∗ ∗ ∗ 6 5 3 1
∗ 4 3 1
∗ 2 1
Les cases du tableau de droite ci-dessus sont remplies par les longueurs d’équerres. La
formule de Frame-Robinson-Thrall donne ici
15!
deg χλ = = 175175.
9×8×6×4×2×6×5×3×4×3×2
Malgré les apparences, il reste d’importants problèmes ouverts concernant les caractères du
groupe symétrique. En voici deux :
(1) On ne connaît pas de règle combinatoire qui donne les multiplicités des représenta-
tions irréductibles dans les produits tensoriels, autrement dit, on ne sait pas évaluer
(χλ , χµ χν )Sn pour λ, µ, ν partitions de poids n.
(2) On ne sait pas grand chose sur les représentations de Sn en caractéristique finie. On
ne connaît même pas leur degré !
5.2.5 Compléments
Nous avons déterminé ci-dessus les caractères irréductibles complexes du groupe symétrique
Sn . Il est également possible de construire explicitement les représentations, appelées modules
de Specht, de la façon suivante. Soit λ une partition de n. À un remplissage T du diagramme
de λ par les entiers de 1 à n, chaque entier apparaissant une fois, on associe le polynôme
fT ∈ Z[x1 , . . . , xn ] produit des xi − xj , pour tous les couples (i, j) tels que dans T , l’entier j
est au dessus et dans la même colonne que l’entier i. Si par exemple n = 7 et λ = 421, alors
au remplissage
4 1 5 2
T = 7 3
6
correspond le polynôme fT = (x7 − x4 )(x6 − x7 )(x6 − x4 )(x3 − x1 ).
On appelle Mλ le sous-Z-module de Z[x1 , . . . , xn ] engendré par les polynômes fT , pour tous
les remplissages T du diagramme de λ. Manifestement, Mλ est stable sous l’action de Sn sur
Z[x1 , . . . , xn ]. On peut démontrer que les fT pour T tableau standard forment une base du
Z-module Mλ , et que si k est un corps de caractéristique 0, alors la représentation de Sn
sur Mλ ⊗Z k est absolument irréductible et de caractère χλ . En particulier, non seulement
les caractères irréductibles complexes de Sn sont à valeurs entières, mais les représentations
correspondantes peuvent être réalisées sur Z.
Une référence (assez condensée) pour la preuve de ces énoncés est l’exercice 15 de la section I.7
du livre de Macdonald [13].
195
D’autres approches permettent de présenter la théorie. L’une d’elles, due à Okounkov et
Vershik, semble assez populaire ces dernières années. Donnons-nous n ≥ 1 et plongeons
S1 ⊆ S2 ⊆ · · · ⊆ Sn . Ici pour m < n, une permutation σ ∈ Sm est vue comme une permu-
tation de {1, . . . , n} qui fixe les valeurs m + 1, m + 2, ... Nous obtenons alors des inclusions
d’algèbres
CS1 ⊆ CS2 ⊆ · · · ⊆ CSn .
Appelons A la sous-algèbre de CSn engendrée par les centres Z(CS1 ), Z(CS2 ), ... Z(CSn ).
A est une sous-algèbre commutative de CSn , car pour i < j, un élément de Z(CSj ) commute
avec tout élément de CSj , donc en particulier avec tout élément de CSi .
On montre que A est une sous-algèbre commutative maximale de CSn . Il est alors intéres-
sant de restreindre les CSn -modules à A : comme A est commutative, ses représentations
irréductibles sont de dimension 1. Il se trouve que la sous-algèbre A est assez grosse pour que
la restriction à A d’un CSn -module détermine entièrement ce dernier, à isomorphisme près.
Pour plus de détails, le lecteur est renvoyé au premier chapitre du livre [12].
Commençons par rappeler brièvement quelques faits concernant les groupes compacts et leurs
représentations (voir le paragraphe 4.4 pour plus de détails).
Soit G un groupe compact. Nous nous intéressons exclusivement aux représentations complexes
de dimension finie de G, c’est-à-dire aux homomorphismes de groupes π : G → GL(V ), où V
est un C-espace vectoriel de dimension finie. Alors V et GL(V ) sont munis d’une topologie
canonique, et on peut parler de représentation continue.
Un groupe compact possède une unique mesure µ de masse totale 1, invariante par translations
à gauche et à droite, appelée mesure de Haar. On peut ainsi intégrer d’une façon canonique
les fonctions continues sur G à valeurs dans un espace vectoriel
P réel ou complexe de dimension
finie. L’intégrale G ϕ dµ est l’analogue de la moyenne g∈G ϕ(g) /|G| qui nous a servi à
R
définir l’opérateur de Reynolds. De fait, on dispose encore d’un opérateur de Reynolds dans
le cas des groupes compacts, qui peut être utilisé pour prouver le théorème de Maschke et la
relation d’orthogonalité des caractères.
5.3.1.1 Exemple. Sur le groupe compact G = (R/2πZ)n , la mesure de Haar est donnée par
Z Z 2π Z 2π
dθ1 dθn
ϕ dµ = ··· ϕ(θ1 , . . . , θn ) ··· .
G 0 0 2π 2π
L’espace des fonctions continues sur G à valeurs complexes est muni d’un produit scalaire
Z
(ϕ, ψ)G = ϕ(g)ψ(g) dµ(g).
G
Le sous-espace des fonctions de classe hérite de ce produit scalaire.
La théorie de Peter-Weyl (paragraphes 4.4.5 et 4.4.6) entraîne :
196
5.3.1.2 Fait. L’ensemble des caractères irréductibles (sous-entendu : continus) de G forme
une famille orthonormée dans l’ensemble des fonctions de classe continue. Il n’existe pas de
fonction de classe continue non-nulle qui soit orthogonale à tous les caractères irréductibles.
Voici maintenant quelques rappels concernant les groupes unitaires. On se donne un entier
n ≥ 1. Comme d’habitude, on note
le groupe des matrices unitaires de taille n. Ainsi U(1) est le groupe des nombres complexes
de module 1.
5.3.1.3 Faits.
(1) Les valeurs propres d’une matrice unitaire sont des nombres complexes de module 1.
(2) Une matrice unitaire et triangulaire est diagonale (le i-ième vecteur colonne Ci est de
norme 1 ; la i-ième coordonnée de Ci est de module 1 ; les autres coordonnées de Ci
sont donc nulles).
(3) Toute matrice P ∈ GLn (C) s’écrit de façon unique P = T U , avec T triangulaire
supérieure à valeurs réelles positives sur la diagonale et U unitaire (ce fait traduit le
procédé de Gram-Schmidt).
(4) Pour toute matrice complexe M , il existe une matrice unitaire U telle que U −1 M U est
triangulaire supérieure (trianguler M et appliquer le point précédent à la matrice de
passage).
(5) Toute matrice unitaire est diagonalisable avec une matrice de passage unitaire (combi-
ner (2) et (4)).
(6) La transformée de Cayley
I −U I −A
U 7→ A = et A 7→ U =
I +U I +A
est une bijection bicontinue entre l’ensemble des matrices unitaires U n’ayant pas −1
comme valeur propre et l’ensemble des matrices antihermitiennes A n’ayant pas −1
comme valeur propre. Au prix de la restriction à des ouverts, on peut donc passer du
groupe U(n) des matrices unitaires à l’espace vectoriel u(n) des matrices antihermi-
tiennes.
On se donne un groupe unitaire G = U(n), avec n fixé pour toute la suite. On note T
l’ensemble des matrices diagonales de G. Les valeurs diagonales d’un élément de T étant des
nombres complexes de module 1, on a T ∼= U(1)n . Le sous-groupe T est appelé le tore maximal
standard de G. C’est un groupe abélien compact connexe.
Une matrice M ∈ GLn (C) est dite monomiale si chaque ligne et chaque colonne de M contient
exactement une valeur non-nulle. On vérifie sans trop de peine que le normalisateur N de T
197
dans U(n) est l’ensemble des matrices monomiales unitaires. Comme T est abélien, l’action
par conjugaison de N sur T se factorise à travers le quotient W = N/T . Concrètement, W
est isomorphe au groupe symétrique Sn et l’action d’une permutation σ ∈ W sur une matrice
diagonale U ∈ T est de permuter les valeurs diagonales de U .
Pour voir cela, le plus simple est de plonger Sn dans GLn (C) par les matrices de permutations.
On vérifie qu’alors N = Sn T et Sn ∩ T = {1} ; on a ainsi une structure de produit semi-
direct N = Sn n T . L’action d’une permutation σ ∈ Sn sur T est donnée par la conjugaison
U 7→ Pσ U Pσ−1 par la matrice de permutation correspondante : si U = diag(z1 , . . . , zn ), alors
Pσ U Pσ−1 = diag(zσ−1 (1) , . . . , zσ−1 (n) ).
Notons C(G, C)G l’algèbre des fonctions de classe continues sur G à valeurs complexes ; notons
C(T, C)W l’ensemble des fonctions continues sur T qui sont constantes sur les orbites de W
(autrement dit : W agit sur T , donc sur l’espace C(T, C) des fonctions continues sur T , et on
prend les invariants pour cette action).
5.3.2.1 Théorème.
(i) Chaque classe de conjugaison de G rencontre T et l’intersection est une W -orbite.
(ii) L’opération de restriction à T d’une fonction sur G induit un isomorphisme d’algèbres
de C(G, C)G sur C(T, C)W .
Preuve. Le (i) traduit le fait que chaque matrice unitaire U est semblable à une matrice
diagonale D avec une matrice de passage unitaire (fait 5.3.1.3 (5)), et que les coefficients de D
sont déterminés à permutation près par U (ce sont les valeurs propres de U , avec multiplicité).
À ce stade, la seule chose non-banale à démontrer dans (ii) est la surjectivité de l’opération
de restriction. Plus précisément, donnons-nous une fonction W -invariante ψ : T → C. Il est
naturel de définir une fonction ϕ ∈ C(G, C)G en décrétant, pour chaque matrice U ∈ G, que
ϕ(U ) est égal à la valeur de ψ sur l’intersection de T avec la classe de conjugaison de U .
Certainement alors, ψ est la restriction de ϕ. La difficulté est de montrer que ϕ est continue.
Pour éviter de parler de topologie quotient, ce qui est toujours un peu délicat 21 , nous consi-
dérons l’application
C : G → Cn , U → 7 (a1 , . . . , an ),
où les ai sont les coefficients du polynôme caractéristique de U , à un signe près :
198
Choisissons une norme classique sur Cn ; elle nous donne une distance W -invariante sur
U(1)n ∼= T . On munit T /W de la distance induite : la distance entre deux W -orbites est
le minimum de la distance entre deux points appartenant à l’une et l’autre orbite. Alors T /W
est un espace topologique compact, car T est compact et la surjection canonique de T sur
T /W est continue. Ainsi C̃ : T /W → K est une bijection continue d’un espace compact vers
un espace séparé, et est donc un homéomorphisme d’après le théorème de Poincaré.
Reprenons maintenant notre fonction ψ ∈ C(T, C)W . Alors ψ se factorise à travers T /W ,
donnant une application ψ̃ : T /W → C. En utilisant que la surjection canonique de T sur
T /W est ouverte, on vérifie que ψ̃ est continue. On en déduit que la fonction ϕ est continue,
car elle peut s’écrire ϕ = ψ̃ ◦ C̃ −1 ◦ C.
La forme linéaire positive ϕ 7→ G ϕ dµ sur C(G, C)G peut donc être vue comme une forme
R
linéaire positive sur C(T, C)W . D’après le théorème de représentation de Riesz, elle est donnée
par une mesure W -invariante sur T . Le résultat suivant explicite cette dernière. Il est dû à
Weyl ([17], chapitre VII, §4) ; on pourra se référer au chapitre 18 de [5] pour une présentation
plus moderne.
Preuve. L’application (g, t) 7→ gtg −1 de G × T dans G est surjective d’après le fait 5.3.1.3 (5).
Elle se factorise en une application surjective Φ : (G/T ) × T → G.
Le groupe G est une variété différentielle réelle ; on note g l’espace tangent à G en l’élément
neutre e. Le tore T est une sous-variété différentielle de G ; l’espace tangent t à T au point e est
donc un sous-espace vectoriel de g. L’ensemble G/T a une structure de variété différentielle,
et l’espace tangent à G/T au point eT (l’image de e dans G/T ) peut être identifié à g/t.
Pour chaque g ∈ G, la différentielle en e du difféomorphisme h 7→ ghg −1 de G dans lui-même
est notée Ad(g). L’application Ad : G → GL(g) est appelée la représentation adjointe de G.
Pour t ∈ T , l’endomorphisme Ad(t) laisse fixe chaque élément du sous-espace t de g. Nous
disposons ainsi d’une représentation quotient de T sur g/t, que nous noterons t 7→ (Ad(t))g/t .
Concrètement pour G = U(n), g est identifié à l’espace vectoriel u(n) des matrices antiher-
mitiennes de taille n, et Ad(g) est la conjugaison X 7→ gXg −1 , pour g ∈ U(n) et X ∈ u(n).
On peut ici noter que la puissance extérieure maximale de la représentation adjointe est la
représentation
Vmax ∼ triviale de G, le déterminant fournissant un isomorphisme de représentations
g = R. Par ailleurs, le sous-espace t est l’ensemble des matrices diagonales de taille n à
coefficients imaginaires purs.
Nous considérons maintenant la fonction J : t 7→ det(Ad(t−1 )−id)g/t définie sur T et à valeurs
réelles. Un calcul explicite montre que pour G = U(n),
Y
J(diag(z1 , . . . , zn )) = |zj − zk |2 (†)
j<k
199
pour chaque (z1 , . . . , zn ) ∈ U(1)n .
Soit ω une forme différentielle de degré maximal sur G. L’intégrale R G ϕω a alors un sens pour
R
On peut identifier les droites vectorielles réelles max (g/t)∗ ⊗ max t∗ et max g∗ ; on norma-
V V V
lise λ de façon à avoir λeT ⊗ ηe ≡ ωe dans notre identification. Le théorème de Fubini entraîne
alors Z
λ = 1.
G/T
où X ∈ g/t et H ∈ t. Le fait que X appartienne à g/t et non à g n’est pas ici un souci :
comme l’endomorphisme Ad(t−1 ) − id de l’espace vectoriel g est nul sur t, il se factorise à
travers g/t, et donc (Ad(t−1 ) − id)(X) est un élément
V bien défini
V de g, même
V si X n’est défini
que modulo t. Maintenant, dans l’identification max (g/t) ⊗ max t ≡ max g, la puissance
extérieure maximale de l’application linéaire
Introduisons à présent l’ensemble Greg des éléments réguliers de G, formé des matrices unitaires
dont les valeurs propres sont deux-à-deux distinctes. C’est une partie ouverte de G, stable par
22. L’existence de λ n’est pas complètement évidente. On commence par observer que la puissance extérieure
maximale de la Vreprésentation t 7→ (Ad(t))g/t de T sur g/t est la représentation triviale de T . Ainsi un élément
non-nul λeT ∈ max (g/t)∗ est automatiquement invariant par le stabilisateur du point eT de G/T . On peut
alors propager cet élément à tout G/T de façon G-invariante.
200
l’action par conjugaison de G sur lui-même. Posons T reg = T ∩ Greg ; ainsi Φ−1 (Greg ) =
(G/T ) × T reg . La formule (†) montre que J(t) 6= 0 pour chaque t ∈ T reg . On déduit alors de
(‡) que Φ est un difféomorphisme local au dessus de Greg . De plus, un élément de Greg possède
exactement |W | = n! antécédents par Φ 23 .
Le complémentaire de Greg est une sous-variété algébrique de G, donc il est de mesure nulle.
De même, le complémentaire de T reg est de mesure nulle dans T . On peut donc restreindre à
Greg ou à T reg le domaine d’intégration d’une fonction continue sur G ou sur T sans changer
la valeur de l’intégrale. Soit ϕ ∈ C(G, C)G une fonction de classe continue. Alors
Z Z Z Z
1 1
ϕ dµ = ϕω = Φ∗ (ϕω) = (ϕ ◦ Φ) Φ∗ ω.
G G reg |W | (G/T )×T reg |W | (G/T )×T reg
pour chaque (gT, t) ∈ (G/T ) × T reg . Utilisant (‡) et le théorème de Fubini, nous concluons
que ! Z !
Z Z Z
1 1
ϕ dµ = λ ϕJη = ϕJη.
G |W | G/T T reg |W | T
La forme différentielle η donnant la mesure de Haar sur T , l’exemple 5.3.1.1 et (†) donnent la
formule de Weyl telle qu’écrite dans l’énoncé.
Le groupe T étant abélien, ses représentations irréductibles sont de degré 1, c’est-à-dire sont
des caractères linéaires. Notons X ∗ (T ) l’ensemble des caractères linéaires continus de T .
201
Une première possibilité consiste à écrire que si la construction proposée avait manqué un
caractère ϕ de T , alors ϕ serait orthogonal à tous les caractères
ce qui impliquerait que tous les coefficients de Fourier de la fonction continue 2π-périodique en
chaque variable (θ1 , . . . , θn ) 7→ ϕ diag eiθ1 , . . . , eiθn soient nuls. Alors ϕ serait nulle d’après
la formule de Plancherel, ce qui est impossible pour un caractère linéaire.
Une seconde possibilité consiste à traiter d’abord le cas n = 1 à l’aide du lemme 5.3.3.3
ci-dessous, puis à en déduire le cas n quelconque en adaptant la démarche de l’exercice du
paragraphe 4.2.3.
On choisit ensuite une fonction ρ positive C 1 à support dans [−ε, ε] d’intégrale 1. Le produit
de convolution ρ ∗ f est alors une fonction C 1 et
Z
(ρ ∗ f )(t) = f (t) ρ(u)f (−u) du
R
pour chaque t ∈ R. La parenthèse à droite est non-nulle, car d’après les choix faits, sa partie
réelle est ≥ 1/2. On en déduit que f est nécessairement C 1 . En dérivant en h = 0 la relation
f (t + h) = f (h)f (t), on obtient l’équation différentielle f 0 (t) = f 0 (0)f (t), d’où f (t) = eat avec
a = f 0 (0).
À une suite finie décroissante µ = (µ1 , . . . , µn ) d’entiers relatifs, on associe une fonction
ψµ ∈ C(T, C)W de la façon suivante : on choisit une partition λ de longueur au plus n et un
entier m ∈ Z de sorte que
µ = (λ1 − m, . . . , λn − m)
202
et on définit
ψµ : diag(z1 , . . . , zn ) 7→ sλ (z1 , . . . , zn )/(z1 · · · zn )m .
Dans la bijection du théorème 5.3.2.1 (ii), ces fonctions ψµ correspondent à des fonctions de
classe continues ϕµ ∈ C(G, C)G . Autrement dit, pour chaque U ∈ G, on pose
ϕµ (U ) = sλ (z1 , . . . , zn )/(z1 · · · zn )m
où z1 , ..., zn sont les valeurs propres de U avec multiplicités. Le but de ce paragraphe est de
montrer que les ϕµ sont les caractères des représentations irréductibles continues de G.
Afin de prouver ce résultat, énonçons deux propositions. La première est conséquence du
théorème 5.3.2.1 et du corollaire 5.3.3.2.
Utilisant la définition sλ = aλ+δ /aδ des fonctions de Schur, les dénominateurs aδ se simplifient
avec le produit j<k (eiθj − eiθk ). Il reste
Q
Z 2π Z 2π
1 dθ1 dθn
··· aλ+δ (eiθ1 , . . . , eiθn )aτ +δ (eiθ1 , . . . , eiθn ) ··· .
n! 0 0 2π 2π
On développe ensuite les fonctions aλ+δ et aτ +δ comme des sommes alternées sur le groupe
symétrique, et on conclut par un calcul sans histoire.
203
5.3.4.3 Théorème. Les fonctions ϕµ sont les caractères des représentations irréductibles
continues de G, où µ est une suite décroissante formée de n entiers relatifs.
la somme portant sur des suites finies décroissantes formées de n entiers relatifs. Ainsi
X
χπ = cµ ϕµ .
µ
Le fait 5.3.1.2 nous assure que (χπ , χπ )G = 1. La proposition 5.3.4.2 donne alors µ |cµ |2 = 1,
P
et donc tous les cµ sont nuls, sauf un qui vaut ±1. Ainsi χπ = ±ϕµ . Comme les restrictions à
T de χπ et de ϕµ sont toutes deux données par des polynômes à coefficients positifs, le signe
est +1. Tout caractère irréductible de G est donc un ϕµ .
Si un ϕµ se trouvait oublié dans cette construction, c’est-à-dire n’était pas un caractère ir-
réductible, alors ce serait une fonction de classe continue non-nulle orthogonale à tous les
caractères irréductibles. Cela est impossible, toujours d’après le fait 5.3.1.2.
5.3.4.4 Formule des dimensions de Weyl. Pour toute suite décroissante d’entiers re-
latifs µ = (µ1 , . . . , µn ), le degré de sµ est égal à
Y µi − µj + j − i
.
j−i
1≤i<j≤n
Preuve. La suite µ étant donnée, on choisit une partition λ et un entier m comme au début du
paragraphe 5.3.4. Alors, pour tout t ∈ C∗ non racine de l’unité, le nombre sλ (t0 , t1 , . . . , tn−1 )
s’exprime comme quotient de deux déterminants de Vandermonde. De fait, avec les notations
du paragraphe 5.1.2, on a
aλ+δ (t0 , t1 , . . . , tn−1 ) Y tλj +(n−j) − tλi −(n−i)
sλ (t0 , t1 , . . . , tn−1 ) = = .
aδ (t0 , t1 , . . . , tn−1 ) tn−j − tn−i
1≤i<j≤n
204
5.3.5 Exemples
Un tenseur t ∈ Tn V est dit symétrique s’il est invariant par Sn . On note TSn V l’ensemble
des tenseurs symétriques de degré n sur V ; ainsi TS V = invSn T V . (Les objets TSn V
n n
et Sn V sont très
L proches l’un de l’autre, mais ne sont pas vraiment égaux. Ainsi on notera
que TS(V ) = n≥0 TSn V n’est pas une sous-algèbre de T V (du moins pas pour le produit
usuel), alors qu’au contraire, l’algèbre symétrique S(V ) est un quotient de l’algèbre T V .)
De même, on dira qu’un tenseur t ∈ Tn V est antisymétrique si σ · t = sgn(σ)t pour chaque
permutation σ ∈ Sn . On note TAn V l’ensemble des tenseurs antisymétriques.
205
5.4.1.1 Proposition. Supposons que k soit de caractéristique 0. Alors les éléments de la
forme v ⊗n , pour v ∈ V , engendrent TSn V .
Preuve. On note A le sous-espace vectoriel de EndC (Tp V ) engendré par les éléments de
la forme u⊗p , pour u ∈ EndC (V ). Certainement A ⊆ A. Si cette inclusion était stricte,
A serait inclus dans une hypersurface de A, dont on pourrait écrire une équation ϕ = 0.
Alors {u ∈ EndC (V ) | ϕ(u⊗p ) = 0} serait une hypersurface de degré p de EndC (V ), c’est-
à-dire le lieu des zéros d’un polynôme de degré p, et cette hypersurface contiendrait U(n).
Appliquant la transformation de Cayley (voir le paragraphe 5.3.1.3 (6)), nous obtiendrions une
hypersurface de degré p de EndC (V ) qui contiendrait un ouvert non-vide de l’espace vectoriel
des matrices antihermitiennes. Mais cela n’est pas possible, en vertu du résultat bien connu
suivant : un polynôme P ∈ C[X1 , . . . , Xn ] qui s’annule en tout point d’un ouvert non-vide
de Rn est nul. (Il faut ici remarquer que l’espace des matrices antihermitiennes u(n) est une
forme réelle de EndC (V ), c’est-à-dire que EndC (V ) = u(n) ⊕ iu(n).) Notre hypothèse A ( A
est donc absurde. Ainsi A = A.
Écrivons
EndC (Tp V ) ∼
= (T V ) ⊗C (T V )∗ ∼
p p
= V ⊗p ⊗C (V ∗ )⊗p ∼
p
= (V ⊗C V ∗ )⊗p = T (EndC (V )).
206
Dans cet isomorphisme, EndH (Tp V ) correspond à TSp (EndC (V )). D’après la proposition
5.4.1.1, on a EndH (Tp V ) = A = A.
Par ailleurs, Tp V est un B-module complètement réductible d’après le théorème de Maschke,
donc B est égal à son bicommutant d’après le théorème de densité de Jacobson-Chevalley.
L’égalité A = EndH (Tp V ) signifie que A est le commutant de B dans EndC (Tp V ). On en
déduit que B est le commutant de A, c’est-à-dire que B = EndG (Tp V ).
chacune de ces composantes se décomposant sous forme du produit tensoriel d’un A-module
simple par un B-module simple :
(Tp V )λ ∼
= Vλ ⊗C Sλ .
207
Références
[1] Frank W. Anderson, Kent R. Fuller, Rings and categories of modules, Graduate Texts in
Mathematics, Vol. 13, Springer-Verlag, 1992.
[2] Maurice Auslander, Idun Reiten, Sverre O. Smalø, Representation theory of Artin alge-
bras, Cambridge studies in advanced mathematics, Vol. 36, Cambridge, 1995.
[3] Nicolas Bourbaki, Algèbre. Chapitre 8 : Modules et anneaux semi-simples, Actualités
scientifiques et industrielles, n° 1261, Hermann, 1958.
[4] Richard Brauer, Über die Darstellung von Gruppen in Galoisschen Feldern, Actualités
scientifiques et industrielles, n° 195, Hermann, 1935.
[5] Daniel Bump, Lie groups, Graduate Texts in Mathematics, Vol. 225, Springer-Verlag,
2004.
[6] Charles W. Curtis, Irving Reiner, Representation theory of finite groups and associative
algebras, Pure and Applied Mathematics, Vol. XI, Interscience Publishers (John Wiley &
Sons), 1962.
[7] Charles W. Curtis, Irving Reiner, Methods of representation theory, with applications to
finite groups and orders, Pure and Applied Mathematics, Wiley-Interscience, 1981 (Vol. I)
et 1987 (Vol. II).
[8] Jacques Faraut, Analyse sur les groupes de Lie, Calvage et Mounet, 2006.
[9] William Fulton, Young tableaux. With applications to representation theory and geometry,
London Mathematical Society Student Texts, Vol. 35, Cambridge University Press, 1997.
[10] Roger Godement, Introduction à la théorie des groupes de Lie, Springer-Verlag, 2004.
[11] Nathan Jacobson, Basic algebra II, W. H. Freeman and Company, 1989.
[12] Alexander Kleshchev, Linear and projective representations of symmetric groups, Cam-
bridge Tracts in Mathematics, Vol. 163, Cambridge University Press, 2005.
[13] Ian G. Macdonald, Symmetric functions and Hall polynomials. Second edition, Oxford
Mathematical Monographs, Oxford University Press, 1995.
[14] Rached Mneimné, Frédéric Testard, Introduction à la théorie des groupes de Lie classiques,
Collection Méthodes, Hermann, 1986.
[15] Hirosi Nagao, Yukio Tsushima, Representations of finite groups, Academic Press, 1989.
[16] Jean-Pierre Serre, Représentations linéaires des groupes finis, Hermann, 1967.
[17] Hermann Weyl, The Classical Groups. Their Invariants and Representations, Princeton
University Press, 1939.
209