Théorie des groupes/Représentations complexes des groupes finis, 2

De testwiki
Version datée du 16 novembre 2022 à 23:56 par imported>Zetud (Commutant d'une représentation : Orth.)
(diff) ← Version précédente | Version actuelle (diff) | Version suivante → (diff)
Aller à la navigation Aller à la recherche
Modèle:Chapitre

Commutant d'une représentation

Rappelons que si A est un anneau et X une partie de A, on définit le commutant de X (dans A) comme l'ensemble des éléments de A qui commutent avec tout élément de X pour la multiplication dans A. Le commutant de X dans A est un sous-anneau de A.

Rappelons aussi que si V est un -espace vectoriel, l'ensemble End(V) des -endomorphismes de V, muni de l'addition point par point et de la composition des endomorphismes, est un anneau. Si V est de dimension finie d, End(V) est isomorphe à l'anneau de matrices Md(). Plus précisément, si B désigne une base numérotée de V, l'application de End(V) sur Md() qui à tout élément u de End(V) fait correspondre la matrice de u dans la base B est un isomorphisme d'anneaux.

Modèle:Définition

Modèle:Définition

Remarque. Soit G un groupe fini, soit T une -représentation vectorielle de G, d'espace V, soit U une -représentation matricielle de G. On suppose que T et U se correspondent via une base numérotée B de V. Désignons par d le degré de T et de U, autrement dit la dimension de V. Si σB,V désigne l'isomorphisme d'anneaux de End(V) sur Md() qui à tout élément u de End(V) fait correspondre la matrice de u dans la base B, on montre facilement que le commutant 𝒞(U) de U est égal à σB,V(𝒞(T)).

Modèle:Théorème Démonstration. Supposons f non nul. Il s'agit donc de prouver que

(thèse 1) f est un isomorphisme d'espaces vectoriels.

Pour tout élément v de Ker(f) (noyau de f) et tout élément g de G,

f(S(g)(v)) = T(g) (f(v)) = T(g) (0) = 0,

donc S(g)(v) appartient à ker(f), ce qui montre que ker(f) est un sous-espace de V invariant par S(G). Ce sous-espace n'est pas V tout entier (puisque f est supposé non nul), donc, puisque S est supposée irréductible, ker(f) est nul, c'est-à-dire que

(2) f est injectif.

Prouvons maintenant que f est surjectif. Soit w un élément de Im(f) (image de f). Il existe donc un élément u de V tel que w = f(u). Pour tout élément g de G, nous avons

T(g)(w)=T(g)(f(u))=T(g)f(u)=fS(g)(u),

donc T(g)(w) appartient à Im(f), ce qui montre que le sous-espace Im(f) de W est invariant par T(G). Puisque la représentation T est supposée irréductible, Im(f) est donc nul ou égal à W tout entier. Mais il n'est pas nul (puisque f est supposé non nul), donc il est égal à W, ce qui signifie que f est surjectif. Joint à (2), cela prouve la thèse (1).

Pour un espace vectoriel V, on définira une homothétie de V comme un -endomorphisme f de V possédant la propriété suivante : il existe un scalaire λ tel que, pour tout v dans V, f(v)=λv. On n'exclut pas la valeur λ=0, donc l'endomorphisme nul est une homothétie. Les homothéties de V forment un sous-anneau de End(V). Si V est non nul, ce sous-anneau est un corps isomorphe à .

Modèle:Théorème Démonstration (de routine). Choisissons des -espaces vectoriels V et W de dimensions s et t respectivement, choisissons des bases 𝒱 et 𝒲 de V et W respectivement.
Désignons par S la -représentation vectorielle de G dans V correspondant à la -représentation matricielle σ via la base 𝒱 de V. Donc S fait correspondre à l'élément g de G le -automorphisme de V ayant σ(g) pour matrice dans la base 𝒱 de V.
De même, désignons par T la -représentation vectorielle de G dans W correspondant à la -représentation matricielle τ via la base 𝒲 de W. Donc T fait correspondre à l'élément g de G le -automorphisme de W ayant τ(g) pour matrice dans la base 𝒲 de W.
Désignons par A le -homomorphisme de V dans W qui admet α pour matrice dans les bases 𝒱 et 𝒲 de V et W.
De l'hypothèse

α σ(g)=τ(g) α,

on tire, en passant aux matrices dans les bases 𝒱 et 𝒲,

A S(g) = T(g) A

pour tout g dans G.
Donc, d'après le théorème 1, le -homomorphisme A de V dans W est nul ou est un isomorphisme. Donc la matrice α est nulle ou est une matrice carrée inversible; dans le second cas, la relation

α σ(g)=τ(g) α,

vraie pour tout g dans G, montre que les -représentations matricielles σ et τ sont équivalentes.

Modèle:Théorème Démonstration. On vérifie facilement que toute homothétie de V commute (pour la composition) avec tout élément de End(V) et en particulier avec tout élément de T(G), donc toute homothétie de V appartient au commutant de T.
Réciproquement, soit f un élément du commutant de T et prouvons que f est une homothétie.
Puisque la représentation T est supposée irréductible, V est non nul, ce qui nous dispensera de certaines précautions de langage. Puisque le corps est algébriquement clos, f admet au moins une valeur propre. Choisissons-en une, soit λ. Puisque f et λI (où I désigne l'endomorphisme identité de V) appartiennent au commutant de T, fλI appartient lui aussi au commutant de T. Mais en appliquant le théorème 1 au cas où S et T sont une même -représentation vectorielle irréductible de G, nous trouvons que tout élément du commutant de T est nul ou inversible, donc fλI est nul ou inversible. Il n'est pas inversible, puisque λ est une valeur propre de f, donc il est nul, ce qui revient à dire que f est égal à l'homothétie λI.

Modèle:Théorème Considérer une représentation vectorielle correspondant à U. Les détails sont laissés au lecteur.

Modèle:Théorème Démonstration. Il suffit de le démontrer dans le cas où T est une représentation vectorielle (puisqu'une représentation matricielle et une représentation vectorielle qui se correspondent ont le même degré et sont ensemble irréductibles ou non). Soit alors V l'espace de la représentation T. Puisque G est abélien, T(G) l'est aussi, donc T(G) est contenu dans son commutant (dans End(V)), c'est-à-dire dans le commutant de T. Compte tenu du théorème 2, ce commutant est formé des homothéties, donc pour tout élément g de G, T(g) est une homothétie. Il en résulte que tout sous-espace W de V est invariant par T(G). Puisque T est irréductible, ce n'est possible que si V est de dimension 1, donc T est de degré 1.
Remarque. Nous démontrerons dans la suite du cours, à l'aide de la théorie des caractères, que le théorème 3 admet cette réciproque : si G est un groupe fini dont toute -représentation irréductible est de degré 1, G est abélien.

Théorèmes de Frobenius et de Schur

Les théorèmes faisant l'objet de la présente section serviront dans la théorie des caractères, qui sera exposée dans un chapitre ultérieur.

Modèle:Théorème Démonstration. Prouvons d'abord le point (i).
Posons m=deg(ρ) et n=deg(σ).
Pour toute matrice M à m lignes et n colonnes à coefficients dans , posons

(1) LM=gGρ(g) M σ(g1).

Pour tout élément h de G, nous avons

ρ(h)LM=ρ(h)gGρ(g) M σ(g1)
ρ(h)LM=gGρ(h)ρ(g) M σ(g1)
ρ(h)LM=gGρ(hg) M σ((hg)1)σ(h)
ρ(h)LM=(gGρ(hg) M σ((hg)1))σ(h).

Comme ghg définit une permutation de G, cela peut s'écrire

ρ(h)LM=( gGρ(g) M σ((g)1) ) σ(h)
ρ(h)LM=LM σ(h) pour tout h dans G.

Puisque ρ et σ sont supposées irréductibles et non équivalentes, il résulte donc du cas particulier du lemme de Schur (théorème 1 ci-dessus) que

LM=0,

c'est-à-dire, d'après la définition (1) de LM, que

(2) gGρ(g) M σ(g1)=0

pour toute matrice M à m lignes et n colonnes à coefficients dans . Appliquons cela à la matrice M=Ej,r à m lignes et n colonnes dont le (j, r)-ième coefficient est 1 et dont tous les autres coefficients sont nuls.
Autrement dit,

M=(mj,t)1jm,1tn

avec

mj,t=δj,j

Alors (détails des calculs laissés au lecteur) ρ(g) M σ(g1) est la matrice à m lignes et n colonnes

(bt,t)1tm,1tn

avec bt,t=ρt,j(g) σr,t(g1).
La relation (2) peut donc s'écrire

gGρt,j(g) σr,t(g1)=0

pour tous t, t'', ce qui revient à l'assertion (i) de l'énoncé.

Prouvons maintenant le point (ii) de l'énoncé.
Pour toute matrice M à m lignes et m colonnes à coefficients dans , posons

LM=gGρ(g) M ρ(g1).

Comme dans la démonstration du point (ii), nous avons

ρ(h)LM=LMρ(h) pour tout h dans G,

ce qui revient à dire que LM appartient au commutant de la représentation matricielle ρ.
Puisque cette représentation est supposée irréductible, la matrice LM est donc scalaire (voir théorème 2 bis ci-dessus).
Appliquons ceci au cas où M est la matrice Ej,r à m lignes et m colonnes dont le (j, r)-ième coefficient est 1 et dont tous les autres coefficients sont nuls.
Il existe donc un scalaire λj,r tel que (Im désignant la matrice unité Mn())

LEj,r=λj,rIm,

c'est-à-dire, par définition de LM,

(3) gGρ(g) Ej,r ρ(g1)=λj,rIm.

Comme dans la démonstration du point (i), ρ(g) Ej,r ρ(g1) est la matrice m×m

(bt,t)1t,tm

avec bt,t=ρt,j(g) ρr,t(g1). La relation (3) peut donc s'écrire

gG( ρt,j(g) ρr,t(g1) )1t,tm=λj,rIm.

Cela revient à dire que, pour tous t, t'' dans {1, ... , m},

(4) gGρt,j(g) ρr,t(g1)=λj,rδt,t.

Puisque gg1 définit une permutation de G, cela peut encore s'écrire

gGρt,j(g1) ρr,t(g)=λj,rδt,t

ou encore (puisque le corps \mathbb{C} est commutatif)

(5) gGρr,t(g)ρt,j(g1)=λj,rδt,t.

Par un changement de variables dans (4), on trouve que le premier membre de (5) égale

λt,tδr,j,

donc (5) donne

λj,rδt,t=λt,tδr,j.

En faisant t=t, nous trouvons

(6) λj,r=λt,tδr,j

pour tous r, j, t.
Donc

(7) λj,r=0 si jr.

D'autre part, en faisant r = j dans (6), nous trouvons

λj,j=λt,t pour tout t.

Il existe donc un scalaire λ tel que, pour tout t,

(8) λt,t=λ.

Les relations (7) et (8) donnent

λj,r=λδj,r,

que j et r soient égaux ou distincts. La relation (4) peut donc s'écrire

(9) gGρt,j(g) ρr,t(g1)=λδj,rδt,t.

En faisant r = j et t'' = t, nous trouvons

gGρt,j(g) ρj,t(g1)=λ,

d'où, en sommant sur j,

j=1mgGρt,j(g) ρj,t(g1)=mλ
(10) gGj=1mρt,j(g) ρj,t(g1)=mλ.

Or j=1mρt,j(g) ρj,t(g1) est le (t,t)-ième coefficient de la matrice

ρ(g) ρ(g1)=ρ(1)=Im,

autrement dit

j=1mρt,j(g) ρj,t(g1)=1.

La relation (10) peut donc s'écrire

gG1=mλ,
|G|=mλ,
λ=|G|m.

En tenant compte de ceci, on met (9) sous la forme

gGρt,j(g) ρr,t(g1)=|G|mδj,rδt,t,

ce qui revient à l'assertion (ii) de l'énoncé.

Rappelons qu'on note G le -espace vectoriel libre construit sur l'ensemble G (autrement dit, puisque G est fini, le -espace vectoriel formé par les applications de G dans ) et que cet espace vectoriel est de dimension |G| (voir Représentations complexes des groupes finis, 1).

Modèle:Théorème Démonstration. Soit

(λi,j(s))1sk,1i,jns

une famille de scalaires telle que

(1) s,i,jλi,j(s)ti,j(s)=0 dans G.

Il s'agit de prouver que

(thèse 2) λi,j(s)=0 pour tout s dans {1,...,k} et tous i, j dans {1,...,ns}.

L'hypothèse (1) signifie que, pour tout g dans G,

s,i,jλi,j(s)ti,j(s)(g)=0 dans .

Donc, pour tout s dans {1,...,k}, pour tous i,j dans {1,...,ns} et pour tout g dans G, nous avons

ns ( s,i,jλi,j(s)ti,j(s)(g) ) ti,j(s)(g1)=0,

d'où, en sommant sur gG,

(3) s,i,jλi,j(s)nsgGti,j(s)(g) ti,j(s)(g1)=0.

Si s est distinct de s, alors, par hypothèse de l'énoncé, Ts et Ts ne sont pas équivalentes, donc, d'après le point (i) du théorème 4, nous avons dans ce cas

gGti,j(s)(g) ti,j(s)(g1)=0.

Donc, dans (3), nous pouvons limiter la sommation sur s à l'indice s'. Nous trouvons ainsi

i,jλi,j(s)nsgGti,j(s)(g) ti,j(s)(g1)=0.

D'après le point (ii) du théorème 4, cela peut s'écrire

i,jλi,j(s)δi,jδj,i|G|=0
λj,i(s)|G|=0

d'où

λj,i(s)=0.

Ceci étant vrai pour tout s dans {1,...,k} et pour tous i,j dans {1,...,ns}, notre thèse (2) est démontrée.

Modèle:Théorème Démonstration. Soit k un nombre naturel, soient C1,,Ck différentes classes d'équivalence de -représentations matricielles irréductibles de G. Pour tout s dans {1,...,k}, choisissons une représentation Ts appartenant à la classe Cs.
Les applications ti,j(s) considérées au théorème 5 (où s parcourt {1,...,k} et où i, j parcourent {1,...,ns}) sont en nombre

n12++nk2.

Puisque, d'après le théorème 5, ces applications sont linéairement indépendantes dans le -espace vectoriel G et que, comme rappelé, cet espace vectoriel est de dimension |G|, on a donc

n12++nk2|G|,

d'où (puisque les ns sont non nuls)

k|G|.

Ceci est prouvé pour tout nombre naturel k tel qu'on puisse trouver k différentes classes de -représentations matricielles irréductibles de G. L'énoncé en résulte.

Remarque. La théorie des caractères nous permettra de préciser que k est le nombre des classes de conjugaison d'éléments de G et que n12++nk2=|G|.

Pour obtenir un énoncé analogue au théorème précédent en termes de représentations vectorielles, on ne pourrait pas remplacer simplement le mot « matricielles » par « vectorielles », puisqu'on a évité de définir la classe d'équivalence d'une représentation vectorielle. On pourrait par exemple énoncer :

Modèle:Théorème

Le nombre k dont question ici est évidemment égal au nombre des classes d'équivalence de -représentations matricielles irréductibles de G. On désigne encore k comme « le nombre de -représentations irréductibles non équivalentes de G», sans qu'il soit nécessaire de préciser si on parle de représentations vectorielles ou matricielles.

Notes et références

Modèle:Références

Modèle:Bas de page