Thermodynamique statistique/Ensembles canoniques et entropie

De testwiki
Aller à la navigation Aller à la recherche

Modèle:Chapitre

Notion d'ensemble statistique

La thermodynamique statistique introduit la notion d'ensemble, destinée à définir rigoureusement les probabilités qui interviennent. Un ensemble statistique regroupe tous les systèmes de même paramètres (par exemple : même énergie, même volume, même température). Il existe, par postulat, une infinité de tels systèmes. On peut alors définir la probabilité d'un évènement en effectuant le rapport du nombre de fois où cet évènement est observé sur le nombre de systèmes.

Par abus de langage, nous dirons parfois qu'un système appartient à un ensemble, pour signifier qu’il en suit les lois statistiques.

Ensemble micro-canonique

Définition

Modèle:Définition

Par isolé, nous entendons d'un système qu’il n'échange avec le milieu extérieur ni énergie, ni particules, ni volume. Cette définition est à la fois très simple, et très éloignée des cas réels.

Entropie micro-canonique

Soient e1,...,eΩ les Ω micro-états possibles pour un système. D'après le postulat d'équipartition, pour tout i, la probabilité d’avoir l'état ei est :

pi=p(ei)=1Ω.

On définit l'entropie au sens de la théorie de l'information, à savoir comme l'entropie de Shannon :

Si=1Ωpilnpi.

En ce qui concerne la thermodynamique, le facteur de proportionnalité est la constante de Boltzmann, notée kB[1], qui donne l'homogénéité à la formule. L'entropie du système est donc :

S=kBipilnpi=kBi=1Ω1Ωln1Ω=+kBlnΩ.

On retrouve ainsi la formule historique, postulée par Boltzmann et gravée sur sa tombe :

Modèle:Définition

On n'accède cependant pas aisément, en pratique, à une quantité comme Ω. En fait, il s'agit d'une quantité qui joue le rôle de la fonction de partition dont nous avons parlé, et qui sera davantage évoquée dans les ensembles statistiques plus complexes. Une manière plus « naturelle » de le retrouver est de poser :

Ω=eS/kB.

Ce que l’on peut encore écrire, en introduisant le « bêta thermodynamique » β=1kBT, relatif à l'énergie thermique d'un système :

Ω=eβTS.

Modèle:Définition

Équilibre micro-canonique

Modèle:Principe

Pour comprendre cela, considérons un exemple : une boîte contient 4 particules, qui peuvent être à gauche (+) ou à droite (-). Les particules sont indiscernables et libres. En vertu du postulat fondamental de la thermodynamique statistique, toutes les combinaisons suivantes ont même probabilité :

  • ++++
  • +++-
  • ++-+
  • +-++
  • -+++
  • ++--
  • +-+-
  • -++-
  • +--+
  • -+-+
  • --++
  • ---+
  • --+-
  • -+--
  • +---
  • ----

Mais comme les particules sont indiscernables, les états (+++-) et (+-++), par exemple, sont équivalents. Il y a donc cinq états « génériques », dont la probabilité (entre parenthèses) est la somme des probabilités de chacun de leur représentant :

  • ++++ (1/16)
  • +++- (4/16)
  • ++-- (6/16)
  • +--- (4/16)
  • ---- (1/16)

L'état d'équilibre thermodynamique au sens de l’ensemble micro-canonique est donc celui qui contient autant de « + » que de « - ». Lorsque le nombre de particules devient grand, la probabilité de l'état d'équilibre s'approche de 1, alors que la probabilité des autres s'approche de 0.

Ensemble canonique

Définition

Modèle:Définition

Fonction de partition canonique

La probabilité qu'un système se présente dans l'état i d'énergie Ei est donnée par la relation :

pi=eβEiZ.

Z est appelée fonction de partition canonique. La somme des probabilités doit égaler l'unité :

ipi=1.

On en déduit la formule générale, que l’on pose en définition :

Modèle:Définition

Cette fonction permet de retrouver des grandeurs thermodynamiques.

Observables macroscopiques

Modèle:Définition

Nous allons pour l'exemple la retrouver dans l’ensemble canonique. En effet :

E=ipiEi=1ZdZdβ

On reconnaît là une dérivée logarithmique, ce qui amène à la formule suivante :

U=dlnZdβ

Le chapitre suivant détaille les autres grandeurs.

Modèle:Bas de page

  1. kB1,3806×1023 JK1.