L’entropie est un paramètre thermodynamique qui mesure le degré d’organisation d’un système. La thermodynamique étudie les processus macroscopiques dans lesquels le transfert de chaleur est traduit en d’autres formes d’énergie, et comment le travail est produit. L’entropie, notée par le symbole S , mesure les micro-états compatibles avec un macro-état thermodynamique à l’équilibre. Le terme entropie vient du grec et signifie transformation. Sa valeur croît dans les processus avec transfert d’énergie, et on dit que l’entropie décrit l’irréversibilité d’un système thermodynamique.
Dans un processus isotherme, dans lequel il n’y a pas de changement de température, le changement d’entropie entre deux états thermodynamiques en équilibre, D S = S 2 – S 1 , est égal au changement de chaleur entre les deux états D Q = Q 2 – Q 1 divisé par la température absolue T.
D S = D Q/T
Le concept d’entropie est venu de l’esprit de Rudolf Clausius dans les années 1850, lorsqu’il a tenté d’expliquer pourquoi l’énergie est toujours perdue lors de la conversion de l’énergie thermique dans les processus thermodynamiques. Clausius a établi le concept de système thermodynamique et postulé que dans tout processus irréversible, une certaine quantité d’énergie est dissipée. Plus tard, entre 1890 et 1900, Ludwing Boltzmann, avec d’autres physiciens, a développé ce que l’on appelle maintenant la physique statistique , redéfinissant l’entropie en l’associant aux micro-états possibles d’un système à l’aide de l’équation suivante.
S = kB ln ( W )
W représente le nombre de micro-états possibles d’un système ; son logarithme népérien multiplié par la constante de Boltzmann kB donne la valeur de l’entropie S d’un système thermodynamique. La valeur de la constante de Boltzmann est 1,38065 × 10 −23 J/K.
La formule précédente exprimait le changement d’entropie entre deux états d’équilibre d’un système thermodynamique et ne définissait pas une valeur d’entropie pour un système. Au lieu de cela, cette formule attribue une valeur absolue à l’entropie d’un système thermodynamique. L’interprétation n’est pas toujours claire, mais on peut dire que l’entropie mesure le désordre des microcomposants d’un macrosystème thermodynamique ; à son tour, ce désordre ou cette agitation est lié à la température du système.
La thermodynamique repose sur quatre principes :
- Le principe zéro stipule que si deux systèmes sont en équilibre thermique avec un troisième système, ils seront également en équilibre thermique l’un avec l’autre.
- Selon le premier principe, un système fermé peut échanger de l’énergie avec son environnement sous forme de travail et de chaleur, accumulant de l’énergie sous forme d’énergie interne.
- La deuxième loi postule que l’entropie de l’univers tend toujours à augmenter. Un postulat alternatif énoncé par Clausius établit qu’un processus dont le seul résultat est le transfert de chaleur d’un corps de température inférieure à un autre de température supérieure n’est pas possible.
- Enfin, la troisième loi de la thermodynamique, telle que postulée par Walther Nernst, dit que la température zéro absolu ne peut pas être atteinte (0 sur les échelles Kelvin ou Rankine).
Sources
- Brissaud JB Les significations de l’entropie . Entropie, 7(1), 68-96, 2005.
- Cuesta, JA Entropy en tant que créateur d’ordre . Journal espagnol de physique, 20(4) 13-19, 2006.