Definición de entropía

Artículo revisado y aprobado por nuestro equipo editorial, siguiendo los criterios de redacción y edición de YuBrain.

La entropía (S) es uno de los conceptos centrales de la termodinámica. Se trata de una función de estado que proporciona una medida del desorden de un sistema y también es una medida de la cantidad de energía disipada en forma de calor durante un proceso espontáneo. Los cálculos de entropía son importantes en diferentes campos del conocimiento, desde la física, la química y la biología, hasta ciencias sociales como la economía, las finanzas y la sociología.

Al tener una variedad tan amplia de aplicaciones, no es de extrañar que existan distintos conceptos o definiciones de entropía. Más adelante, se presentan los dos conceptos principales de la entropía: el concepto termodinámico y el concepto estadístico.

Entropía de procesos versus entropía de un sistema

La entropía es una propiedad de los sistemas termodinámicos que en la bibliografía se representa con la letra S. Es una función de estado, lo que significa que es una de las variables que permiten definir el estado en el que se encuentra un sistema. Además, también significa que es una propiedad que solo depende del estado particular en el que se encuentra un sistema, mas no de cómo el sistema llegó a dicho estado.

Esto significa que, al hablar de la entropía de un sistema en determinado estado, lo hacemos de la misma manera como hablaríamos de la temperatura o del volumen del sistema. Sin embargo, también es común calcular el cambio de entropía que se da cuando un sistema pasa desde un estado a otro. Por ejemplo, podemos calcular el cambio de entropía de la vaporización de una muestra de agua, o de la reacción química entre el oxígeno y el hierro para dar óxido férrico. En cualquiera de estos casos hablamos de entropías de procesos, cuando en realidad deberíamos hablar de cambios de entropía asociados a dichos procesos.

En otras palabras, cuando hablamos de la entropía de una muestra de metano gaseoso a 25 °C y 3,0 atmósferas de presión (en cuyo caso estamos describiendo un estado particular de dicho gas), nos referimos a la entropía del sistema, también denominada entropía absoluta o S.

En cambio, cuando hablamos de la entropía de la combustión de una muestra de metan gaseoso a 25 °C y 3,0 atmósferas de presión en presencia de oxígeno para dar dióxido de carbono y agua, estamos hablando de la entropía de un proceso que implica un cambio en el estado del sistema y, por lo tanto, un cambio en la entropía del sistema. En otras palabras, en estos casos nos referimos a una variación de entropía o ΔS.

Al definir la entropía, es indispensable tener claridad de si estamos hablando de S o de ΔS, ya que no son lo mismo. Dicho esto, existen dos conceptos básicos de la entropía: el concepto termodinámico original y el concepto estadístico. Ambos conceptos son igualmente importantes. El primero porque dio a conocer la entropía como una variable indispensable para comprender la espontaneidad de todos los procesos macroscópicos naturales en el universo (en el campo microscópico de la mecánica cuántica las cosas se ponen un poco pantanosas) y el segundo porque nos proporciona una interpretación intuitiva de lo que realmente significa la entropía de un sistema.

Definición termodinámica de entropía (ΔS)

El concepto original de la entropía está asociado a procesos de cambios en un sistema; en ellos, una parte de la energía interna se disipa en forma de calor. Esto es algo que sucede en todo proceso natural o espontáneo y forma la base de la segunda ley de la termodinámica, que es discutiblemente una de las leyes más importantes (y limitantes) en la ciencia.

Consideremos, por ejemplo, el caso de soltar una pelota para dejarla rebotar en el suelo. Cuando sostenemos una pelota a cierta altura, esta posee cierta cantidad de energía potencial. Al soltar la pelota, esta cae, transformando la energía potencial en energía cinética hasta que choca contra el suelo. En ese momento, la energía cinética se vuelve a acumular en forma de energía potencial, esta vez elástica, la cual posteriormente se libera cuando la pelota rebota.

En condiciones ideales se conservaría toda la energía potencial inicial luego del rebote, lo que significaría que la pelota debería rebotar hasta la altura inicial. Sin embargo, incluso si eliminamos el aire por completo (para eliminar la fricción), la experiencia nos dice que la pelota nunca rebota hasta la altura inicial, sino que alcanza una altura cada vez menor tras cada rebote hasta que se queda en el suelo.

Es evidente que los repetidos rebotes de la pelota en el suelo acaban por disipar completamente toda la energía potencial que tenía el objeto al principio de nuestro pequeño experimento. Esto ocurre porque, cada vez que la pelota rebota, le transfiere parte de su energía al suelo en forma de calor, el cual a su vez se disipa aleatoriamente a lo largo del mismo suelo.

En termodinámica, la entropía, o más bien la variación de entropía, se define como el calor liberado o absorbido por un sistema durante una transformación reversible dividido entre la temperatura absoluta. Es decir:

Definición de entropía

Esta definición representa una variación infinitesimal de entropía de un proceso de cualquier tipo llevado a cabo de forma reversible, es decir, de forma infinitamente lenta. Para obtener la entropía de un cambio real y medible debemos integrar esta expresión:

Definición de entropía

Como la entropía es una función de estado, la expresión anterior implica que la variación de entropía de un sistema entre cualquier estado inicial y cualquier estado final la podemos encontrar buscando un camino reversible entre ambos estados e integrando la expresión anterior. Para el caso más sencillo de una transformación isotérmica, la entropía integrada queda:

Definición de entropía

Definición estadística de la entropía (S)

El físico teórico austríaco Ludwig Boltzmann es famoso por sus innumerables aportes a la ciencia, pero principalmente por su interpretación estadística de la entropía. Boltzmann dedujo una relación entre la entropía y la forma en la que se distribuyen las moléculas en distintos niveles de energía a una temperatura determinada. Esta distribución, denominada distribución de Boltzmann, predice que la población de molécula en determinado estado de energía a determinada temperatura disminuye exponencialmente con el nivel de energía del estado. Además, a mayor temperatura, un mayor número de estados de energía serán accesibles.

Estas y otras observaciones adicionales se resumen en la ecuación que hoy lleva su nombre, o sea, la ecuación de Boltzmann:

Definición de entropía

En esta ecuación, S representa la entropía del sistema en un estado particular y W representa el número de microestados del mismo y kB es una constante de proporcionalidad denominada constante de Boltzmann. Estos microestados consisten en las distintas formas como se pueden ordenar los átomos y moléculas que conforman el sistema manteniendo la energía total del mismo constante.

El número de microestados tradicionalmente se asocia con el nivel de desorden de un sistema. Para comprender por qué, consideremos una gaveta donde guardamos un gran número de calcetines. El color de los calcetines lo podemos asociar al nivel de energía en el que estos se encuentran. Así, la distribución de Boltzmann predice que, a temperaturas suficientemente bajas, prácticamente todos los calcetines serán de un solo color (el correspondiente al menor estado de energía). En este caso, no importa cómo ordenemos los calcetines, el resultado siempre será el mismo (ya que todos son iguales). por lo que solo habrá un microestado (W = 1).

Sin embargo, a medida que aumentamos la temperatura, algunos de estos calcetines cambiarán a un segundo color. Incluso si solo un par de calcetines cambia de color (asciende al segundo estado de energía), el hecho de que cualquiera de los calcetines puede ser el que cambie de color hace que puedan existir muchos microestados diferentes. Mientras mayor es la temperatura y se comienzan a poblar un mayor número de estados, aparecen más y más colores de calcetines en la gaveta, aumentando enormemente el número de posibles microestados, lo que a su vez hace que la gaveta parezca un desastre desordenado.

Como la ecuación anterior predice que la entropía aumenta a medida que aumentan el número de microestados, es decir, a medida que el sistema se desordena, entonces la ecuación de Boltzmann define a la entropía como una medida del desorden de un sistema.

Unidades de la entropía

En función a cualquiera de las dos definiciones presentadas, se puede determinar que la entropía tiene unidades de energía sobre temperatura. Es decir,

Definición de entropía

Dependiendo del sistema de unidades en el que se trabaje, estas unidades pueden ser:

Sistema de unidadesUnidades de entropía
Sistema InternacionalJ/K
Unidades fundamentales del sistema métricom2.kg/(s2.K)
Sistema ImperialBTU/°R
Caloríascal/K
Otras unidadeskJ/K, kcal/K

Referencias

Atkins, P., & de Paula, J. (2010). Atkins. Química física (8.a ed.). Editorial Médica Panamericana.

Boghiu, C. E. (2018, 5 febrero). Información y entropía, un acercamiento probabilístico. Asociación Nacional de Estudiantes de Física. https://nusgrem.es/informacion-entropia-probabilidad/

Chang, R. (2002). Fisicoquimica (1.a ed.). MCGRAW HILL EDDUCATION.

Chang, R., Manzo, Á. R., López, P. S., & Herranz, Z. R. (2020). Química (10.a ed.). McGraw-Hill Education.

Connor, N. (2020, 14 enero). ¿Qué es la unidad de entropía? Definición. Thermal Engineering. https://www.thermal-engineering.org/es/que-es-la-unidad-de-entropia-definicion/

Liceo AGB. (s. f.). ENTROPÍA – LUDWIG BOLTZMANN. Liceoagb.es. https://www.liceoagb.es/quimigen/termo12.html

VEIASA. (s. f.). Unidades derivadas – Termodinámica. Verificaciones Industriales de Andalucía, S.A. https://www.veiasa.es/metrologia/utilidades/unidades_derivadas/termodinamica

Israel Parada (Licentiate,Professor ULA)
Israel Parada (Licentiate,Professor ULA)
(Licenciado en Química) - AUTOR. Profesor universitario de Química. Divulgador científico.

Artículos relacionados