martes, 28 de junio de 2011

¿Para qué sirve la entropía?

La entropía, como medida del grado de restricción o como medida del desorden de un sistema, o bien en ingeniería, como concepto auxiliar en los problemas del rendimiento energético de las máquinas, es una de las variables termodinámicas más importantes. Su relación con la teoría del caos le abre un nuevo campo de estudio e investigación a este tan "manoseado" concepto.

La entropía y la energía "gastada".

En el principio enunciado por Clausius que anteriormente citamos, podemos encontrar la relación con la entropía y la energía liberada en un proceso. Pensemos en un motor. El motor necesita de una fuente de energía para poder convertirla en trabajo. Si pensamos en un coche, la gasolina, junto con el sistema de chispa del motor, proporciona la energía (química) de combustión, capaz de hacer que el auto se mueva. ¿qué tiene que ver la entropía aquí?
La energía que el coche "utilizó" para realizar trabajo y moverse, se "gastó", es decir, es energía liberada mediante un proceso químico que ya no es utilizable para que un motor produzca trabajo.
Este es uno de los conceptos más difíciles de entender de la entropía, pues requiere un conocimiento un poco menos trivial del funcionamiento demotores, frigoríficos y el ciclo de Carnot. Pero para nuestros fines con esta explicación es suficiente.

Entropia, procesos reversibles y procesos irreversibles.

Volviendo al ejemplo anterior de la caja con separaciones y canicas, vamos a explicar qué es un proceso reversible y qué un proceso no reversible.
Llamamos proceso reversible al que se puede invertir y dejar a nuestro sistema en las mismas condiciones iniciales. Teniendo en cuenta
nuestra caja ya sin las separaciones, tenemos a las canicas revueltas unas con otras, es decir, sin un orden. Si el proceso que efectuamos de quitar las divisiones fuera reversible, las canicas tendrían que ordenarse espontáneamente en azules, amarillas y rojas, según el orden de las divisiones. Esto no ocurrirá.
El proceso que efectuamos con nuestra caja de canicas fue un proceso no reversible, en donde una vez terminado, el orden que había en las condiciones iniciales del sistema ya nunca volverá a establecerse. El estudio de este tipo de procesos es importante porque en la naturaleza todos los procesos son irreversibles.

La entropía, el desorden y el grado de organización.

Vamos a imaginar que tenemos una caja con tres divisiones; dentro de la caja y en cada división se encuentran tres tipos diferentes de canicas: azules, amarillas y rojas, respectivamente. Las divisiones son movibles así que me decido a quitar la primera de ellas, la que separa a las canicas azules de las amarillas. Lo que estoy haciendo dentro del punto de vista de la entropía es quitar un grado o índice de restricción a mi sistema; antes de que yo quitara la primera división, las canicas se encontraban separadas y ordenadas en colores: en la primera división las azules, en la segunda las amarillas y en la tercera las rojas, estaban restringidas a un cierto orden.
Al quitar la segunda división, estoy quitando también otro grado de restricción. Las canicas se han mezclados unas con otras de tal manera que ahora no las puedo tener ordenas pues las barreras que les restringían han sido quitadas.
La entropía de este sistema ha aumentado al ir quitando las restricciones pues inicialmente había un orden establecido y al final del proceso (el proceso es en este caso el quitar las divisiones de la caja) no existe orden alguno dentro de la caja.
La entropía es en este caso una medida del orden (o desorden) de un sistema o de la falta de grados de restricción; la manera de utilizarla es medirla en nuestro sistema inicial, es decir, antes de remover alguna restricción, y volverla a medir al final del proceso que sufrió el sistema.
Es importante señalar que la entropía no está definida como una cantidad absoluta S (símbolo de la entropía), sino lo que se puede medir es la diferencia entre la entropía inicial de un sistema Si y la entropía final del mismo Sf. No tiene sentido hablar de entropía sino en términos de un cambio en las condiciones de un sistema.

tercera ley de la termodinámica

 En términos simples, la tercera ley indica que la entropía de una sustancia pura y cristalina en el cero absoluto es nula. Por consiguiente, la tercera ley provee de un punto de referencia absoluto para la determinación de la entropía. La entropía relativa a este punto es la entropía absoluta.
Un caso especial se produce en los sistemas con un único estado fundamental, como una estructura cristalina. La entropía de un cristal perfecto definida por el teorema de Nernst es cero (dado que ellog(1) = 0). Sin embargo, esto desestima el hecho de que los cristales reales deben crecer en una temperatura finita y poseer una concentración de equilibrio por defecto. Cuando se enfrían generalmente son incapaces de alcanzar la perfección completa. Esto, por supuesto, se mantiene en la línea de que la entropía tiende siempre a aumentar dado que ningún proceso real es reversible.
Otra aplicación de la tercera ley es con respecto al momento magnético de un material. Los metales paramagnéticos (con un momento aleatorio) se ordenarán a medida de que la temperatura se acerque a 0 K. Se podrían ordenar de manera ferromagnética (todos los momentos paralelos los unos a los otros) o de manera antiferromagnética.