Entropía: Todo lo que necesitas saber

Entropía

Una manera de poder explicar por qué se presenta desorden en algunos procesos naturales es a través de la entropía. Este término se comenzaría a utilizar en referencia a una medida la cual ayuda a contabilizar el desorden en algunos procesos físicos en un sistema molecular, por ello es muy importante su estudio en la termodinámica. Se le asigna la letra S para representarla en fórmulas matemáticas. Esto se hace para calcular cuales son las probabilidades de que ocurra algún tipo de cambio, es decir, que en cualquier sistema termodinámico coexisten en equilibrio diferentes tipos de estados de energía propensos a cambiar. 

Entropía, sin embargo, también es una palabra que hace referencia a otro término,  el cual no está relacionado con la termodinámica. Este vocablo también se utiliza para referirse a la probabilidad de que se reciba una determinada cantidad de mensajes dentro de un sistema de información. Por ello, básicamente si se aplica a informática, termodinámica, química, física e incluso en economía. Todas estas disciplinas comparten la característica de tratar de encontrar un origen, un patrón y una probabilidad de que ocurran cambios en relación a un determinado desorden dentro de un sistema.

A continuación, trataremos de explicar de qué se trata esta teoría de la entropía la cual resulta un poco compleja de explicar. Se ha convertido en un concepto muy importante, sobre todo dentro del estudio de las ciencias como la física, química y sobre todo para la termodinámica. Detallaremos cuales son las semejanzas y las diferencias que hay entre la entropía y la entropía negativa, así como también estableceremos algunos ejemplos útiles que ayudarán a entender mejor

¿Qué es la entropía?

La entropía se define como una magnitud física la cual determina cual es la energía que no puede controlarse y utilizarse para producir trabajo. Es decir, una energía de cualquier índole que posee una parte de ella que se caracteriza por ser desordenada. Esta tendencia al desorden es a lo que se hace referencia cuando se habla de entropía. Esta energía, por lo tanto, no puede ser utilizada por que no puede ser controlada, es difícil predecir con precisión su forma de reaccionar a ciertos estímulos, no puede ser contenida dentro de un sistema o en una materia. La entropía se utiliza para poder distinguir la energía útil de la que no lo es.

Esta palabra tiene su origen etimológico en el antiguo griego, donde se utiliza dos términos los cuales al ser unidos dan como resultado la palabras entropía. El primero de ellos es “em” el cual se traduce como sobre, en o cerca de. Mientras que el segundo es “sqopg” pronunciado como “tropêe” el cual se utilizaba para hacer referencia a algún tipo de cambio, una evolución, una alternativa, un giro o incluso a una mudanza.

Esta magnitud es representada matemáticamente con la letra S y se expresa desde la perspectiva de la probabilidad como su base teórica. Los responsables de su introducción al mundo de la ciencia fueron Rudolf Clausius, desde la teoría, y Ludwig Boltzmann desde las matemáticas. Es un concepto elemental para el estudio de la termodinámica ya que ayuda explicar y medir la energía no utilizable que está contenida dentro de un sistema o en la materia.

Entropía se relaciona con el desorden, por ello al tratar de utilizar un ejemplo se puede tomar a la materia o sustancias que se encuentran en estado líquido que se consideran menos estables en su energía contenida. En comparación  en estado sólido no presentan este mismo desequilibrio. Pero, incluso la entropía puede ser aplicada a otras ramas de las ciencias o del sabe,r cómo es el caso de la informática o de la economía; ya que se refiere a la probabilidad de que sea posible recibir o no un conjunto de mensajes dentro de un sistema de información.

TE PUEDE INTERESAR...

La ecuación de la entropía, la cual ayuda a interpretar estadísticamente la cantidad de energía que no es útil, fue conceptualizadA por Ludwig Boltzmann. Esta ecuación se traduce como la forma de calcular la cantidad de entropía creciente en un sistema; el cual es proporcional al logaritmo del número de posible microestados que pueden sucederse en el sistema.

  • La simbología utilizada indica que la letra S es el Valor de la entropía.
  • Por su parte, la letra K significa la constante de Boltzmann. 
  • A su vez,  el símbolo Ω representa el número de posibles microestados.

Para llegar a esta conclusión, se asume que todos esos estados tienen la misma probabilidad de suceder y por ello se válida en el campo de la termodinámica. Sin embargo, hay que entender que no es posible de forma absoluta encontrar el valor de la entropía de un sistema dado, ya que nada más es relevante que los cambios que suceden. Por ello ,este valor es siempre una aproximación estadística.

Entropía

Historia de la entropía 

La conceptualización de la teoría de la entropía se desarrolló a partir del estudio realizado a los primeros motores de calor que se fabricaron, los cuales se caracterizaban por ser ineficientes en relación a la cantidad de energía útil que estos producían. Es decir, éstos se caracterizaban en mostrar que la energía se disipaba aparentemente de forma aleatoria. Por ello, diversos investigadores especializados en física trataron de encontrar una explicación a esta pérdida de energía, con lo cual eventualmente se llegó a la teoría de la entropía. Por observación, se pudo llegar a la conclusión de que una parte de la cantidad de energía liberada en reacciones de combustión se pierde debido a la fricción y no se transforma en energía utilizable.

Formalmente, el concepto de entropía se introdujo a mediados de la década de 1850, cuando Rudolf Clausius se dio cuenta de que dentro de un sistema termodinámico de un proceso cualquiera, siempre se produce una pequeña cantidad de energía térmica, la cual gradualmente empieza a disiparse hacia la frontera de ese mismo sistema. Si bien, éste fue un primer empujón a lo que posteriormente terminaría siendo probado por otros físicos, él es el responsable de acuñar este término, el cual sigue aplicándose al campo de la química y de la física.  También, encontró aplicación dentro del campo análogo de la pérdida de datos en el caso de un sistema que transmite información.

Posteriormente, están los aportes hechos por Ludwig Boltzmann, los cuales fueron determinantes, sobre todo por la ecuación la cual se utiliza actualmente. Él mismo se daría cuenta de que los átomos son los responsables de asumir un estado que se caracteriza por ser más desordenado y por ello la energía se degrada. Básicamente, ocurre que la entropía representa hacer un parámetro comparable al desorden, en un principio esta teoría no fue del todo aceptada dentro del mundo científico de principios del siglo XX dado a que no se aceptaba crear una medida para el desorden. Sin embargo, las bases de la entropía se sostienen sobre los de la probabilidad en relación a un estado en particular, tomando en consideración el número de formas que se pueden crear partiendo de sus propios átomos.

Entropía negativa

Entendiendo que la entropía es una magnitud, la cual define el nivel de caos que se encuentra presente en un sistema durante un momento determinado. Es así como la entropía negativa en cambio funciona de forma contraria. La entropía se entiende como aquella energía que amenaza con destruir un sistema, pero la entropía negativa funcionará como un mecanismo de autorregulación, dando como resultado que el desorden disminuye, o en cambio se establezca un equilibrio.

La entropía negativa también es conocida con el nombre de neguentropía. La definición más aceptada es la que dicta que se trata una energía, fuerza, procedimiento o un tipo de mecanismo el cual hace que la entropía― es decir el caos― sea eliminada del sistema. La entropía, por naturaleza, amenaza el fin del sistema al cual pertenece ese caos, pero la interrelación de otro sistema hace que se cree una resistencia la cual podría ayudar a disminuir el nivel de entropía. Es entonces cuando se empieza a hablar de la entropía negativa.

La entropía negativa tiene su origen a partir de a mediados del siglo XX, cuando el afamado físico alemán Erwin Schrödinger realizó una importante publicación, la cual influiría no sólo dentro del campo de la biología sino también de la genética y también de la termodinámica. Esta publicación llevó por nombre “What is life?” y es del año de 1945.

En el trabajo antes mencionado, expone el científico su teoría en relación a la vida tal como la conocemos,  la cual responde directamente a las leyes de la termodinámica combinadas con la teoría de la entropía, la cual sin embargo explicaba que funcionaba de una forma más compleja. La sobrevivencia de diversos seres vivos, incluido el ser humano, responde a la interacción de diversos sistemas presentes en la naturaleza, los cuales ayudan a crear mecanismos de conservación y mantenimiento del equilibrio.

Por naturaleza, sucede que la entropía se relaciona a los sistemas no vivos los cuales se caracterizan por el desorden, lo cual hace que pierdan energía útil y por lo tanto movimiento convirtiéndose en masa inerte. En cambio, la entropía negativa se relaciona con los sistemas vivos y funciona como un mecanismo para subsistir, siendo por lo tanto la ayuda que permite estabilizarse, limitando así el caos a límites permisibles ya que no puede desaparecer por completo.

Entropía

Ejemplos de entropía

Un ejemplo clásico utilizado en el estudio de la termodinámica es una determinada cantidad de agua contenida dentro de un vaso en estado líquido, el cual por naturaleza posee mayor cantidad de entropía. En comparación, si esta misma cantidad de agua estuviese en estado sólido, es decir en cubos de hielo, la energía contenida no está desordenada. Se entiende que en cualquier sistema termodinámico, existe en todo momento un equilibrio frágil, en donde coexisten microestados de energía diferentes. Tales microestados, a su vez, son compatibles con el estado en el cual se encuentra el sistema donde se encuentra contenida la energía.

La probabilidad de que haya un cambio es lo que trata de explicarla entropía. Se ha observado que en ocasiones materias que se encuentran a una temperatura superior a otra y adyacente, puede que ocurra dos efectos distintos. El primero es que la temperatura de mayor grado que sea transferida a la materia que posee menor grado de temperatura, en el segundo caso el de menor grado haga que el de mayor grado se enfríe. Incluso hay una tercera posibilidad, la cual consistiría en observar que en una aumente la temperatura y la otra siga disminuyendo, aunque hay que recordar que la temperatura por naturaleza se expande.

En cualquier sistema inicial que sea, éste sufre un cambio considerable en su orden inicial que posteriormente se hace más difícil entender. Igualmente,  se complica establecer ese mismo orden y por lo tanto hay un mayor nivel de entropía. Por lo tanto,  las posibilidades de volver al sistema a ese estado inicial son menores, lo cual quiere decir que los estados irreversibles aumentan la entropía. Se pueden encontrar derechos ejemplos de entropía, como es el caso de romper un objeto el cual ya no puede ser dejado tal cual como estaba al principio.

Cualquier materia, sustancia, proceso o fenómeno natural que sufre algún tipo de cambio sufre un determinado grado de entropía. Por ejemplo, cuando se cocina un alimento, este aumenta su nivel de entropía. Hay muchos fenómenos naturales que se pueden utilizar de ejemplos, como es el caso de un incendio, ya que donde ocurren las características de ese lugar será difícil de recuperar a corto plazo y no será igual. Otro ejemplo sería a formación de las montañas, las sierras y las mesetas y demás formaciones que hacen que sufran cambios en la superficie terrestre, incluyendo las erupciones volcánicas. Otros fenómenos como los rayos, la lluvia y los terremotos también cumplen con estas características.

Deja un comentario