22
EL CONCEPTO DE ENTROPÍA Leopoldo GARCÍA-COLÍN SCHERER Miembro de El Cokgio Nacional 1. INTRODUCCIÓN No EXISTE posiblemente, dentro del contexto de las ciencias físicas y fisi- coquímicas ningún concepto que haya sido tan usado, abusado y mal in- terpretado como el concepto de entropía. Para un estudioso o conocedor de estas áreas del conocimiento la entropía se le presenta bajo una de las siguientes interpretaciones: i) como una medida de la "dis- ponibilidad" de un sistema de convertir calor en trabajo; cuyo origen proviene de los trabajos de Camot (1824) y Clausius (1854); ii) como una medida del "desorden molecular" que tiene su origen en la interpreta- ción molecular de los fenómenos macroscópicos que exhibe un sistema como un gas, un sólido o un líquido y que surge de los trabajos de Maxwell (1860) y Boltzmann(1872); iii) como una medida de una cantidad que establece la "dirección en el tiempo" que exhiben los procesos naturales y que ahora se denotan como procesos irreversibles. Esa última interpretación proviene de las ideas del propio Boltzmann que recibieron un impulso inusitado a mediados de este siglo. Sin pretender por el momento evaluar cada una de estas interpretaciones, todas son justificables dentro de un contexto perfectamente bien definido, vale la pena también presentar al lector otras afirmaciones sobre la entropía que ilustran las primeras líneas de este párrafo. En un "best selier" escrito hace unos años por un periodista y econo- mista,* se leen las frases siguientes: La entropía es la ley suprema de la naturaleza que gobierna todo cuanto hacemos. La entropía nos dice por qué nuestra concepción actual del mundo está resquebrajándose y qué la reemplazará. La entropía es una medida de las cantidad de energía que ya no es posible convenir en trabajo, 'Entropy, A Neui Worid VUw, Bantam Booka, New York 1981,*par Jerome Rifkin. ' ■. 57

06 - Articulos_ El concepto de entropia_ Por Leopoldo Garcia-Colin Scherer.pdf

Embed Size (px)

Citation preview

Page 1: 06 - Articulos_ El concepto de entropia_ Por Leopoldo Garcia-Colin Scherer.pdf

EL CONCEPTO DE ENTROPÍA

Leopoldo GARCÍA-COLÍN SCHERER Miembro de El Cokgio Nacional

1. INTRODUCCIÓN

N o EXISTE posiblemente, dentro del contexto de las ciencias físicas y fisi­coquímicas ningún concepto que haya sido tan usado, abusado y mal in­terpretado como el concepto de entropía. Para un estudioso o conocedor de estas áreas del conocimiento la entropía se le presenta bajo una de las siguientes in terpre tac iones: i) como una medida de la "dis­ponibilidad" de un sistema de convertir calor en trabajo; cuyo origen proviene de los trabajos de Camot (1824) y Clausius (1854); ii) como una medida del "desorden molecular" que tiene su origen en la interpreta­ción molecular de los fenómenos macroscópicos que exhibe un sistema como un gas, un sólido o un líquido y que surge de los trabajos de Maxwell (1860) y Boltzmann(1872); iii) como una medida de una cantidad que establece la "dirección en el tiempo" que exhiben los procesos naturales y que ahora se denotan como procesos irreversibles. Esa última interpretación proviene de las ideas del propio Boltzmann que recibieron un impulso inusitado a mediados de este siglo. Sin pretender por el momento evaluar cada una de estas interpretaciones, todas son justificables dentro de un contexto perfectamente bien definido, vale la pena también presentar al lector otras afirmaciones sobre la entropía que ilustran las primeras líneas de este párrafo.

En un "best selier" escrito hace unos años por un periodista y econo­mista,* se leen las frases siguientes:

La entropía es la ley suprema de la naturaleza que gobierna todo cuanto hacemos. La entropía nos dice por qué nuestra concepción actual del mundo está resquebrajándose y qué la reemplazará.

La entropía es una medida de las cantidad de energía que ya no es posible convenir en trabajo,

'Entropy, A Neui Worid VUw, Bantam Booka, New York 1981,*par Jerome Rifkin.

' ■. 57

Page 2: 06 - Articulos_ El concepto de entropia_ Por Leopoldo Garcia-Colin Scherer.pdf

Pero no sólo aficionados al uso de términos científicos en connota­ciones estrambóticas pecan de estos abusos. Podemos ilustrar con algunas frases de colegas científicos:

El estado de equilibrio es aquel para el cual la entropía alcanza un máximo. De un notable cosmólogo. Si la entropía aumenta continua­mente durante la expansión cósmica ¿por qué era el estado inicial del universo, uno de baja entropía?

De un premio Nobel: En la evolución hacia la complejidad, la termo­dinámica juega un papel importante a través del concepto básico de en­tropía. . . Hoy en día el interés se desplaza hacia el estudio de sistemas "lejos del equilibrio" que interactúan con sus alrededores a través del "flujo de entropía".

¿Qué entropía? ¿Qué tienen en mente todos estos distinguidos pensa­dores cuando usan a dicho concepto para describir tan variados y comple­jos fenómenos? ¿Existe una definición universal de esta propiedad que permita su uso y su aplicabilidad a tan viariados y diversos aspectos de fenómenos naturales? ¿Cómo se cuantifica esta propiedad? Preguntas como éstas y muchas más que un lector imaginativo pueda plantearse nos llevan, pues, a meditar seriamente sobre lo que realmente sabemos de la propiedad llamada entropía y el cuestionamiento consecuente acerca de su aplicabilidad a tan amplia gama de procesos que ocurren en el mundo y en el universo.

I I . ENTROPÍA; GÉNESIS. MÁQUINAS TÉRMICAS

Lo primero que conviene subrayar en un trabajo de esta nturaleza, es que el origen del concepto de entropía proviene de una interrogante de carácter estrictamente práctico asociado con las llamadas máquinas tér­micas. En su célebre memoria intitulada Reflexiones sobre la potencia mo-triz del calor, publicada en 1824, el célebre ingeniero francés N. Sadi Carnot mostró por primera vez la posibilidad de obtener trabajo mecánico a partir de una máquina operando entre dos cuerpos a tem­peraturas diferentes. En la concepción original de dicha máquina, pre­cursores de los actuales motores de combustión, Carnot imaginaba a una masa fija de una gas, digamos aire, contenida dentro de un recipiente metálico de paredes fijas, excepto la superior que consistía de un pistón, con el cual podía regular la presión y por lo tanto el volumen del gas en el cilindro. Se las ingenió para diseííar un proceso, cuyos detalles in­teresan aquí, mediante el cual al fmal de mismo el gas retornaba a sus condiciones de partida (igual presión y volumen) y ?ue además pudiese realizarse siguiendo una secuencia de pasos bien determinada o la se-

58

Page 3: 06 - Articulos_ El concepto de entropia_ Por Leopoldo Garcia-Colin Scherer.pdf

cuencia inversa. La primera caraterística define lo que se conoce como un proceso cíclico, la segunda lo que define un proceso ideal o reversible. Si durante este proceso cíclico la sustancia con que opera la máquina recibe una cantidad de calor del cuerpo a mayor temperatura y le cede otra can­tidad de calor, menor que la primera, al cuerpo a menor temperatura el principio de conservación de la energía establece que el trabajo neto producido por dicha máquina es igual a la diferencia entre los valores del calor absorbido y el calor cedido por ella.

Esquemáticamente, si en la figura I llamamos R a esta máquina ideal, Tg y Tj a las temperaturas de los cuerpos (Tj >Ti), I Qi I al calor ab­sorbido del cuerpo a la temperatura mayor Tj y - ' Q i ' al calor cedido al cuerpo a la tempertura menor T^, el trabajo neto realizado por R es:

W= IQ^I - IQi! (1)

W = I Q l - I Q , l

Figura 1: Una máquina reversible R extrae una cantidad de calor IQ^I de un cuerpo caliente, a temperatura Tg, convierte parte en trabajo W y transfiere a un cuerpo más frío, a temperatura Tj el calor remanente IQi ' = 'Q?! - W.

Para cuantificar el rendimiento de esta máquina, Carnot definió la eficiencia, como la lógica indica, como el cociente entre la energía que se obtiene, W en este caso y la energía "que cuesta dinero", IQgl en este caso.

59

Page 4: 06 - Articulos_ El concepto de entropia_ Por Leopoldo Garcia-Colin Scherer.pdf

Llamando T[ a esta eficiencia, tenemos que

TI W -. IQil

donde la segunda igualdad se obtiene al substituir W por su valor dado por la ecuación (1). Un principio muy importante en la teoría de las máquinas térmicas llamado después segunda ley de la termodinámica, es que IQJ nunca puede ser cero. Si fuera, sería posible construir una máquina que operando en ciclos no hiciera otra cosa que extraer calor de un cuerpo caliente y convertirlo íntegramente en trabajo (W = iQsl)-Esta máquina, llamada un perpetum motile de segunda clase no existe (a pesar de los múltiples e infructuosos esfuerzos que se han hecho por construirla). Así, pues, la ecuación (2) nos dice que la eficiencia de cualquier máquina ideal, operando entre dos cuerpos solamente, no puede ser, nunca será, del 100% (n < 1).

La segunda aportación brillante de Carnet a este campo, fue el de ar­gumentar que la eficiencia de cualquier máquina ideal R operando entre dos cuerpos a temperaturas diferentes depende sólo de las temperaturas de dichos cuerpos y de ninguna otra variable que pueda intervenir en el proceso. Sin embargo, no dio la demostración matemática de dicha afirmación.

Tocó realmente al eminente físico alemán R. J. E. Clausius, el padre de la termodinámica contemporánea, el llevar a cabo esta demostra­ción. Aunque el trabajo de Clausius, publicado en 1854 (ahora disponible en inglés, ver referencia 11 de la bibliografía) es más complicado de lo que aparece en esta presentación; la idea que introdujo a manera esencialmente de un postulado, es que para una máquina ideal la suma de los cocientes entre el calor que intercambia la máquina con un cuerpo a temperatura dada y la temperatura de dicho cuerpo, es igual a cero. Si aplicamos esta hipótesis a la máquina de Carnot de la figura 1,

obtenemos que, -e-^ - 7 ^ =0 o bien que - r ^ . = -;ír— , T, T, - " " ^ . ^ " M " ^ ,Q^, T,

igualdad que substituida en la ecuación (2) conduce al resultado deseado,

a saber que (3) T,

60

Page 5: 06 - Articulos_ El concepto de entropia_ Por Leopoldo Garcia-Colin Scherer.pdf

La fórmula (3) permite entonces calcular la eficiencia máxima con que cua/^uier máquina térmica puede operar entre dos temperaturas, en­tendido que en la práctica no existen máquinas operando en ciclos ideales o reversibles. Este resultado es uno de los pilares sobre los cuales descansa la ingeniería de máquinas térmicas. Pero los resultados más notables que obtuvo Clausius a partir de su postulado sobrepasan por mu­cho en importancia al contenido de la ecuación (3) para r[. No es este el lugar apropiado para desarrollar en detalle matemáticamente los pasos que llevaron a Clausius a sus conclusiones más importantes; sólo nos contentaremos con presentar las ideas subyacentes de la manera más simple posible (el lector interesado debe consultar la bibliografía).

Vamos a comenzar por repetir que Clausius hizo la afirmación arriba señalada para procesos ideales o reversibles. ¿Qué significa esto? Tome­mos como ejemplo el gas contenido en el cilindro con un pistón movi­ble como tapa superior. Dicho gas (masa constante) posee varios atributos susceptibles de medirse fácilmente como son su presión (p), volumen (V), temperatura (T), etc. De estos atributos, si el gas está formado por moléculas de la misma especie (hidrógeno, nitrógeno, etc.) y es quími­camente inerte, sólo dos son independientes. Esto es una característica que por el momento la tomaremos como empírica, i. e., es consecuencia de la observación. Si ahora fijamos los valores de dos de estas variables, digamos p y V decimos que hemos definido el estado del gas. Má-. aún, si estos valores no cambian con el tiempo, permanecen inmutables, deci­mos que dicho estado es uno de equilibño. Evidentemente, dichos proce­sos sólo son concebibles en nuestra mente, pues en la naturaleza ningún proceso es reversible. De esta abstracción se deriva la denominación .de "proceso ideal". Y es precisamente para estos procesos que Clausius pudo generalizar su hipótesis primitiva y mostrar que la suma de cocientes Q /T para una máquina intercambiando calor con el número arbitrario de cuerpos es cero. De ahí infirió que dicha suma no depende del proceso y que por lo tanto depende sólo del sistema que sufre el proceso, esto es, que como p, V, T, la energía U, etcétera, esa suma es un atributo del sis­tema, atributo que llamó entropía (de tropos, cambio).

De esta manera, si tenemos a un sistema cualquiera que inicialmente se encuentra en un estado de equilibrio que llamaremos A y mediante un proceso reversible lo llevamos a otro estado final, también de equilibrio que llamaremos B, la diferencia entre las entropías de A y B, S(B) - S(A) es igual a la suma de los cocientes del calor transferido entre el sistema y los cuerpos con que intercambia calor en las dife­rentes fases del proceso, y las temperaturas de dichos cuerpos. Es muy importante hacer hincapié en que en todos estos desarrollos, la masa del sistema permanece constante esto es, el sistema es cerrado.

61

Page 6: 06 - Articulos_ El concepto de entropia_ Por Leopoldo Garcia-Colin Scherer.pdf

Utilizando esta definición de entropía, Clausius logró además de­mostrar una serie de proposiciones que a continuación discutiremos. Su­pongamos que tenemos un sistema cerrado y aislado. Este último atributo implica que, si despreciamos la acción producida por la fuerza de la gravedad, el sistema no puede intercambiar ninguna forma de energía con sus alrededores, esto es su energía constante. Si está además confi­nado a un volumen dado, su entropía es función de la energía y el volu­men. Imaginemos el gas del ejemplo anterior rodeado todo con asbestos y el pistón en una posición fija. Clausius mostró que si en un sistema con estas características provocamos un proceso entre dos estados de equi­librio, digamos una expansión o una compresión en el caso del gas, la entropía nunca puede disminuir. Simbólicamente donde U representa

AS= S(estado final, U = cte) - S(estado inicial, U := cte) > O (4) la energía interna y la igualdad se cumple sólo cuando el proceso es ideal. Como un corolario a este resultado se des-prende que si la energía es constante, la entropía tiende a un máximo consistente con el valor de la energía. En el caso del gas al cabo de muchas expansiones sucesivas, hasta la última posible fija por un valor del volumen, digamos Vo

S(U, VQ) es un máximo, (masa = cte)

Sistema aislado

Figura 2: Una masa constante de gas encerrada en un cilindro, cuyo volumen V puede variarse por medio de un pistón intercambia energía con sus alrededores (objetos cercanos que lo rodean) pero el sistema total gas + recipiente + laboratorio es un sistema cerrado y aislado.

62

Page 7: 06 - Articulos_ El concepto de entropia_ Por Leopoldo Garcia-Colin Scherer.pdf

Este resultado es de suma importancia en todos los fenómenos "térmicos" que ocurren en la materia y también es la fuente de una enorme confusión respecto al uso del concepto de entropía (v. gr. ver in­troducción).

Si el sistema es sólo cerrado pero puede intercambiar energía con una porción del universo que lo rodea y que llamamos "alrededores", el resultado expresado por la fórmula (4) sigue siendo válido si se inter­preta correctamente. Imaginemos al gas del cilindro con su pistón colo­cado en una masa de un laboratorio (ver figura 2). Pensemos que para todo propósito práctico sólo la atmósfera (aire y demás objetos) del labo­ratorio forman un sistema cerrado, entonces para todo proceso que ocu­rra en dicho recinto, incluyendo al gas, el cambio de entropía no puede ser negativo. Pero como la entropía es una propiedad aditiva, S otai - Sgas + Saired, Y por consiguiente, podemos escribir que:

CAS)Total - AS), i , , . + (AS)3lred. ^ O (5)

Esta fórmula implica que en estos casos la entropía de uno u otro siste­ma (gas) o alrededores (aire), puede disminuir siempre y cuando el cambio total de la entropía no sea negativo. De nuevo, la igualdad se satisface si los procesos involucrados en estos cambios son ideales. La cul­minación del trabajo de Clausius se encuentra resumida en un párrafo que es un tanto desconcertante y que transcribimos literalmente:

Sí imaginamos la misma cantidad, que en el caso de un solo cuerpo he llamado su entropía, compuesta en una forma consislente para todo el universo tomando en cuenta Codas las condiciones, y si al mismo tiempo usamos el otro concepto, la energía, con su sig-niOcado más simple, podemos formular las leyes fundamentales del universo corres­pondientes a las dos leyes de la teoría mecánica del calor en la forma siguiente:

1. La energía del universo es constante. 2. La entropía del universo tiende a un máximo.

Clausius jamás volvió a escribir sobre el tema y ello planteó varios enigmas. Qué quiso decir con una entropía compuesta en una forma con­sistente. . . tomando en cuenta todas las condiciones, no queda claro ¿pensó que el universo cosmológico es un sistema cerrado y aislado que tiende a un estado final de equilibrio y por tanto su entropía tiende a un máximo? ¿Es esto compatible con las teorías cosmológicas existentes? ¿Es también factible que la masa del universo sea constante para garan­tizar que sea un sistema cerrado? Hasta aquí llega todo lo que podemos

63

Page 8: 06 - Articulos_ El concepto de entropia_ Por Leopoldo Garcia-Colin Scherer.pdf

decir sobre la entropía como se concibe en la termodinámica conven­cional. Inclusive, para el caso de sistemas abiertos, esto es, que pueden intercambiar masa con sus alrededores, es fácil convencerse de que la ecuación (5) es aplicable siempre y cuando el sistema total tenga no sólo energía, sino también masa constante. La entropía es, pues, un atributo de un sistema cuyo valor puede calcularse de acuerdo con su definición operativa cuando, y sólo cuando el sistema se encuentra en un estado de equilibrio. El lector acucioso habrá ya concluido que aun con este arsenal de información, el significado de entropía no es del todo claro. A esto nos abocaremos en la siguiente sección.

III. ENTROPÍA Y DESORGANIZACIÓN

Para todos nosotros es relativamente claro que la temperatura es un atributo inherente a cualquier sistema macroscópico que permita estable­cer una relación de orden, en función de lo que burdamente entendemos por grado relativo de calentamiento. Imaginemos un conjunto arbitrario de cuerpos, un gas (A), un vaso con un líquido (B), un trozo de madera (C), un pedazo de plomo (D), etcétera.

B fL---£i

Gas Líquido Madera

Mediante un termómetro bien calibrado, nosotros podemos ordenar este conjunto de cuerpos a través de una relación > que indique "más ca­liente que". Así, por ejemplo, después de medir sus temperaturas, tendríamos que

A > C = B > D > . . .

esto es, ei gas está "más caliente" que el líquido, tan caliente como la madera pero más que el plomo, etcétera. El poder establecer esta rela-

64

Page 9: 06 - Articulos_ El concepto de entropia_ Por Leopoldo Garcia-Colin Scherer.pdf

■ \

ción de o rden en la natura leza es consecuencia de un ax ioma l l amado la "ley ce ro de la te rmomecánica" , cuya validez está ampl i amen te com­probada p o r el exper imento .

Vamos a h o r a a examina r a lgunas características de los sistemas ter-m o d i n á m i c o s c o m o los incluidos en el con jun to de ar r iba . Está c laro q u e todo sistema en equil ibrio está caracter izado p o r restricciones q u e son geométr icas , esto es, aquel la que define la extensión del sistema, volu­m e n (V), área (A) o longi tud (L); mecánicas que imponen valores dados a variables como la presión (p ) , la tensión ( T ) , el c a m p o eléctr ico ( £ ) , e tcétera y térmicas, q u e imponen valores a variables c o m o la energ ía (U) y la t empera tu ra {T). En un sistema aislado y cerrado, d e sp rec i ando los efectos del campo gravítacional, todas las restricciones afectan a variables extensivas ún i camen te . Estas variables son aquellas tales q u e si pa r t imos ai sistema en n partes, el valor total de la variable es la suma de los va­lores de cada una de esas n par tes . Aquí se clasifican todas las variables geométr icas , la masa o n ú m e r o de part ículas que c o m p o n e n el sistema, la ene rg ía , la po la r izac ión eléctr ica, e t cé t e ra . Y finalmente h a c e m o s no t a r que si en un sistema aislado y ce r rado en un es tado de equil ibrio removemos una restr icción, induc imos un proceso que lleva al sistema a un estado final de equil ibrio con u n a restricción menos de las que tenía in ic i a lmen te (pa ra mayores deta l les consúl tese la b ibl iograf ía) . Estas cons iderac iones p lan tean de i nmed ia to u n a in te r rogan te : ¿Puede o rde­narse la secuencia de cuerpos A, B, C, D, . . . del e jemplo anter ior a tra­vés de una variable que mida su "índice o g rado de restricción"? No te el lector que sí aislamos a todos estos cuerpos de sus a l rededores , la p r egun­ta p lan tea que , de existir este índice , l lamémosle C, t iene q u e ser fun­ción so lamente de las variables extensivas (U, V, N, . . . ) . Resulta q u e la respues ta es afirmativa; m e d i a n t e un s imple e x p e r i m e n t o , es pos ib le cuantificar a C y mostrar* q u e es p rec i samente igual al valor de S pres­crito por Clausius pe ro con signo menos .

S = - C

Si a c e p t a m o s a h o r a la convenc ión de q u e un sis tema es ta rá m á s "organizado" c u a n t o mayor sea el n ú m e r o de rest r icciones q u e le im­p o n g a m o s , la e n t r o p í a S es u n a m e d i d a de la falla de organización o "desorganización" de un sistema macroscópico aislado y cerrado. Cada vez que removamos u n a restr icción en este sistema, induc imos un p roceso q u e al t e rminar deja al sistema en un estado con u n a restricción m,enos

• Ver en parñculu-, referencias (5) y (4) de la bibliograña.

65

Page 10: 06 - Articulos_ El concepto de entropia_ Por Leopoldo Garcia-Colin Scherer.pdf

/•

y por tanto más desorganizado. Puede mostrarse fácilmente que en to­dos estos procesos inducidos el sistema realiza trabajo útil sin afectar su energía y de ahí que suela asociarse a la entropía la connotación de ser una medida de la capacidad del sistema para realizar trabajo. Sin embargo, esta afirmación ya no es válida si el sistema deja de ser un sis­tema aislado.

IV. LA ENTROPÍA DE BOLTZMANN Y EL DESORDEN MOLECULAR

Es un hecho bien conocido para los estudiantes de mecánica que el movimiento de dos cuerpos interactuando a través de la fuerza gravita-cional puede resolverse exactamente. Para tres cuerpos la solución exacta no se conoce, pero sí pueden obtenerse soluciones analíticas o numéricas. Así, hemos podido describir el movimiento de los planetas y sus satéli­tes alrededor del sol, calcular órbitas de satélites artificiales, etcétera. Las ideas de Isaac Newton han dado, pues, grandes frutos. Por lo contra­rio, si nos ponemos a examinar la mecánica de un sistema microscó­pico, por ejemplo una mol de gas a temperatura ambiente, el panorama cambia totalmente. Cualquier intento por calcular las "órbitas" de 10^5 moléculas es poco menos que irrealizable, además de innecesario e inútil. De nada nos serviría esa información para obtener de ella valores de atributos macroscópicos del sistema como su presión o su temperatura. Esta diferencia radical entre ambos problemas fue percibida con toda claridad por J. C. Maxwell y L. Boltzmann, el siglo pasado. Estos dos grandes físicos, junto con Clausius, son considerados los progenitores de la hoy llamada "teoría cinética de la materia".

Lo que Maxwell, y específicamente Boltzmann, hicieron notar, es que para abordar un problema de esta índole, necesariamente hay que recu­rrir a la estadística matemática. Sólo podemos referirnos a los atributos macroscópicos, que por tanto son medibles en el laboratorio, de los siste­mas en cuestión, como valores promedio de ciertas cantidades que reflejan un efecto colectivo de la población del sistema y no de valores indivi­duales. Para mostrar estas ideas hagamos un símil con el bien conocido juego de billar en una mesa (dos dimensiones) de superficie finita. En este juego, las partículas (bolas) interactúan sólo cuando chocan entre sí y con las paredes de la mesa como consecuencia de) golpe que un juga­dor les imprime con el taco. Vamos a imaginar, como lo hizo Boltz­mann, que un gas (1023 moléculas) encerrado en un recipiente cúbico de volumen V se comporta, como en el caso del billar como un enjambre de estas lO^* moléculas que chocan entre sí y contra las paredes como

66

Page 11: 06 - Articulos_ El concepto de entropia_ Por Leopoldo Garcia-Colin Scherer.pdf

bolitas de billar, como consecuencia no del golpe de un taco, sino del hecho que obedecen a las ecuaciones de movimiento de Newton. Si que­remos especificar la posición de cada molécula en cada instante de tiempo necesitamos tres coordenadas de posición (x, y, z) y tres más para espe­cificar su velocidad (Ux, Uy, Uz), en total seis coordenadas. Al espacio de­finido por esta sexteta de números se le llama "espacio fase" y por ser un espacio de seis dimensiones no podemos dibujarlo. Cada punto en este espacio describe el "estado" de una molécula; así que a un instante dado hay 10^^ puntos que describen "trayectorias" en dicho espacio imitando el movimiento de las correspondientes moléculas. Y esto es justamente lo que es imposible además de inútil, calcular. Imaginemos en su lugar que "proyectamos" este espacio de seis dimensiones en un plano, el eje vertical correspondiendo al espacio de velocidades y el horizontal al de posiciones (ver figura 3). Más aún, cada espacio está "acotado", esto es, no cualquier posición ni cualquier velocidad es permisible. En el primer caso sólo aquellas posiciones que corresponden a moléculas dentro del volumen V son permisibles. En el segundo caso, para asegurar que la energía del gas es constante imponemos que la suma de energías de las moléculas, que en este modelo sólo pueden ser energía cinética, sea igual a un cierto valor E*, esto es.

velocidad i-esima celda con energía Ei

V posición -)

E=-imVj2^. Imv2* + ^ ¡ """M

V= constante

N= constante

Figura 3: Proyección bi-dimensional del espacio fase de u n a molécula conceb ida c o m o bola de billar. El eje vertical r epresen ta el espacio de velocidades d e t e r m i n a d o po r te rnas (Vj,_ Vy_ Vj) y el hor izontal , d e configuración, d e t e r m i n a d o po r ternas (x, y, z) ' .

"Usamos E para distinguir la energía mecánica interna U, En este modelo en particular, E=U

67

Page 12: 06 - Articulos_ El concepto de entropia_ Por Leopoldo Garcia-Colin Scherer.pdf

El siguiente paso, señala Boltzmann, consiste en reconocer que sólo conviene examinar las propiedades de conjuntos de moléculas, para lo cual podemos subdividir a dicho espacio en pequeñas celdas de manera que en cada celda haya, a cada instante de tiempo, muchas moléculas, no tantas como N y bastante más que una o dos. A cada celda le asigna­mos una cierta energía E; cuyo valor por el momento no interesa. Aho­ra imaginemos una "instantánea" del sistema en la cual el "número de ocupación" de cada celda está prescrito habiendo, digamos nj moléculas en la celda 1, ng en la celda 2, n; en la i-ésima y así sucesivamente. Claramente,

ni + n2 + ns + . . . + nj + . . . = N (6)

y como la energía es constante

" l e í + n2e2 + ■ • • + njei + . . . = E (7)

Estas dos condiciones establecen claramente que no cualquier conjunto de números de ocupación es permisible. Todos los posibles deben satis­facer las ecuaciones (6) y (7). Pero aun para un conjunto de valores pres­critos para los números de ocupación, hay muchas formas de "acomodar" a las moléculas en las celdas. Dicho número, que no calcularemos aquí, determina lo que llamaremos una "complexión" del sistema. Como, además, hay un sinnúmero de formas de elegir a los "números de ocu­pación" consistentes en las ecuaciones (6) y (7), hay otro tanto número de complexiones. AI total de ellas lo designaremos con la letra Q y lo llamaremos un macroestado del sistema.

Como este macroestado es una suma de todas las posibles comple­xiones definidas por los números de ocupación, sólo podrá depender de E, N y V, esto es, Í2 = í í (E, N, V). Si ahora dejamos que corra "la película del sistema" en el tiempo, el incesante movimiento de las mo­léculas hace que las n's varíen a cada instante de tiempo y por lo tanto Q también cambie con el tiempo. Pero ahora recordemos uno de los resul­tados centrales para la entropía de Clausius: en un sistema aislado (E = cte, V=cte, N=cte) en equilibrio, la entropía tiene un valor máximo. Boltzmann interpretó este resultado en el contexto del modelo aquí des­crito afirmando que en equilibrio, a pesar de que la distribución de moléculas en sus celdas cambia con el tiempo, debe existir una, cuya fre­cuencia de aparición debe ser abrumadoramente mayor que cualquier otra concebible. Dicha distribución que puede calcularse matemáti­camente, se conoce como la distribución de Maxwell-Boltzmann. Su existencia nos sirve aquí para justificar el pustulado básico de Boltzmann,

68

Page 13: 06 - Articulos_ El concepto de entropia_ Por Leopoldo Garcia-Colin Scherer.pdf

a saber que debido a este hecho debe existir una relación funcional en­tre S y Qmax' Simbólicamente

s = f(a^ax) (8) Como S es aditiva y la probabilidad Q es multiplicativa, un pequeño

ejercicio de cálculo permite deducir la celebrada fórmula de Boltzmann:

S = kB In Q^ax (E, N. V) (9)

donde kg es una constante y Q^ax es el macroestado asociado con la dis­tribución más probable de los números de ocupación. A la entropía S, que obviamente depende de E, N y V, se le llama entropía proba-bilística, en contraposición con la definida por Clausius a la que se le denomina "calorimétrica".

El resultado más relevante que se obtiene de la ecuación (9) es que si se aplica a sistemas como gases, sólidos, materiales paramagnéticos y otros sistemas ideales, esto es, sistemas cuya energía total es la suma de las energías de las moléculas individuales como en la ecuación para E, la entropía concuerda con la obtenida por los métodos calorimétricos. La tabla 1 muestra esta concordancia en el caso de algunos gases simples. En el caso de gases con estructura molecular más complicada como lo son el CO, NgO y HgO existe una discrepancia que se manifiesta en que la entropía calorimétrica es mayor que la entropía probabilística. Esta diferencia se ha tomado como una medida de un desarreglo molecular

Tabla 1

GAS IDEAL (25° C ENTROPÍA EN {u e . ) ' K/n í i (o) Y 1 ATM. DE PRESIÓN) CALORIMÉTRICA PROBABILÍSTICA

HCI HBr O Cl N CO NgO H2O

• 1 u e . = ] c a l / m o l - K .

O entropía residual que se acostumbra identificar con aquellos grados de libertad moleculares que no alcanzan su estado de equilibrio a medida

44.50 47.60 49.10 53.32 36.53 47.31 52-58 45.09

44.64 47.48 49.05 53.31 36.42 46.20 51.34 44.28

-0 ~0 ~0 ~0 -0 1.11 1.24 0.81

69

Page 14: 06 - Articulos_ El concepto de entropia_ Por Leopoldo Garcia-Colin Scherer.pdf

que nos acercamos al cero absoluto. A esta entropía residual se le repre­senta por el término k In fií°/

Dado que Q. representa la forma en la cual las moléculas tienen a su disposición diferentes regiones del espacio fase caracterizada por su dis­tribución en las celdas Ei, se ha acuñado el término "desorden molecular" para designar tal característica y por ello a Spi-ob- se le interpreta como una medida del desorden molecular. Sin embargo, esto es un tanto desafortunado, por lo riesgoso que resulta hablar de desorden sin antes haber prescrito lo que se entiende por orden. Volveremos a este punto en la sección VI.

Resumiendo: la entropía es una propiedad operativamente bien de­finida para estados de equilibrio de sistemas aislados y cerrados que es obtenible por métodos calorimétricos haciendo uso de la definición de Clausius y calculable para sistemas ideales usando la fórmula de Boltz-mann. Por ello es un problema elemental calcular esta función para otros estados de equilibrio de sistemas no aislados pero cerrados, y además darle una interpretación más o menos clara a esta función, sea como una medida de la desorganización, o como una medida del des­orden exclusivamente en el contexto de la ecuación (9).

V. ENTROPÍA E IRREVERSIBIUDAD

La pregunta crucial que surge después de una discusión de esta índole y que, además, es la que mayor interés tiene en la actualidad, concierne con la posible conexión entre la entropía y la dirección en que ocurren los procesos naturales. Esta frase, tan simple en principio, contiene, sin embargo, varias sutilezas. Ya hemos repetido varias veces que los proce­sos ideales o reversibles no existen, son abstracciones producto de la mente. Todos los procesos naturales o reales no pasan por una secuencia de estados de equilibrio. ¿Cómo describimos los estados del sistema fue­ra del equilibrio? La termodinámica de Clausius sólo es aplicable a esta­dos de equilibrio. Para entender mejor el problema, analicemos unos cuantos ejemplos:

Imaginemos un trozo de metal "al rojo vivo" pero en equilibrio i. e. su temperatura es constante. En un recipiente aparte tenemos varios litros de agua a temperatura ambiente, también en equilibrio. Ahora arrojamos el meta! caliente al agua fría teniendo cuidado de cerrar el recipiente para evitar pérdidas por evaporación. Al cabo de unos minutos descubri­mos a un sistema formado por el metal y el agua a una temperatura menor que la inicial del metal y mayor que la inicial del agua pero

70

Page 15: 06 - Articulos_ El concepto de entropia_ Por Leopoldo Garcia-Colin Scherer.pdf

finalmente ambos en equilibrio. Todos sabemos que el proceso que ocu­rrió dista mucho de ser "ideal" y además tampoco observamos que el metal se calienta más y el agua a su vez se enfría. La "dirección del proceso" es única. Algo similar ocurre en cualquiera otra situación en la cual dos cuerpos a temperaturas diferentes se ponen en contacto entre sí, el caliente se enfría y el frío se calienta (conducción de calor) hasta al­canzar ambos una temperatura intermedia. Un organismo vivo, nace, crece, se reproduce y muere pero nadie (¡desgraciadamente!) rejuvenece.

En una sola frase, tal parece que la peh'cula del universo observable nunca retrocede. ¿Puede esta característica asociarse al cambio de entro­pía? La respuesta es, muy probablemente no. Cierto, si los estados inicial y final son de equilibrio, el sistema (y sus alrededores cuando mucho) es aislado y cerrado, AS > O pero esta desigualdad no se satisface en otras condiciones.

El primer intento de asociar a la entropía como una medida general de la irreversibilidad, es debida al mismo Boltzmann. Haciendo refe­rencia de nuevo a la figura 3, se propuso estudiar la manera de describir la dinámica (evolución en el tiempo) no de una molécula sino de la fracción de moléculas que digamos, a un tiempo dado t se encuentran en una celda infinitesimal del espacio fase. A esta fracción la denotaremos por f¡, si i es la i-ésima celda. Utilizando argumentos basados en la con­servación del número de partículas (éstas no se crean ni se destruyen) y una hipótesis de carácter estadístico, llamada hipótesis del caos molecu­lar, que asegura un comportamiento estadísticamente independiente de cada molécula en el espacio de configuración y en el de velocidades, logró deducir una ecuación integro-diferencial que gobierna el cambio de dicha función f¡ en el tiempo. Esta ecuación propuesta en 1872 pre­senta, aún hoy en día, grandes retos a los especialistas en física-matemática para dilucidar sus propiedades generales. Para circundar esta dificultad, Boltzmann tuvo otra idea genial; definió una cantidad que llamó H como un promedio del valor del In f¡ sobre todas las posi­bles celdas del espacio fase. Matemáticamente,

H (T) = JJ {\ In fj X volumen i-ésima celda (10) donde j ] representa la operación de sumatoria sobre todas las celdas en el espacio fase. Sin tener que resolver la ecuación que gobierna la evolu­ción del fj con el tiempo y sólo bajo la hipótesis de que la solución existe y varias sumatorias convergen, logró demostrar que H es una función monotónica no creciente del tiempo, esto es,

d H < 0 (11) dt

71

Page 16: 06 - Articulos_ El concepto de entropia_ Por Leopoldo Garcia-Colin Scherer.pdf

Ahora bien, recordemos que en equilibrio existe una fj que es abru-madoramente más probable que cualquier otra. Si se utiliza esta función para evaluar la sumatoria de la ecuación (10), se obtiene "sor­prendentemente", que

S ^ q = - k B H ^ q (12)

esto es, la entropía de equilibrio es igual a menos kg veces el valor de la función H calculada con la distribución f; (de Maxwell-Boltzmann). Este resultado, sólo es válido para sistemas (gases) ideales. Sin embargo, la extrapolación que se ha hecho de esta ecuación (12) es la causante de los muchos y variados abusos que se han perpetrado con el concepto de entropía. En efecto, si la ecuación (12) es válida en equilibrio, por qué no interpretar a S(t), = - kBH(t) como una entropía fuera de equilibrio. La desigualdad de la ecuación (11) se transforma entonces en,

_ d S > 0 (13) dt

que ahora se convertiría en la demostración matemática (molecular) de la segunda ley para sistemas ideales. Pero esto es incorrecto. Las figuras 4 y 5 ilustran claramente la diferencia entre H y S.

En primer lugar H no es un atributo del sistema. Sólo en equilibrio es proporcional a la entropía del gas. La desigualdad (11) implica que H es, en promedio, una función que en efecto pone de manifiesto la "irreversibilidad" de un proceso descrito por la ecuación para fj garanti­zando que después de un cierto tiempo l^, alcanzará su estado de equili­brio. La segunda ley, a la Clausius, que ya no repetiremos aquí [ver ecua­ción (4)] establece que AS > O si los dos estados del gas, en la figura 5 representados por Xj, V; y Xg, Vg donde X representa otra variable como p, T, etcétera, son estados de equihbrio y el gas sufre un proceso real entre ellos. Pero no contiene información de cómo varía S, ni con el tiempo, ni con las variables, todavía no definidas, que pudieran usarse para describir los estados del gas fuera del equilibrio. Así, pues, aun si insistiéramos en identificar H con S a cualquier tiempo t, la ecua­ción (15) sólo nos dice que la entropía es una función monotónica no decreciente del tiempo pero su asociación con los estados del gas sería nebulosa. Para ello tendríamos que conocer el valor de f¡ a cada tiempo t lo cual equivale a resolver la ecuación que satisface y esto nunca se ha lo­grado ni siquiera para un sistema simple, pero real.

72

Page 17: 06 - Articulos_ El concepto de entropia_ Por Leopoldo Garcia-Colin Scherer.pdf

S(VU,V^>S(U,Vj) U=cte.

equilibrio

proceso real

Figura 4: Aquí se muestra cómo la función H, en promedio, es una cantidad que es mono-tónicamente decreciente en el tiem­po. Para un tiempo te característico de cada gas H alcanza su valor de equilibrio, tal que s(«l)._kBH(«l).

Figura 5: En un espacio de estados termo-dinámicos [X (= p, T ) , V] se exhibe gráficamente el significado de la desigual­dad de Clausius: Entre dos estados de equili­brio cualesquiera para un sistema aislado (U-cte.) y cerrado (masa>constante), AS > 0.

Hasta hoy en día, el programa iniciado por Boltzmann para intentar describir cómo se comporta un sistema en un proceso real y cómo de ahí puede obtenerse información acerca de las variables adecuadas para des­cribir estados de no-equilibrio, sigue siendo más un sueño que una rea­lidad. En pocas palabras, si persistimos en visualizar a la entropía como una variable termodinámica o molecular, su aplicación está limitada única y exclusivamente a estados de sistemas en equilibrio. Y sin embar­go, tampoco deja de sorprendernos el hecho de que los ingenieros usan prácticamente todos los resultados de la termodinámica convencional para el diseño de plantas químicas, reactores, cálculo de propiedades, de flujos sub y supersónicos, etcétera, y éstos claramente ¡funcionan! ¿Por qué? Tampoco hemos podido responder a esta interrogante con claridad y precisión.

VI. ENTROPÍA, INFORMACIÓN Y DESORDEN

En 1949 el ingeniero y matemático norteamericano Claude E. Shan-non propuso una estructura conceptual, ahora conocida como teoría de la información, por medio de la cual es posible obtener una interpretación muy clara de por qué se puede asociar el concepto de entropía como una

73

Page 18: 06 - Articulos_ El concepto de entropia_ Por Leopoldo Garcia-Colin Scherer.pdf

medida del desorden molecular. Es también muy factible que sea la in­terpretación de la entropía dentro de esta teoría la que pueda jugar un papel mucho más versátil que su correspondiente versión termodiná­mica. A este punto regresaremos al final de esta sección.

Como hemos mencionado, la idea de Shannon es cuantificar el "desorden". Mas para ello necesitamos primero hablar sobre lo que es orden. Del concepto orden tenemos todos una noción más o menos cua­litativa y si vamos al diccionario encontramos una variedad no despre­ciable de posibles definiciones. Pero es necesario reconocer que orden es un concepto subjetivo. Por ejemplo, la forma de ordenar los libros en una biblioteca puede hacerse por temas generales, por orden alfabético, por casas editoriales, por combinaciones de éstas o por algún otro crite­rio. Y el adoptado será el adecuado para un grupo de personas, pero no necesariamente para otros. Así, pues, es necesario llegar a un acuerdo sobre qué conjunto de reglas significan "orden". Veamos esto con un ejemplo: un niño cuyos padres van a salir, le ordenan permanecer en una sola habitación de su casa hasta su regreso ¡esta es la regla de orden! Obviamente, al salir los padres, el niño no obedece y deambula por toda la casa, de habitación en habitación. Vamos a suponer que el tiempo que permanece en cada habitación es registrable y denotamos por fj la fracción de tiempo que permanece en la j-ésima habitación. Con ello, Shannon puede dar una definición cuantitativa de desorden asociada con una cierta distribución de valores para f:, esto es, si conocemos f], f2,.-. f , n siendo el número total de habitaciones en el ejemplo anterior. Para ello se imponen las siguientes condiciones:

a) La medida del desorden debe estar definida solamente en términos del conjunto {f¡}. ^

b) Si una de las f; es igual a uno, por consiguiente las restantes iguales a cero, el sistema está totalmente ordenado. La medida cuantita­tiva del desorden debe ser, consecuentemente, igual a cero.

c) Si O, es el número total de estados (habitaciones en el ejemplo del niño deambulando por su casa), el desorden máximo deberá corres­ponder a I .

Q. d) El desorden máximo debe ser una función creciente de Q. (siendo

mayor, en nuestro ejemplo para un niño deambulando al azar por una casa grande que por una más pequeña).

e) El desorden debe ser aditivo con respecto a desórdenes parciales. En nuestro ejemplo, tratándose de una casa de varios pisos, si f^ es la frac­ción de tiempo que el niño pasó en el primer piso y D^^^ el desorden de su distribución sobre las habitaciones de dicho nivel, etcétera, entonces.

74

Page 19: 06 - Articulos_ El concepto de entropia_ Por Leopoldo Garcia-Colin Scherer.pdf

Desorden = f<í> X Desorden (^) + f(l) x D< > + . . .

Si estas cinco condiciones se cumplen , la med ida del desorden p u e d e entonces demostrarse que esta dada p o r la fórmula

Desorden = - k X + f j / n fj (14) j

d o n d e k es u n a cons tan te arbi trar ia positiva y la ecuación es unívoca. Cla ramente most rar que

— _ , ¡ — __

si fj = 1, fj-£j = o, el desorden es cero y t ampoco es difícil de-si f] = Í2"^ para toda j entonces ,

Desorden máx imo = + k /n £i (15)

puesto que S f¡ ^ 1.

Volvamos la vista hacia atrás y r eco rdemos que en el caso par t icular de un sistema id t a l (gas) de a c u e r d o con el m o d e l o de Bol tzmann f; r ep re sen ta j u s t a m e n t e la fracción de par t ículas q u e en un m o m e n t o dado se e n c u e n t r a n en la iésima celda. Además , si Q el m a c r o e s t a d o del sistema es la suma total de todas las posibles complexiones disponi­bles de las part ículas del gas en el "espacio fase" (figura 3), la distribu­ción al azar de las par t ículas c o r r e s p o n d e j u s t a m e n t e al valor f = Q"^ para toda i y p o r lo tanto las ecuaciones (9) y (15) son idénticas, si iden­tificamos k en la ecuación (14) con la l lamada cons tante de Bol tzmann kjj. De aqu í un resul tado in teresante ; para un sistema cer rado y aislado la definición probabil ís t ica de Bol tzmann para la en t rop ía c o r r e s p o n d e prec isamente a la m e d i d a cuantitativa del desorden máx imo posible en la dis t r ibución de las par t ículas sobre sus posibles complex iones . A la distribución de partículas en sus celdas de acue rdo con el valor fj = Q"^ se le llama en té rminos técnicos la distr ibución mic rocanón ica y le o torga "probabi l idades de ocupación a priori iguales" a todas las celdas del espa­cio fase. De esta manera ,

(sh) S(prob) _ s(cal.) ^ g

Desorden máximo.

Así, pues, que en efecto la en t rop ía es una medida cuantitativa del de­so rden máx imo para un sistema ideal "aislado" ( a u n q u e la restr icción de ideal p u e d e removerse) es u n a consecuencia directa de la teoría de

75

Page 20: 06 - Articulos_ El concepto de entropia_ Por Leopoldo Garcia-Colin Scherer.pdf

Shannon. Pero observe el lector que la generalización de este resultado a otro tipo de sistemas termodinámicos no es tan trivial aunque, mien­tras sean sistemas en estado de equilibrio, puede hacerse (ver referen­cias 7-9).

En el caso de sistemas "fuera de equilibrio", donde el concepto mismo de estado es un tanto ambiguo y ciertamente no unívoco, el problema ya no es tan simple. A pesar de los esfuerzos que se han hecho, hasta hoy en día todavía no tenemos una generalización de la fórmula (14) que nos permita cuantificar el desorden. Cierto es que la función H defínida en la ecuación (10) se asemeja mucho a ella, pero la f que ahí aparece tendría que determinarse unívocamente de la solución de la ecuación integrodiferencial no lineal, tarea todavía irrealizable, y luego mostrar que esa solución satisface los criterios (a) - (e) a todo tiempo. En ese caso H sería una medida del desorden del gas a todo tiempo, que como ya dijimos coincide con la entropía, cuando el gas alcanza su estado de equilibrio.

Volvemos finalmente a las interrogantes planteadas en la introducción de este trabajo. ¿Es posible aplicar el concepto de entropía a situaciones (o estados) tan variados como los que sugieren tantos autores? La respues­ta, aunque no conclusiva, es por lo menos más objetiva. Si deseamos cuantificar el desorden en un sistema, sea éste un sistema social, económico, biológico, cosmológico o de otra índole, tendremos que ser muy cuidadosos con especificar claramente qué "estados" de estos sistemas deseamos cuantificar. Según el criterio de Shannon esos estados deben especificarse por una distribución de números {fi} que satisfaga las con­diciones (a) - (e). Entonces, la ecuación (14) es aplicable y si deseamos podríamos llamarle entropía a esa medida del desorden. Alternativa­mente, podríamos cuantificar el desorden de acuerdo con otro conjunto de reglas que podría o no ser compatible con la entropía termodinámi­ca. Lo que es inevitable, es poder especificar dichas reglas para cuantificar el desorden. Muy a menudo esto se omite y consecuentemente las afir­maciones que se hacen carecen de sentido. Y vale la pena insistir que el sentir general de los científicos es que si alguna estructura lógica es la más promisoria para medir el desorden, ésa es la de Shannon. Sin em­bargo, para estados de sistemas fuera de equilibrio, su generalización es un problema todavía no resuelto.

76

Page 21: 06 - Articulos_ El concepto de entropia_ Por Leopoldo Garcia-Colin Scherer.pdf

REFERENCIAS

1. García-Colín S. Leopoldo , "Desde la máqu ina d e vapor hasta el ce ro absoluto". Colección "Ciencia desde México" N ú m . 5. F o n d o de Cul tura Económica, México, D. F. 1986.

2. "Y sin embargo , se mueven . . .". Colección "Ciencia desde México" Núm. 36. Fondo de Cul tura Económica, México, D. F., 1987.

3. " In t roducc ión a la t e r m o d i n á m i c a clásica". Editorial Trillas, Mé­xico, D. F., 3a. edición, 1986.

4. "Procesos irreversibles" en La física contemporánea. Las ciencias en el Siglo XX. G u i l l e r m o Agu i l a r , c o m p i l a d o r . U n i v e r s i d a d N a c i o n a l Autónoma de México, México, D. F., 1983. pp. 193-217.

5. "Ciento diez años de teoría cinética de los gases". Revista Mexicana deFísica, Vol. 28 (1982), p . 121.

6. Rosenkranz, R. D. (edi tor) ; E. T. Jaynes: Papers on Probability, Statis-tics and Statislical Physics. Reidel Publ. Co. Dodrecht , Holanda , 1983.

7. Tr ibus , M., The rmos ta t i c s a n d T h e r m o d y n a m i c s . Van N o s t r a n d Co . New York 1961.

8. E. T. Jaynes, "Boltzmann vs. Gíbbs Entropies". American J. of Physics; Vol. 33, 1965, p p . 391-397.

9. Brillouin, L., Science and Information Theory. Academic Press, New York, 2nd . Edi t ion 1962.

10. William H . Cropper , "Rudolf Clausius and Ihe Road to Entropy", American f of Physics, Vol. 54 (1986), pp . 1068-1073.

11. S h a n n o n , C. E. y Weaver, W., Mathematical Theory of Communica­tions. Univ. of Illinois Press, Urbana , 111., 1949.

77

Page 22: 06 - Articulos_ El concepto de entropia_ Por Leopoldo Garcia-Colin Scherer.pdf