ENTROPÍA

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 7

UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO

FACULTAD DE ESTUDIOS SUPERIORES


CUAUTITLÁN.

PROFESOR: GUILLERMO MARTINEZ MORUA

TERMODINÁMICA

ACTIVIDAD:
“INVESTIGACIÓN ENTROPÍA”

ALUMNA:
MARIANA HUITZILIN LOBERA HERNANDEZ

CARRERA: INGENIERÍA EN ALIMENTOS

GRUPO: 2202
CONCEPTO DE ENTROPÍA
La segunda ley de la termodinámica se expresa
mejor en términos de un cambio en la variable
termodinámica conocida como entropía, que se
representa con el símbolo S. La entropía, como
la energía interna, es una función de estado. Esto
significa que cuando un sistema hace una
transición de un estado a otro, el cambio en la
entropía ΔS es independiente de la trayectoria y
depende únicamente de las variables
termodinámicas de los dos estados. Es una
función de estado de carácter extensivo y su
valor, en un sistema aislado, crece en el transcurso de un proceso que se dé de forma natural. La
entropía describe lo irreversible de los sistemas termodinámicos.

DESIGUALDAD DE CLAUSIUS
La igualdad anterior representa el
Teorema de Clausius y sólo se aplica al
ciclo ideal o ciclo Carnot. Puesto que la
integral representa el cambio neto en la
entropía en un ciclo completo, al ciclo de
motor más eficiente se le atribuye un
cambio de entropía cero. La desigualdad
de Clausius se aplica a cualquier motor de ciclo
real y supone para el ciclo un cambio negativo
de la entropía. Es decir, la entropía dada al
medio ambiente durante el ciclo es más grande
que la entropía transferida por el calor del foco caliente al motor. En el motor térmico simplificado,
donde se añade todo el calor QH a la temperatura TH, entonces para completar el ciclo se añade al
sistema una cantidad de entropía ΔS = QH/TH, que se obtiene del medio ambiente. En general, la
temperatura del motor será menor que TH al menos durante la parte del tiempo en que se está
añadiendo calor, y cualquier diferencia de temperatura supone un proceso irreversible. En cualquier
proceso irreversible se crea un exceso de entropía, y por tanto se debe arrojar más calor al foco frío,
para deshacerse de esta entropía. Esto deja menos energía para realizar trabajo.
Ésta nos dice que la relación existente entre las cantidades de calor Qi que intercambian diversas
fuentes a temperaturas Ti con un sistema determinado en un proceso cíclico o estacionario cumple la
desigualdad:
Si las cantidades de calor son diferenciales y el proceso es cíclico:

La desigualdad nos dice cuánto vale la integral, en general solo nos informa de su signo, pero al
hacerlo nos proporciona un criterio para para clasificar los posibles procesos; si la integral es negativa
el proceso es irreversible, si la integral es nula el proceso es reversible, si la integral es positiva el
proceso es imposible.

CICLO DE CARNOT
El ciclo de Carnot Se define ciclo de Carnot como
un proceso cíclico reversible que utiliza un gas
perfecto, y que consta de dos transformaciones
isotérmicas y dos adiabáticas es un ciclo
termodinámico que se lleva a cabo en una
máquina o equipo que absorbe energía térmica
(calor Q1) desde una fuente de alta (fuente con
una mayor temperatura) y otorga energía térmica
(calor Q2) a una fuente de baja (fuente con menor
temperatura). Todo este flujo de energía tiene
como objetivo producir un trabajo sobre el exterior.

La representación gráfica del ciclo de Carnot en un diagrama p-V es el siguiente:

Tramo A-B isoterma a la temperatura T1

Tramo B-C adiabática

Tramo C-D isoterma a la temperatura T2

Tramo D-A adiabática

Las etapas del ciclo son:


1. Transformación A->B (isoterma)

La presión pB se calcula a partir de la ecuación del gas ideal

Variación de energía interna

Trabajo

Calor

2. Transformación B->C (adiabática)

La ecuación de estado adiabática es o bien, . Se despeja vc de la


ecuación de la adiabática . Conocido vc y T2 se obtiene pc, a partir de la
ecuación del gas ideal. .

Calor

Variación de energía interna

Trabajo

3. Transformación C->D (isoterma)

Variación de energía interna

Trabajo

Calor

4. Transformación D-> A (adiabática)


Se despeja vD de la ecuación de la adiabática . Conocido vD y T2 se obtiene pD, a
partir de la ecuación del gas ideal. .

Calor

Variación de energía interna

Trabajo

PROBABILIDAD DE LA ENTROPÍA
De acuerdo con Boltzmann, la entropía es una función de estado que mide el número de microestados
compatibles con un determinado estado del sistema termodinámico.
S = k ln Ω

donde S es la entropía, k es la constante de Boltzmann (k = 1,38·10-23 J/K) y Ω es el número de


microestados.
En su opinión, por tanto, la entropía indica el número de formas diferentes en las que la energía térmica
del sistema (macroestado) puede ser repartida entre los microestados compatibles. La configuración
más probable de un sistema es la de mayor entropía, o sea, la de mayor número de microestados.
Entropía y desorden. Decir que la entropía mide el desorden de un sistema es engañoso y debe
evitarse. En primer lugar, la entropía se aplica a sistemas de nivel molecular no a casos macroscópicos
como barajas de cartas o habitaciones donde orden y desorden tienen un significado claro. En
segundo lugar, un aumento de entropía en un sistema molecular viene acompañado de un aumento
de los microestados posibles, pero eso no tiene nada que ver con lo que entendemos por orden o
desorden. Por ejemplo, si aumentamos la masa de las partículas de un gas (en las mismas condiciones
de presión, temperatura, ..) se produce un aumento de microestados posibles y, en consecuencia, de
entropía.
Como la entropía es una función de estado, si el sistema pasa de un estado a otro, el cambio de
entropía que experimenta solo depende del número de microestados inicial y final, con independencia
del camino que haya seguido la transformación.
Si el número de microestados final es mayor que el inicial, la
entropía aumenta Si Ωf > Ωi entonces ∆S > 0.

Macroestado: estado de un sistema termodinámico


caracterizado por un valor concreto de variables como cantidad de materia (moles de partículas), T,
H, P, V.
Sin embargo, todos los sistemas termodinámicos están formados por partículas que eventualmente
pueden interaccionar. De esta forma, aunque la energía total del sistema no cambie, sí lo pueden
hacer las energías individuales de sus partículas. Un macroestado puede ser compatible con un
número enorme de microestados, es decir, de disposiciones concretas de las partículas en un instante
dado.
Microestado: cada una de las disposiciones instantáneas de las partículas del sistema compatible con
la energía del macroestado.

ENTROPÍA EN SUSTANCIAS PURAS.


La medida del desorden de un sistema puede ser tratado cuantitativamente en términos de una función
denominada entropía (S). esto se traduce un principio propuesto por Clausius, que indica que cuanto
es mas probable es un estado o mas al azar esta la distribución de moléculas, mayor es la entropía.
La entropía, al igual que la entalpía, es una función de estado. Es decir, depende solamente del estado
del sistema. Por lo tanto, el cambio o variación está determinado por:
ΔS= Sfinal - Sinicial
Los factores que influyen en la cantidad de entropía de un sistema son:
✓ Un líquido tiene una entropía mayor que la del solido del que
procede. Esto se debe a que en los sólidos, los átomos, moléculas
o iones están fijos en una posición; en un líquido estas partículas
son libres para moverse de un lado a otro.

✓ Un gas tiene una entropía mayor que la del liquido del que proviene.
Lo anterior se debe a que cuando ocurre la evaporación las partículas
adquieren mayor libertad para desplazarse.

✓ El aumento de temperatura de una


sustancia aumenta su entropía. Esto se debe a que al
elevar la temperatura aumenta la energía cinética de los
moléculas, átomos o iones, y por lo tanto, su libertad de
movimiento.

Las variaciones de temperatura en un sistema influyen en la entropía de un sistema ya que se


relacionan con la absorción o liberación de calor, razón por la cual, termodinámicamente un cambio
de entropía se define por:
ΔS= q / T
Donde:
q= corresponde al calor transferido en un sistema
T= la temperatura (K) del sistema

BIBLIOGRAFÍAS:
➢ Alvarado P. (2014, 16 noviembre). ENTROPÍA.FISICA FLUIDOS Y TERMODINAMICA.
Recuperado de: https://athanieto.wordpress.com/tematicas/tercer-principio-de-la-
termodinamica/entropia/
➢ Anónimo Ruiz, S. (2015) Teorema de Clausius — Termodinámica 0.1.0 documentation.
Recuperado de:
https://termodinamica.readthedocs.io/en/latest/segundo_principio_clausius.html
➢ Camacho. J.I. (s. f.) EL CICLO DE CARNOT. Recuperado de:
http://www.sc.ehu.es/sbweb/fisica/estadistica/carnot/carnot.htm
➢ Ruiz, S. (2013). ENTROPÍA LUDWIG BOLTZMANN. Recuperado de:
https://www.liceoagb.es/quimigen/termo12.html
➢ Sánchez, M.L. (2011). Entropía en sustancias puras. Scribd. Recuperado de:
https://es.scribd.com/document/478184589/Entropia-en-sustancias-puras

También podría gustarte