entropía
(< gr ἐντροπία ‘volta’)
-
[FÍS]
-
s
f
Magnitude termodinámica que é unha función de estado do sistema, introducida por R. J. E. Clausius. Defínese por S 2 -S 1 =c 2 1 dQ/T, onde S 2 -S 1 é a variación de entropía correspondente a dous estados de equilibrio do sistema, e c 2 1 dQ/T a suma de cocientes das cantidades de calor cedidas ao sistema e a temperatura absoluta á que está o sistema en todos os puntos dun proceso reversible calquera que una o estado 1 co 2. En calquera proceso dun sistema illado, a entropía aumenta ou permanece constante, como establece o segundo principio da termodinámica. Nun proceso reversible, a entropía mantense constante. Nos procesos irreversibles, que son os que teñen lugar nos casos reais, hai sempre un aumento da entropía. Na mecánica estatística, o estado de equilibrio dun sistema illado é de entropía máxima e, así, o aumento de entropía interprétase como a tendencia natural do sistema a pasar dun estado menos probable a un máis probable. A probabilidade termodinámica é o grao de desorde e, así, a entropía é unha medida do grao de desorde molecular que ten o sistema. Exprésase en quilocalorías ou joules/xulios por grao Kelvin.
-
entropía específica
Relación da entropía total dun obxecto, por exemplo un gas, coa dunha partícula determinada que forma parte do mesmo obxecto.
-
s
f
-
s
f
[CIBER]
Magnitude que mide o grao de información non aproveitable que dá unha fonte, segundo o seu número de respostas posibles. Dado un sinal nunha información que se quere transmitir, hai, para cada unha das linguaxes, unha probabilidade de que este sinal sexa seguido por outro determinado. Se para unha fonte ou linguaxe hai N símbolos e cada un ten unha probabilidade p i , a suma dos produtos de cada probabilidade polo seu logaritmo (con signo cambiado) define a entropía da fonte: S=-Σp i log 2 p i . Empregando logaritmos en base dous, tense o valor da entropía en bits.