viernes, 20 de noviembre de 2009

Entropía






"La entropía describe lo irreversible de los sistemas termodinámicos. En termodinámica, la entropía (simbolizada como S) es la magnitud física que mide la parte de la energía que no puede utilizarse para producir trabajo. Es una función de estado de carácter extensivo y su valor, en un sistema aislado, crece en el transcurso de un proceso que se dé de forma natural. La palabra entropía procede del griego (ἐντροπία) y significa evolución o transformación. Fue Rudolf Clausius quien le dio nombre y la desarrolló durante la década de 1850." (Wikipedia)

"El concepto básico de entropía en teoría de la información tiene mucho que ver con la incertidumbre que existe en cualquier experimento o señal aleatoria. Es también la cantidad de "ruido" o "desorden" que contiene o libera un sistema. De esta forma, podremos hablar de la cantidad de información que lleva una señal.
Como ejemplo, consideremos algún texto escrito en español, codificado como una cadena de letras, espacios y signos de puntuación (nuestra señal será una cadena de caracteres). Ya que, estadísticamente, algunos caracteres no son muy comunes (por ejemplo, 'y'), mientras otros sí lo son (como la 'a'), la cadena de caracteres no será tan "aleatoria" como podría llegar a ser. Obviamente, no podemos predecir con exactitud cuál será el siguiente carácter en la cadena, y eso la haría aparentemente aleatoria. Pero es la entropía la encargada de medir precisamente esa aleatoriedad, y fue presentada por Shannon en su artículo de 1948 A Mathematical Theory of Communication ("Una teoría matemática de la comunicación", en inglés).
Shannon ofrece una definición de entropía que satisface las siguientes afirmaciones:
  • La medida de información debe ser proporcional (continua). Es decir, el cambio pequeño en una de las probabilidades de aparición de uno de los elementos de la señal debe cambiar poco la entropía.
  • Si todos los elementos de la señal son equiprobables a la hora de aparecer, entonces la entropía será máxima.
Ejemplos de máxima entropía : Suponiendo que estamos a la espera de un texto , por ejemplo un cable con un mensaje .En dicho cable solo se reciben las letras en minúscula de la (a hasta la z) , entonces si el mensaje que nos llega es "qalmnbphijcdgketrsfuvxyzwño" el cual posee una longitud de 27 caracteres , se puede decir que este mensaje llega a nosotros con la máxima entropía (o desorden posible) ya que es poco probable que se pueda pronosticar la entrada de caracteres ya que estos no se repiten y además no están ordenados en una forma predecible." Wikipedia




Entropía. (RAE)

(Del gr. ἐντροπία, vuelta, usado en varios sentidos figurados).

1. f. Fís. Magnitud termodinámica que mide la parte no utilizable de la energía contenida en un sistema.

2. f. Fís. Medida del desorden de un sistema. Una masa de una sustancia con sus moléculas regularmente ordenadas, formando un cristal, tiene entropía mucho menor que la misma sustancia en forma de gas con sus moléculas libres y en pleno desorden.

3. f. Inform. Medida de la incertidumbre existente ante un conjunto de mensajes, de los cuales se va a recibir uno solo.






El tipo que cantaba al revés mientras aumentaba la entropía

Doblemente ingenioso: en la primera parte, el protagonista canta una canción «al revés» con total perfección mientras demuestra realizando «acciones irreversibles» que eso llamado entropía realmente está aumentando.
En la segunda se invierte la flecha temporal y la canción suena «normal» mientras el resto del universo se ve aparentemente abocado a la violación de la segunda ley de la termodinámica (¡inquietante secuencia!)
Me costó un huevo de trabajo poder hacer esto.
declaró el ingenioso artista.

(Microsiervos)


No hay comentarios:

Publicar un comentario