lunes, 17 de junio de 2013

Entropía e información



La entropía tiene también efectos en la información. Las informaciones son comunicadas a través de mensajes que son propagados desde un punto (fuente) a otro (receptor) dentro del sistema social, a través de los canales de comunicación y utilizando diversos medios. Es evidente que las informaciones contenidas en los mensajes pueden sufrir de formaciones, interrupciones o accidentes. Estas eventuales alteraciones del mensaje, durante su transmisión, tienen una gran importancia, porque pueden significar una modificación substancial de la información.
En otras palabras, existe la probabilidad de que el mensaje, durante el proceso de la comunicación, se desorganice, como consecuencia de las condiciones físicas o de otro tipo de su propagación. Como señala Aldunate Phillips.
La transcripción del texto en señales y las señales en texto, a la partida y a la llegada, tienden a deteriorar, a hacer menos informativa la transmisión.



En realidad podemos pensar que la información que proporciona un mensaje al ser transmitido, tiende a disminuir, pero nunca a aumentar.
Es difícil imaginar que durante el proceso de transmisión aumente la información contenida en el mensaje (a menos por, supuesto, que el canal sea múltiple y abierto, es decir, que lleguen a él otras informaciones a medida que avanza la comunicación). En un experimento desarrollado con alumnos graduados en el cual se trató de probar la pérdida de informaciones que sufría un mensaje a través de un canal serial (un tipo de canal en que el mensaje es solamente repetido), se pudo comprobar que de diez informaciones específicas que contenía el mensaje inicial, al llegar éste a su destino, habían desaparecido ocho informaciones (esto aparte de la distorsión). Esta pérdida de información equivale a la entropía.

Ahora bien, la información, como tal, puede considerarse como una disminución de la incertidumbre o del caos, y en este sentido, la información tiende a combatir la entropía; la información es, pues, neguentropía.

Tratemos de probar esto: Drechsler, ha demostrado que un sistema se encuentra en su máxima entropía cuando las probabilidades de pasar de un estado 1 a uno 2, o a uno 3 o a uno N, son las mismas, es decir, cuando:


Por ejemplo, si estamos dentro de una pieza completamente oscura y se nos pide encontrar una moneda que está en el suelo, la probabilidad de que se encuentre en algún punto determinado (una esquina) es igual a la probabilidad de que se encuentre en cualquier otro punto (cerca de la ventana, bajo una mesa, etc.). En efecto, la moneda puede estar en cualquier parte. En ese momento, nos encontramos en un estado de máxima entropía o incertidumbre total: no sabemos qué hacer.

Pero si la moneda al caer al suelo ha sonado, este sonido es una información que recibimos y que nos indica una cierta área del suelo donde podría estar la moneda. Esta información hace variar las probabilidades. Ahora sabemos positivamente que la moneda está cerca de la puerta; por lo tanto, las probabilidades de ese sector aumentan, mientras disminuyen las probabilidades de que la moneda se encuentre en otros sectores; incluso, algunas de éstas se hacen cero (sabemos que no está cerca de la mesa ni cerca de la ventana).


Hemos pasado desde un estado de máxima entropía (de igual distribución de las probabilidades) a un estado con menor entropía (probabilidades desiguales).

En este sentido, podemos suponer la relación:
Información ==> ( - ) Entropía
o bien :
Información ==> Neguentropía

Aún más, la cibernética ha llegado a definir la entropía negativa (o neguentropía) y la información mediante una transición en dos sentidos:

Neguentropía <= => Información

De Beauregard, ha indicado :
Nótese bien que el significado de la palabra 'intormación' no es lo mismo en los dos sentidos.

En la transición directa neguentropía información, esta última significa la adquisición de conocimientos; este es el sentido moderno corriente, y la transición correspondiente parece ser el proceso elemental de o bservación. En la transición recíproca Información - Neguentropía, información significa poder de organizadón: es el antiguo sentido aristotélico, y la transición correspondiente parece indicar el proceso elemental de acción.
De acuerdo con nuestro ejemplo del club de damas, parece ser claro el sentido de la primera transición. Efectivamente, la entropía negativa o neguentropía representa nuevas informaciones sobre estrategias, jugadas, etc. del juego de damas, con el fin de mantener el desequilibrio de conocimiento entre los miembros del club. Este último dispone de energía que puede ser utilizada en las observaciones o el estudio, es decir, en la obtención de informaciones.


Observando la segunda transición (información-neguentropía) tenemos que la información acumulada evita la igualdad o equilibrio del conocimiento, de tal forma que evita la entropía. La información una vez elaborada (nuevas competencias, cursos de capacitación, etc. ), representa una acción organizada tendiente a combatir la entropía positiva del medio.

De Beauregard concluye :
Admitir, como lo hace la cibernética, reciprocidad de la transición neguentropía-información, es admitir ipso Jacto, la equivalencia de los dos significados, el moderno y el aristotélico de la palabra información.

Las relaciones entre información y entropía se resumen en la tabla de la siguiente publicación y fue extraída del artículo de Miller, ya citado previamente. En ella se indica la existencia de una serie de pares de antinomia; un miembro de ellos se asocia con el concepto de información y el otro con el concepto de entropía.

Algunos de estos pares están formados por términos técnicos precisos; otros son palabras de sentido común que pueden ser muy vagas.


Espero haber ayudado en algo. Hasta la próxima oportunidad!
 


No hay comentarios:

Publicar un comentario

       
free counters

Páginas vistas en total según Google