Mostrando entradas con la etiqueta Entropía y neguentropía. Mostrar todas las entradas
Mostrando entradas con la etiqueta Entropía y neguentropía. Mostrar todas las entradas

lunes, 17 de junio de 2013

Información y organización



Hemos indicado anteriormente que, mientras la entropía es una medida de desorden, la información es una medida de organización . Esto quiere significar que si comenzamos a obtener informaciones referentes a algunos hechos desordenados y al azar, es posible que comencemos a encontrar ciertas relaciones y que finalmente, podamos estructurar un modelo que nos describa la conducta de esos eventos.


Información (H)VersusEntropía (S)
InformaciónH = - SIncenidumbre
NeguentropíaEntropía
SeñalRuido
PrecisiónError
FormaCaos
RegularidadAzar
Modelo o formaFalta de modelo o forma
OrdenDesorden
OrganizaciónDesorganización
Complejidad RegularSimplicidad Regular
HeterogeneidadHomogeneidad
Improbalidad (una sola alternativa describe correctamente la forma)Probabilidad (más de una alternativa describe correctamente la forma)

March y Simon, señalan que la capacidad de una organización para mantener un modelo de actividad altamente complejo e interdependiente se encuentra limitada, en parte, por su capacidad para manejar y elaborar la comunicación requerida para la coordinación. Ellos plantean la siguiente hipótesis:
Mientras mayor sea la eficiencia de la comunicación (... ) dentro de la organización, mayor será la tolerancia hacia la interdependencia (... ).

Un sistema social implica una restricción de las comunicaciones entre sus miembros. Si tomamos un grupo desorganizado, sesenta personas por ejemplo, comunicándose al azar dentro de una pieza grande, el número potencial de canales de comunicaciónes 1770. Si ellos se encontraran organizados en una red de doce combinaciones de cinco personas, de modo que cada personas de cada grupo de cinco tuviera un papel claramente definido y fuera interdependiente de las otras cuatro, el número de canales dentro del grupo de trabajo sería reducido a diez.

Por otra parte, Katz y Kahn señalan enfáticamente que "moverse de un estado desorganizado a uno organizado requiere la introducción de restricciones para reducir lo difuso y la comunicación al azar". Se canaliza la información con el fin de cumplir con los objetivos de la organización. En términos de la teorías de la información, la comunicación libre, sin restricción, produce ruido dentro del sistema, "Sin un modelo, sin pensar, sin precisión, existe un sonido pero no música. Sin estructura, sin ritmo, sin especificaciones, existe una Torre de Babel de lenguas e idiomas, pero no existe un sentido".

Thelen resume de la siguiente manera la contribución de Ashby en relación al problema de la selectividad en la comunicación:

Cualquier sistema viviente es una asociación infinitamente compleja de subsistemas.
El complejo suprasistema posee todas las propiedades de un sistema además de comunicaciones a través de las fronteras de los subsistemas. El brillante tratamiento de Ashby muestra que la estabilidad del suprasistema tomaría un tiempo infinítivamente extenso para ser lograda si existieran "comunicaciones completas y ricas" entre los subsistemas, porque, en realidad, todas las variables de todos los subsistemas tendrían que ser satisfechas de inmediato, un suceso totalmente improbable. Si se restringiera la comunicación entre los subsistemas, o si éstos fueran temporalmente aislados, entonces cada subsistema lograría su propia estabilidad con un mínimo de interferencia del medio en cambio de los otros subsistemas que buscan estabilidad.
Con comunicaciones restringidas y limitadas es posible acumular éxito (por ejemplo, a través de pruebas y aproximaciones sucesivas) mientras que en el suprasistema individual el éxito es el resultado de una acción que involucra todo o nada... Así, la forma a través de la cual se mueve el sistema total hacia su equilibrio depende mucho de las correcciones funcionales entre sus partes. La adaptación de todo el sistema hace uso de dos condiciones: corrección suficiente, de modo que la operación de un subsistema pueda activar a otro, con el fin de que las contribuciones de todos puedan contribuir al total; y suficiente separación entre los subsistemas, para que sea posible alguna especialización de funciones y que el sistema como un todo pueda aproximarse hacia ese "equilibrio". Pero, jamás un suprasistema tendrá un equilibrio en todos sus subsistemas en el mismo momento.
Cada subsistema tiene un "poder de veto" sobre el equilibrio de otro subsistema y, bajo una variedad de condiciones, un subsistema puede dominar a otro.


Lo que hemos señalado en estos últimos párrafos significa que, para que el sistema pueda operar dentro de cierto equilibrio, es necesario una limitación de las comunicaciones, es decir, que los sistemas sociales deben poseer una red selectiva de comunicación.

Sin embargo, esto parece estar en cierta contradicción con lo señalado anteriormente en relación a la entropía y la información. Se decía que a medida que aumentaba la información (y por lo tanto la neguentropía) aumentaba la organización. Pero, por otra parte, un exceso de información parece limitar o disminuir la efectividad de la organización. En efecto, el sistema social posee una capacidad limitada para elaborar la información. En otras palabras, una corriente de entrada de información superior a la capacidad de elaboración que posee el sistema, disminuye la habilidad de éste para operar en su medio; en efecto, puede actuar como una fuerza de entropía positiva.

La información fluye hacia la organización desde diferentes fuentes.
Una de ellas es el flujo de transacciones entre la organización y parte de su medio ambiente (por ejemplo, las informaciones sobre el mercado).
Otra fuente es la información generada por los miembros de la organización. Surgen numerosos problemas para la obtención de la información desde las fuentes hasta los receptors. En cada uno de estos centros receptores existe la tendencia a revisar, consciente o inconscientemente, la información antes de transmitirla a la unidad siguiente. Por lo tanto, la información es "filtrada" en cada centro receptor.

Un exceso de información en estos centros tiende a aumentar el trabajo de elaboración de esa información y a incrementar los ruidos de los canales. Esta sobrecarga en los canales conduce a omisión, error, dilatación, filtración, aproximación y escape. Todos ellos son formas de entropía, es decir, tienden a crear el desorden o la desorganización.


Espero haber ayudado en algo. Hasta la próxima oportunidad!



Entropía e información



La entropía tiene también efectos en la información. Las informaciones son comunicadas a través de mensajes que son propagados desde un punto (fuente) a otro (receptor) dentro del sistema social, a través de los canales de comunicación y utilizando diversos medios. Es evidente que las informaciones contenidas en los mensajes pueden sufrir de formaciones, interrupciones o accidentes. Estas eventuales alteraciones del mensaje, durante su transmisión, tienen una gran importancia, porque pueden significar una modificación substancial de la información.
En otras palabras, existe la probabilidad de que el mensaje, durante el proceso de la comunicación, se desorganice, como consecuencia de las condiciones físicas o de otro tipo de su propagación. Como señala Aldunate Phillips.
La transcripción del texto en señales y las señales en texto, a la partida y a la llegada, tienden a deteriorar, a hacer menos informativa la transmisión.



En realidad podemos pensar que la información que proporciona un mensaje al ser transmitido, tiende a disminuir, pero nunca a aumentar.
Es difícil imaginar que durante el proceso de transmisión aumente la información contenida en el mensaje (a menos por, supuesto, que el canal sea múltiple y abierto, es decir, que lleguen a él otras informaciones a medida que avanza la comunicación). En un experimento desarrollado con alumnos graduados en el cual se trató de probar la pérdida de informaciones que sufría un mensaje a través de un canal serial (un tipo de canal en que el mensaje es solamente repetido), se pudo comprobar que de diez informaciones específicas que contenía el mensaje inicial, al llegar éste a su destino, habían desaparecido ocho informaciones (esto aparte de la distorsión). Esta pérdida de información equivale a la entropía.

Ahora bien, la información, como tal, puede considerarse como una disminución de la incertidumbre o del caos, y en este sentido, la información tiende a combatir la entropía; la información es, pues, neguentropía.

Tratemos de probar esto: Drechsler, ha demostrado que un sistema se encuentra en su máxima entropía cuando las probabilidades de pasar de un estado 1 a uno 2, o a uno 3 o a uno N, son las mismas, es decir, cuando:


Por ejemplo, si estamos dentro de una pieza completamente oscura y se nos pide encontrar una moneda que está en el suelo, la probabilidad de que se encuentre en algún punto determinado (una esquina) es igual a la probabilidad de que se encuentre en cualquier otro punto (cerca de la ventana, bajo una mesa, etc.). En efecto, la moneda puede estar en cualquier parte. En ese momento, nos encontramos en un estado de máxima entropía o incertidumbre total: no sabemos qué hacer.

Pero si la moneda al caer al suelo ha sonado, este sonido es una información que recibimos y que nos indica una cierta área del suelo donde podría estar la moneda. Esta información hace variar las probabilidades. Ahora sabemos positivamente que la moneda está cerca de la puerta; por lo tanto, las probabilidades de ese sector aumentan, mientras disminuyen las probabilidades de que la moneda se encuentre en otros sectores; incluso, algunas de éstas se hacen cero (sabemos que no está cerca de la mesa ni cerca de la ventana).


Hemos pasado desde un estado de máxima entropía (de igual distribución de las probabilidades) a un estado con menor entropía (probabilidades desiguales).

En este sentido, podemos suponer la relación:
Información ==> ( - ) Entropía
o bien :
Información ==> Neguentropía

Aún más, la cibernética ha llegado a definir la entropía negativa (o neguentropía) y la información mediante una transición en dos sentidos:

Neguentropía <= => Información

De Beauregard, ha indicado :
Nótese bien que el significado de la palabra 'intormación' no es lo mismo en los dos sentidos.

En la transición directa neguentropía información, esta última significa la adquisición de conocimientos; este es el sentido moderno corriente, y la transición correspondiente parece ser el proceso elemental de o bservación. En la transición recíproca Información - Neguentropía, información significa poder de organizadón: es el antiguo sentido aristotélico, y la transición correspondiente parece indicar el proceso elemental de acción.
De acuerdo con nuestro ejemplo del club de damas, parece ser claro el sentido de la primera transición. Efectivamente, la entropía negativa o neguentropía representa nuevas informaciones sobre estrategias, jugadas, etc. del juego de damas, con el fin de mantener el desequilibrio de conocimiento entre los miembros del club. Este último dispone de energía que puede ser utilizada en las observaciones o el estudio, es decir, en la obtención de informaciones.


Observando la segunda transición (información-neguentropía) tenemos que la información acumulada evita la igualdad o equilibrio del conocimiento, de tal forma que evita la entropía. La información una vez elaborada (nuevas competencias, cursos de capacitación, etc. ), representa una acción organizada tendiente a combatir la entropía positiva del medio.

De Beauregard concluye :
Admitir, como lo hace la cibernética, reciprocidad de la transición neguentropía-información, es admitir ipso Jacto, la equivalencia de los dos significados, el moderno y el aristotélico de la palabra información.

Las relaciones entre información y entropía se resumen en la tabla de la siguiente publicación y fue extraída del artículo de Miller, ya citado previamente. En ella se indica la existencia de una serie de pares de antinomia; un miembro de ellos se asocia con el concepto de información y el otro con el concepto de entropía.

Algunos de estos pares están formados por términos técnicos precisos; otros son palabras de sentido común que pueden ser muy vagas.


Espero haber ayudado en algo. Hasta la próxima oportunidad!
 


La generación de la neguentropía



Hemos señalado ya, como una diferencia entre los sistemas abiertos y los cerrados, que los primeros intercambian energía con su medio. Esquemáticamente de acuerdo con las descripciones del capítulo III, un sistema abierto puede presentarse como aquel que importa energía (corriente de entrada ), transforma esa energía (proceso de transformación) y luego exporta al medio esa nueva energía. Con el producto de esa exportación, el sistema está en condiciones de obtener nuevamente sus corrientes de entrada necesarias para llevar a cabo el proceso de transformación que lo caracteriza y diferencia del resto de los sistemas. La siguiente imagen señala este proceso.


Así, E2 tiene que ser capaz de generar E1 (en que E1 es la energía de entrada y E2 es la energía de salida).

Ahora bien, el sistema abierto puede almacenar energía, es decir, no toda la energía (E1) debe ser utilizada en la transformación ( T). Supongamos que E' 1 es la energía destinada al proceso de transformación propiamente tal y E' ' 1 es un saldo. Entonces:

E1 = E' 1 + E' ' 1

o

E1 - E' 1 = E' ' 1

E' ' 1 representa entonces una cantidad de energía no utilizada en el proceso de transformación o de elaboración del producto particular del sistema. Es una energía que permanece (o se acumula) dentro del sistema y es justamente este E' 1 el que sirve de base para la creación de la neguentropía o entropía negativa.

Observemos a continuación un ejemplo en que se ilustra la acción de la entropía y la neguentropía en un sistema social.

Supongamos que un grupo de personas aficionadas al juego de damas deciden formar un club de damas. Para esto se reúnen, se organizan, establecen ciertas responsabilidades que deben cumplir tanto los directivos como los socios, fijan las cuotas, etc. Este club es un sistema social abierto. Recibe una corriente de entrada consistente en dinero (las cuotas) y en todos los recursos necesarios para mantener el club en funcionamiento. El proceso de conversión o de transformación está constituido por el juego mismo (los campeonatos) y la corriente de salida es la satisfacción que el club entrega a cada uno de los miembros. Una buena corriente de salida servirá para mantener una corriente de entrada adecuada en forma constante, permitiendo así al club subsistir sin grandes apremios.

Ahora bien, para lograr esta corriente de salida se lleva a cabo el proceso de transformación que, como indicábamos más arriba, son los partidos o juegos de damas. Para que este proceso opere, es necesario que exista una diferencia entre las capacidades de juego y el conocimiento entre los diversos miembros. Al existir esta diferencia (unos jugadores son mejores que otros) se produce un incentivo para jugar y así aumentar el grado de satisfacción de los socios. En otras palabras, un requisito básico para el funcionamiento de este sistema (y en general para cualquier sistema competitivo) es el desequilibrio en el conocimiento que los miembros del club poseen sobre las damas. Supóngase ahora que nuestro club debe enfrentarse con un club extranjero. Para ello deben viajar a ese país y lo hacen por avión; éste cae en una isla solitaria, salvándose solamente los miembros del club. La isla es un paraíso y no existen problemas de alimentación y abrigo.
Sin otra cosa que hacer, nuestros personajes pasan todo el día jugando damas. ¿Qué podría suceder al cabo de un tiempo?

Simplemente que comienza a equilibrarse el conocimiento. Las diferencias que antes existían entre los diversos jugadores se van haciendo cada vez más pequeñas y puede llegar un momento en que todos juegan de una misma manera. Al llegar a este punto, lógicamente, el interés derivado del juego no sólo decrece sino que se hace nulo, es decir, la corriente de salida disminuye hasta desaparecer definitivamente, por lo tanto, se hace incapaz de regenerar nuevamente la corriente de entrada. Esto conduce a la desintegración del sistema social; lo ha destruido la entropía.

La distribución escalonada del conocimiento y capacidad de juego de los diversos jugadores, de mayor a menor, no representa el estado más probable del sistema. Desde el punto de vista de un sistema jerarquizado, podemos señalar que el máximo desorden (o máxima entropía) se produce cuando se llega a un estado tal en que todos los elementos del sistema poseen una misma jerarquía.

Podemos representar este fenómeno de l a siguiente forma:
  • Sea "x" la corriente de entrada del sistema.
  • Sea "T" el proceso de transformación.
  • Sea "y" la corriente de salida.
  • Sea "Ax" una cantidad negativa que representa la entropía.
Gráficamente el sistema se muestra en la siguiente figura.


De este esquema se puede concluir que :

y - T (x)

es decir, la corriente de salida es igual a la corriente de entrada transformada. Se supone que "y", a su vez, debe generar a "x". Por lo tanto:

y = x (en términos de valor).

Sin embargo, de acuerdo con el sistema planteado, esto no se cumplirá, ya que la entropía ( - ) Ax, hace disminuir la energía necesaria para la transformación, lo que se traduce en un "y" menor.

En el caso del club de damas, "x" representa los recursos necesarios para poder desarrollar los juegos; "T" son los juegos e "y" es el grado de satisfacción de los miembros. ( - ) Ax es la tendencia hacia el equilibrio del conocimiento.

¿Cómo se puede combatir esta entropía? Siempre en el caso del ejemplo planteado, esto se lograría evitando que se produzca esa igualdad, lo que se puede lograr "importando" conocimientos nuevos (incorporación de nuevos socios, compra de libros especializados, contratación de alguna "maestro ", etc. ).

Sin embargo, para llevar a cabo todos estas acciones es necesario disponer de energía (recursos). Si toda la energía que trae la corriente de entrada es destinada a los juegos mismos, evidentemente que no dispondremos de energía adicional para estas otras actividades. Pero si la energía generada por la corriente de salida es mayor que la necesaria para adquirir la corriente de entrada destinada al proceso de transformación, entonces sí que se puede obtener energía adicional. Es este saldo el que se utiliza para combatir la entropía. En otras palabras, así se genera la neguentropía o entropía negativa.

Por lo tanto, la condición necesaria para sobrevivir es :

y > x (en términos de valor)

Luego, nuestro sistema para poder sobrevivir debe desarrollar algunos subsistemas, en que:
  • y (a + b) representa el total de la corriente de salida. 
  • y (a) es la energía que el sistema entrega al medio para adquirir "x". 
  • y (b) es la energía que se guarda (o vuelve al sistema) para combatir la entropía "Ax ".


O es el proceso (organización que se desarrolla dentro del sistema para combatir la entropía, utilizando la energía y( b), ).

Si y ( b) = Ax, tenemos un sistema que sobrevive ;
si y ( b) = Ax, tenemos un sistema en expansión ;
y si y ( b) = A x, tenemos un sistema en descomposición.

En general los sistemas sociales no gastan toda la energía creada por la corriente de salida en el proceso de fabricación o en general, en la producción. Una fábrica de zapatos no destina la totalidad del ingreso a fabricar más zapatos. La organización del sistema representa al proceso que lucha o se opone a la entropía, y la energía gastada en mantener el sistema organizado es la entropía negativa o neguentropía.



Espero haber ayudado en algo. Hasta la próxima oportunidad! 



sábado, 15 de junio de 2013

La neguentropía y la subsistencia del sistema





En el mundo físico no existe creación de neguentropía o entropía negativa. En otras palabras, dentro de los sistemas cerrados, se observa un desarrollo siempre creciente de la entropía. Esta afirmación se ve ilustrada por el caso del ladrillo citado en la publicación anterior, donde la entropía se encuentra representada por la transformación del ladrillo en granos de arcilla. Cualquier objeto físico, por muy resistente que pueda aparecer, se encuentra sometido al desgaste del tiempo y su fin es inexorable.

Como señalábamos anteriormente, los sistemas vivos evitan el decaimiento a través de los alimentos, pero ¿qué es aquello, tan precioso en nuestro alimento que nos mantiene vivos? La respuesta es la siguiente: Todo proceso, suceso u ocurrencia, en una palabra, cada cosa que sucede en la naturaleza, significa un aumento de la entropía en aquella parte del mundo donde ese suceso ocurre.



Así, un organismo viviente continuamente incrementa su entropía, y por lo tanto, tiende a aproximarse al peligroso estado de entropía máxima, que significa la muerte. Sólo se puede mantener alejado de ella, es decir, vivo, si continuamente está extrayendo de su medio entropía negativa (que es algo muy positivo, como veremos enseguida). Un organismo se alimenta de entropía negativa o, colocándolo de una manera menos paradójica, lo esencial en el metabolismo es que el organismo tiene éxito en liberarse de toda la entropía que no le ayuda a permanecer vivo. En otras palabras, el organismo se alimenta de entropía negativa atrayéndola hacia él para compensar el incremento de entropía que produce al vivir y manteniéndose así, dentro de un estado estacionario con un nivel relativamente bajo de entropía.

Ahora bien, la expresión "entropía negativa" (o neguentropía) es en sí una medida de orden. De este modo, el mecanismo mediante el cual el organismo se mantiene estacionario y a un nivel bastante alto de ordenamiento (es decir, a un nivel bajo de entropía) realmente consiste en extraer continuamente orden (u organización) de su medio.




Así, los sistemas abiertos al extraer orden del medio y reemplazar con él el desorden producido por sus procesos vitales, rompen la ley inexorable que ataca a los sistemas: la entropía creciente. Podemos, entonces, establecer claramente una nueva distinción entre sistema cerrado y sistema abierto. El sistema cerrado tiene una vida contada, sucumbe ante la entropía creciente. El sistema abierto presenta características tales (interacción con su medio e importación de entropía negativa u orden) que está en condiciones de subsistir y aún de eliminar la ley de entropía.

Volvamos al ejemplo sobre el crecimiento de una ciudad en un medio agrícola que utilizamos en otra sección. El crecimiento de la ciudad incrementa, primero, la estructura interna de la ciudad misma. Segundo, aumenta la heterogeneidad de la llanura con la desviación de sus condiciones iniciales prevalencientes. Tercero, el crecimiento de la ciudad en ese lugar puede tener un efecto de inhibición sobre el crecimiento de cualquier otra ciudad en la vecindad (así como la presencia de una piscina de natación puede inhibir a un empresario a abrir otra piscina a su lado, o como los árboles inhiben con su sombra el crecimiento de otras especies más pequeñas a su lado). Una ciudad necesita un medio que la apoye y, por esto, las ciudades deben encontrarse especializadas dentro de algunos intervalos. Este efecto de inhibición aumenta la heterogeneidad de la llanura.



El crecimiento gradual de la heterogeneidad es un proceso que va contra la segunda ley de la termodinámica. Recordemos en pocas palabras que esta ley establece que un sistema aislado tiende a alcanzar su estado más probable. De aquí que, cuando un sistema de este tipo se encuentra en un estado improbable, es casi seguro que en el futuro lo encontraremos en un estado más probable. Bajo el supuesto de la aleatoriedad de los eventos, los estados homogéneos son más probables que los heterogéneo s. Sin emb argo, en nuestro caso, en el futuro parece ser que la región agrícola se hace cada vez más heterogénea.




Cualquier proceso, tal como el crecimiento biológico, que aumenta la estructura, organización y heterogeneidad, está contra la segunda ley de la termodinámica. Esta situación se puede explicar argumentando que los sistemas no se encuentran aislados, argumento que estudiaremos en la siguiente publicación.


Espero haber ayudado en algo. Hasta la próxima oportunidad!


martes, 11 de junio de 2013

La entropía y los sistemas abiertos



Hemos señalado que una característica común a todos los sistemas es la entropía. En los sistemas sociales, ésta tiene ciertos efectos que creemos, vale la pena discutir con algún detalle, especialmente por la relación que tienen con los problemas de la organización, de la información y de la comunicación. 

Recapitulando lo dicho publicaciones anteriores, podemos señalar que la entropía, o la ley de la entropía, es un concepto que proviene de la fisica y es una conclusión a que se llega a partir de la segunda ley de la termodinámica.



Según esta ley, los sistemas en general tienen la tendencia a alcanzar su estado más probable. En otras palabras, existe una tendencia natural de los cuerpos a pasar de distribuciones menos probables a otras más probables. Ahora bien, en el mundo de la física, el estado más probable de esos sistemas es el caos, el desorden y la desorganización.

Arturo Aldunate Phillips plantea, de paso, un ejemplo sobre la acción de la entropía que nosotros ampliaremos por razones que se verán más adelante.

Si se examina un campo de tierra gredosa, apropiada para la fabricación de ladrillos, el estado en que se encuentra distribuida esta tierra, será de desorden (su estado más probable). Si de esa tierra gredosa se desea fabricar ladrillos, es necesario organizarla, agruparla en ciertos trozos con una figura y dimensiones especiales. En este sentido se puede decir que se ha "organizado" el conjunto de granos de tierra. Este desde luego es un estado de distribución menos probable (ya que no es fácil imaginar ladrillos formados al azar). Cuando se colocan los ladrillos en un muro de un edificio en construcción, estamos en una segunda etapa o fase de organización, llevando los granos de arcilla a una distribución aún mucho menos probable.

Por lo tanto, el edificio en relación con la arcilla utilizada en la fabricación de ladrillos, representa un estado mucho más organizado y una distribución mucho menos probable que los granos de arcilla. 

Siguiendo con este ejemplo, si observamos la acción del tiempo sobre el edificio, especialmente sobre sus muros, podemos ver en sus ladrillos una tendencia a la desintegración, a la pérdida de organización, es decir, a volver a transformarse en polvo o arcilla, a llegar a su estado más probable, que es el estado natural. Este efecto de desintegración es el efecto de la entropía.

Con un poco de imaginación, podemos adaptar perfectamente el ejemplo de Aldunate Phillips a un sistema social. Los sistemas sociales están compuestos por personas que cumplen un papel definido. La muchedumbre o la gente que observa un panido de fútbol en el Esta dio Nacional desde el punto de vista de distribución, podría suponerse como ordenadas de acuerdo a su distribución más probable. Desempeñan funciones de observadores, que son mas bien uniformes y, en ese sentido, simétricos. En términos de sistemas, podríamos decir que forman un sistema bastante elemental tal como sería un saco de tierra gredosa.

Ahora bien, esta muchedumbre puede reunirse y proceder a organizarse, por ejemplo, para preparar un programa de los próximos partidos, o nombrar ciertos cargos (o funciones diferenciales) con asignación de autoridad.

Los observadores del partido de fútbol deciden ordenarse y formar una "barra" y para eso designan un jefe de barra y toman algunas providencias en relación a reuniones, confección de emblemas, quizá formación de una banda, etc. El sistema social "elemental" cambia entonces como producto de su organización. Toma una distribución menos probable, como consecuencia de ciertas normas, acuerdo e interacciones formalizadas.


Si, por alguna razón estos sistemas no son controlados, si los líderes fracasan en el desarrollo de sus funciones, si la "inercia" se introduce entre sus elementos, lo más probable es que comience a funcionar la entropía : los sistemas irán perdiendo su estructura y cohesión (o con los "hinchas" del club deportivo, observando el partido en actitudes netamente individuales).

Así, podemos pensar que todos los sistemas se ven atacados o influidos por la ley de la entropía, aun en estos sistemas en que, debido a su organización particular, sus elementos se distribuyen de una manera tal que dejan de tener la distribución más probable. A través del tiempo estos elementos tienden a cambiar su distribución hacia aquel estado más probable, y este estado es la desorganización.

En resumen, el sistema pasa desde un estado "t" a un estado "t + 1 " en que el desorden es mayor. 

Cualesquiera dueña de casa sabe el trabajo que cuesta mantener una casa en un estado de orden y lo fácil que es el desorden; basta no hacer nada por un par de días para que la casa comience a desordenarse. Todo oficial sabe que la marcha ordenada de los soldados, lograda después de largos y arduos esfuerzos, degenera rápidamente en desorden cuando se pierde la disciplina.




La ley de la entropía indica que esta es creciente, es decir, la entropía va en aumento. Los sistemas pasan por diferentes estados, cada vez más desordenados y más caóticos. Sin embargo, la simple observación del transcurso histórico de numerosos sistemas, parece contradecir este aspecto de la ley de la entropía siempre creciente. Por ejemplo, la Iglesia Católica al cabo de dos mil años de existencia no parece indicar un grado de desorganización ni de caos. Los países, las empresas industriales, la familia, etc., son otros ejemplos que se suman al anterior, y así podríamos encontrar muchos más. En numerosos casos, los sistemas mantienen su ordenamiento a través del tiempo. Aún se presentan otros casos en que los sistemas parecen organizarse más a medida que pasan de un estado a otro.

Sin embargo, esta contradicción o violación de la ley de la entropía es más aparente que real. Si observamos los sistemas que "violan" la ley, podemos concluir que ellos poseen una importante característica en común. Todos son sistemas vivos y, más general aún, son todos sistemas abiertos.

Espero haber ayudado en algo. Hasta la próxima oportunidad!
 

Entropía



¿Qué es la entropía? 
De acuerdo con lo que indicábamos más arriba, ella no es un concepto o una idea simbólica, sino una cantidad física mensurable tal como el largo de una cuerda, la temperatura de cualquier punto del cuerpo, el valor de la presión de un determinado cristal o el calor específico de una sustancia dada. En el punto de la temperatura conocida como cero absoluto (aproximadamente -273°C) la entropía de cualquiera sustancia es cero. Cuando llevamos esa sustancia a cualquier otro estado mediante pasos lentos y reversibles (aunque la sustancia cambie a una naturaleza física o química diferente) la entropía aumenta en una cantidad que se calcula dividiendo cada pequeña porción de calor que debemos agregar en ese proceso, por la temperatura absoluta en la cual lo agregamos y sumando todas estas pequeñas contribuciones.



Por ejemplo, cuando se funde un sólido, su entropía aumenta en la cantidad de calor de la fusión dividida por la temperatura en el punto de fusión. Por lo tanto, la unidad en que se mide la entropía es calorías/C° (tempertura).

Recordemos que, de acuerdo con la segunda ley de la termodinámica, la entropía de un sistema aislado es siempre creciente. Así, podemos afirmar que la entropía del universo es siempre creciente. En efecto, si se considera al universo como un sistema aislado (o cerrado), inevitablemente, de acuerdo con la termodinámica, irá pasando de estados más organizados hacia estados menos organizados, hasta llegar a un caos final. Evidentemente, esta conclusión no encierra grandes esperanzas en cuanto a la supervivencia del hombre, de la tierra y del universo. Sin embargo, Brillouin señala que, en su opinión, estas afirmaciones es tán mucho más allá de los límites del conocimiento humano : Se pregunta ¿El universo se encuentra limitado o es infinito? ¿Cuáles son las propiedades de sus limitaciones? ¿ Existe un escape o una entrada de entropía y energía? Ninguna de estas preguntas puede ser contestada.
Sabemos que el universo se está expandiendo, aunque entendamos muy poco de cómo y por qué. Expansión significa el movimiento de fronteras y esto significa que ni la energía ni la entropía pueden permanecer constantes en su interior. De ahí que es mejor no hablar de "entropía del universo". Las leyes físicas sólo pueden ser aplicadas dentro de ciertos límites y para ciertos órdenes de magnitud. Todo el universo es demasiado grande para la termodinámica y ciertamente excede considerablemente las órdenes de magnitud razonables para los cuales sus principios pueden ser aplicados. Lo único que podemos discutir razonablemente, señala Brillouin, es la conducta de la entropía en un sistema cerrado. En vez del misterioso universo, mejor hablemos de nuestro planeta Tierra.

La Tierra no es un sistema cerrado. En efecto, para que así lo fuera, de acuerdo con nuestra definición en un capítulo anterior, la Tierra debería ser un sistema aislado, que no intercambiara energía con su medio. De hecho esto no es así. La Tierra se encuentra constantemente recibiendo energía desde el exterior (energía radiante desde el sol, energía gravitacional desde el sol y de la luna provocando las mareas, radiaciones cósmicas de orígenes desconocidos, etc. ). También existe una salida de energía, ya que la Tierra también irradia energía. ¿Cuál es el resultado neto ? ¿Positivo o negativo? Esta es una pregunta que, de acuerdo al conocimiento actual, parece imposible que sea contestada. 




Hasta aquí, podemos extraer una conclusión. La entropía ejerce su acción en los sistemas aislados, es decir, aquellos que no "comercian" con su medio. Luego podemos afirmar concretamente que estos sistemas se encuentran condenados al caos y a la destrucción. Los objetos físicos tienden a ser sistemas cerrados, y éstos, evidentemente, tienen una vida limitada. El paso del tiempo en la arquitectura de épocas antiguas lo señala. Las pirámides de Egipto, mejor aún, la Esfinge, muestran los efectos de la entropía. Sin duda alguna, el estado más probable de los elementos que conforman la Esfinge no es la organización especial que esos elementos asumen en la construcción del monumento. El estado más probable de la arcilla y de la roca es la distribución estocástica en la naturaleza de la primera y la desintegración en partículas y arena en el caso de la segunda.
Basta observar el caso de una fotografía del estado actual de la Esfinge y compararla con las ilustraciones que la representan en su estado inicíal para comprender los efectos de la entropía.

Como señalaba cierto autor, para observar la entropía basta observar el estado en que uno encuentra su casa, después que la ha dejado ordenada y limpia dos meses atrás, antes de realizar un viaje. Aunque el hombre no ha intervenido, ya no se encuentra tan ordenada y limpia.

Todo esto es válido para los sistemas cerrados, ¿pero qué pasa con los sistemas abiertos o los sistemas vivos?

Cuando un sistema no vivo es aislado y colocado en un medio uniforme, todo movimiento muy pronto llega hasta un punto muerto, como resultado de la fricción. Las diferencias de potenciales químicos se equilibran, la temperatura se hace uniforme. Después de esto, todo el sistema cae en agonía y muere, transformándose en una materia inerte. Se alcanza un estado permanente en que no ocurre ningún suceso observable; los físicos llaman a esto: estado de equilibrio termodinámico o de máxima entropía.

¿Cómo logra un organismo viviente evitar ese decaimiento que observábamos en los sistemas cerrados? La respuesta evidente es: comiendo, bebiendo, respirando y (en el caso de las plantas) asimilando. El término preciso de metabolismo. La palabra griega significa cambio o intercambio. ¿Cambio de qué? Originalmente la idea es, sin duda, el cambio de materias.




Schrodinger, señala que este cambio de materias no es lo principal.
Señala que cualquier átomo de nitrógeno, oxígeno, azufre, etc. es tan bueno como otro de su clase ; ¿qué se podría ganar al cambiarlo? En el pasado nuestra curiosidad fue silenciada al decirnos que nos alimentábamos de energía. Tomando literalmente esto es otro absurdo, dice Schrodinger. En un organismo adulto, el contenido de energía es estacionario.



Espero haber ayudado en algo. Hasta la próxima oportunidad!  

 


Entropía y neguentropía



Cada acto que realizamos en el curso del día implica fuerza y energía.
Si empujamos una puerta, si encendemos un cigarrillo, si corremos para alcanzar una micro, estamos ejecutando un trabajo; son actividades que requieren movimientos de los músculos del cuerpo. En cada una de estas actividades existe un consumo de energía. Cuando empujamos un auto, estamos realizando un trabajo y, por lo tanto, consumiendo energía. Este gasto de energía lo podemos observar por el cansancio que se apodera de nuestros músculos.



En general, todo sistema diseñado para alcanzar un objetivo (y por lo tanto, realizar un trabajo) requiere de energía que recibe a través de la corriente de entrada y en las formas más diversas (alimentos, vapor, electricidad, materias primas u otras fuentes). Esta energía dentro del sistema puede convertirse en energía cinética o potencial. La primera, se encuentra relacionada con la velocidad de un cuerpo, aunque algo de ella se pierde por la fricción de éste con el medio. En general, podemos señalar que el trabajo que realizamos a "nivel de suelo" (caminar, empujar un cuerpo, transportar un objeto, etc. ) se transforma en energía cinética y en pérdida por fricción.

La energía potencial se encuentra relacionada con la masa del cuerpo y los cambios de altura. Esta es la energía contenida en una cascada, la que se manifiesta cuando levantamos algún objeto, cuando subimos un cerro, etc.

Normalmente, al realizar un trabajo, el sistema desarrolla ambas formas de energía. Por ejemplo, si empujamos un objeto sobre un plano inclinado, la presión que realizamos (mayor o menor, según sea nuestro movimiento hacia arriba o hacia abajo) se divide parte en energía cinética (el movimiento de translación) y parte de energía potencial (el movimiento de levación), y por supuesto, pérdidas friccionales por el roce del cuerpo con la superficie.


 

Las leyes de la termodinámica
Entre los principios más importantes que describen los procesos físicos se encuentran las leyes de la termodinámica. Ellas se encuentran relacionadas con los intercambios de energía y con la tendencia de sus flujos, especialmente de la energía calórica.

Como señalábamos en el punto anterior, todo proceso natural o humano, implica utilización o transformación de energía, y por esta razón, los principios o leyes de la termodinámica se aplican tanto al acto de admirar una hermosa escultura, llevar a cabo una investigación, manejar una máquina u observar y analizar el universo.

Cuando dos cuerpos que poseen la misma temperatura son colocados uno al lado de otro, sus temperaturas permanecen constantes. Esta es la llamada ley "cero" de la termodinámica. Entre uno y otro cuerpo no existe un flujo neto de energía calórica. Ambos cuerpos se encuentran en un equilbrio estadístico. Esto lo podemos apreciar experimentalmente. Si tenemos una taza de café a medias, a una temperatura de 50° y llenamos la taza con una cafetera que está a la misma temperatura, la temperatura del café en la taza ahora llena, será de 50°.

La ley "cero", nos asegura que cuando aplicamos una corriente de aire a un cubo de hielo, si la temperatura de la corriente del aire es igual a la del cubo de hielo, éste mantendrá su temperatura. Esto nos conduce a la primera ley de la termodinámica que dice que en un sistema cerrado la energía es conservada. No se gana ni se pierde. Por ejemplo, si agregamos calor al cubo de hielo para convertirlo en vapor, el calor agregado es igual al incremento de la energía interna de las moléculas de aire y agua (vapor) más el trabajo realizado por el vapor al expandirse.




¿Qué sucede cuando los dos objetos no poseen la misma temperatura?
La respuesta a este problema la encontramos en la segunda ley de la termodinámica, que dice que existirá un flujo neto de energía y siempre desde el cuerpo más caliente al más frío. Si dejamos nuestra taza de café con su temperatura de 50° algún rato sobre la mesa, observaremos cuando lo tornemos, que se ha enfriado. La taza de café perdió temperatura debido a su exposición a un medio más frío. El café, jamás, por sí mismo, podrá calentarse, llegando a superar la temperatura de su medio.

Una mejor forma de expresar esta segunda ley de la termodinámica, utiliza consideraciones probabilísticas. Se basa en la observación de que cuando ciertos estados del sistema son más probables que otros, el sistema siempre se moverá en la dirección del estado más probable. Por ejemplo, no existe una probabilidad que el café logre mantener su temperatura igual a la del medio ambiente por mucho tiempo; al revés, es muy probable que el café caliente pierda temperatura y alcance una temperatura que se aproxime a la del medio ambiente. Así, la se gunda ley de la termodinámica señala qué es lo que será más probable que ocurra: el café se enfriará, tendiendo a alcanzar la temperatura del medio ambiente.




Existe una consecuencia de esta ley, aún más importante. Siguiendo con nuestra taza de café, si observáramos con los instrumentos apropiados, notaríamos que cuando el café estaba caliente, las moléculas de agua chocaban violentamente, corno lo hacen las moléculas de aire en el cuarto, de una manera caótica. Sin embargo, a pesar de este caos o movimiento al azar, existe un flujo neto de energía desde el café hacia el aire. Ya sea frío o caliente, la energía total contenida en la taza y en la pieza permanece constante (de acuerdo con la primera ley de la termodinámica). Es decir, podemos suponer que toda la energía calórica permanece en el cuarto.

Sin embargo, cuando el café se enfría, cesa de existir ese flujo neto de energía (aun cuando las moléculas del café y del aire siempre se encuentran en movimientos rápidos y chocando entre sí). En realidad, podemos señalar que los movimientos individuales y la energía cinética no se han reducido mucho comparados con la energía que las moléculas tenían cuando el café estaba caliente. Sin embargo, ahora podernos decir que el sistema ante la falta de un flujo neto de energía está en una situación aún más caótica y al azar. Del estado "ordenado" en el cual el café caliente es una situación organizada, con un "propósito", con la energía calórica concentrada en una parte y fluyendo hacia afuera, el sistema ahora es reducido a una condición de equilibrio con un desorden molecular mayor (o con una reducción de su ordenamiento).

El cambio de estados más ordenados u organizados a estados menos ordenados y organizados, es una cantidad definida y medible, denominada "entropía". Es el factor que explica el hecho de que mientras la energía total contenida en un sistema cerrado permanece constante, con el incremento de la entropía, esa energía puede ser utilizada cada vez menos.



Espero haber ayudado en algo. Hasta la próxima oportunidad!  
 



       
free counters

Páginas vistas en total según Google