lunes, 17 de junio de 2013

Información y organización



Hemos indicado anteriormente que, mientras la entropía es una medida de desorden, la información es una medida de organización . Esto quiere significar que si comenzamos a obtener informaciones referentes a algunos hechos desordenados y al azar, es posible que comencemos a encontrar ciertas relaciones y que finalmente, podamos estructurar un modelo que nos describa la conducta de esos eventos.


Información (H)VersusEntropía (S)
InformaciónH = - SIncenidumbre
NeguentropíaEntropía
SeñalRuido
PrecisiónError
FormaCaos
RegularidadAzar
Modelo o formaFalta de modelo o forma
OrdenDesorden
OrganizaciónDesorganización
Complejidad RegularSimplicidad Regular
HeterogeneidadHomogeneidad
Improbalidad (una sola alternativa describe correctamente la forma)Probabilidad (más de una alternativa describe correctamente la forma)

March y Simon, señalan que la capacidad de una organización para mantener un modelo de actividad altamente complejo e interdependiente se encuentra limitada, en parte, por su capacidad para manejar y elaborar la comunicación requerida para la coordinación. Ellos plantean la siguiente hipótesis:
Mientras mayor sea la eficiencia de la comunicación (... ) dentro de la organización, mayor será la tolerancia hacia la interdependencia (... ).

Un sistema social implica una restricción de las comunicaciones entre sus miembros. Si tomamos un grupo desorganizado, sesenta personas por ejemplo, comunicándose al azar dentro de una pieza grande, el número potencial de canales de comunicaciónes 1770. Si ellos se encontraran organizados en una red de doce combinaciones de cinco personas, de modo que cada personas de cada grupo de cinco tuviera un papel claramente definido y fuera interdependiente de las otras cuatro, el número de canales dentro del grupo de trabajo sería reducido a diez.

Por otra parte, Katz y Kahn señalan enfáticamente que "moverse de un estado desorganizado a uno organizado requiere la introducción de restricciones para reducir lo difuso y la comunicación al azar". Se canaliza la información con el fin de cumplir con los objetivos de la organización. En términos de la teorías de la información, la comunicación libre, sin restricción, produce ruido dentro del sistema, "Sin un modelo, sin pensar, sin precisión, existe un sonido pero no música. Sin estructura, sin ritmo, sin especificaciones, existe una Torre de Babel de lenguas e idiomas, pero no existe un sentido".

Thelen resume de la siguiente manera la contribución de Ashby en relación al problema de la selectividad en la comunicación:

Cualquier sistema viviente es una asociación infinitamente compleja de subsistemas.
El complejo suprasistema posee todas las propiedades de un sistema además de comunicaciones a través de las fronteras de los subsistemas. El brillante tratamiento de Ashby muestra que la estabilidad del suprasistema tomaría un tiempo infinítivamente extenso para ser lograda si existieran "comunicaciones completas y ricas" entre los subsistemas, porque, en realidad, todas las variables de todos los subsistemas tendrían que ser satisfechas de inmediato, un suceso totalmente improbable. Si se restringiera la comunicación entre los subsistemas, o si éstos fueran temporalmente aislados, entonces cada subsistema lograría su propia estabilidad con un mínimo de interferencia del medio en cambio de los otros subsistemas que buscan estabilidad.
Con comunicaciones restringidas y limitadas es posible acumular éxito (por ejemplo, a través de pruebas y aproximaciones sucesivas) mientras que en el suprasistema individual el éxito es el resultado de una acción que involucra todo o nada... Así, la forma a través de la cual se mueve el sistema total hacia su equilibrio depende mucho de las correcciones funcionales entre sus partes. La adaptación de todo el sistema hace uso de dos condiciones: corrección suficiente, de modo que la operación de un subsistema pueda activar a otro, con el fin de que las contribuciones de todos puedan contribuir al total; y suficiente separación entre los subsistemas, para que sea posible alguna especialización de funciones y que el sistema como un todo pueda aproximarse hacia ese "equilibrio". Pero, jamás un suprasistema tendrá un equilibrio en todos sus subsistemas en el mismo momento.
Cada subsistema tiene un "poder de veto" sobre el equilibrio de otro subsistema y, bajo una variedad de condiciones, un subsistema puede dominar a otro.


Lo que hemos señalado en estos últimos párrafos significa que, para que el sistema pueda operar dentro de cierto equilibrio, es necesario una limitación de las comunicaciones, es decir, que los sistemas sociales deben poseer una red selectiva de comunicación.

Sin embargo, esto parece estar en cierta contradicción con lo señalado anteriormente en relación a la entropía y la información. Se decía que a medida que aumentaba la información (y por lo tanto la neguentropía) aumentaba la organización. Pero, por otra parte, un exceso de información parece limitar o disminuir la efectividad de la organización. En efecto, el sistema social posee una capacidad limitada para elaborar la información. En otras palabras, una corriente de entrada de información superior a la capacidad de elaboración que posee el sistema, disminuye la habilidad de éste para operar en su medio; en efecto, puede actuar como una fuerza de entropía positiva.

La información fluye hacia la organización desde diferentes fuentes.
Una de ellas es el flujo de transacciones entre la organización y parte de su medio ambiente (por ejemplo, las informaciones sobre el mercado).
Otra fuente es la información generada por los miembros de la organización. Surgen numerosos problemas para la obtención de la información desde las fuentes hasta los receptors. En cada uno de estos centros receptores existe la tendencia a revisar, consciente o inconscientemente, la información antes de transmitirla a la unidad siguiente. Por lo tanto, la información es "filtrada" en cada centro receptor.

Un exceso de información en estos centros tiende a aumentar el trabajo de elaboración de esa información y a incrementar los ruidos de los canales. Esta sobrecarga en los canales conduce a omisión, error, dilatación, filtración, aproximación y escape. Todos ellos son formas de entropía, es decir, tienden a crear el desorden o la desorganización.


Espero haber ayudado en algo. Hasta la próxima oportunidad!



No hay comentarios:

Publicar un comentario

       
free counters

Páginas vistas en total según Google