PS04.- Características de los sistemas complejos

Lo que define a los sistemas complejos como tales, son las consecuencias de tener un gran número de elementos o un gran número de interacciones.

Las características de los sistemas complejos son las consecuencias de tener un gran número de elementos o un gran número de interacciones. En su estructura representada por las redes que forman elementos y relaciones, las interaccione se entrecruzan de tal manera que no es posible separarlas. El término complejo viene del latín plexus que quiere decir entretejido.

Las interacciones en los sistemas complejos generan nueva información.

La nueva información genera procesos emergentes, que antes no estaban en los elementos del sistema.

A consecuencia de los mecanismos de control el sistema puede incrementar su orden de forma autónoma, es decir, alcanzar un nivel de autoorganización.

Estos tres elementos: información, emergencia y autoorganización son señas de identidad de los sistemas complejos.

01.- INFORMACIÓN

En la divulgación básica se acostumbra a decir que los sistemas necesitan materia, energía e información para su persistencia. De las dos primeras, materia y energía, se tiene una buena idea de lo que significan, aunque solo sea por ser necesarias en la vida cotidiana. Es posible que sorprenda que la información esté al mismo nivel. Ello puede deberse a que es bastante desconocido el hecho de que la información es una magnitud física, (como la masa o el campo eléctrico), que puede medirse y controlar sus efectos.

En algunas secciones de este módulo se ha afirmado que las interacciones generan nueva información y eso tiene consecuencias. Se debe a Gregory Bateson una frase, un tanto enigmática, que afirma que la información es ‘una diferencia que marca una diferencia’.

El otro aspecto de la información es su carácter como magnitud física. Se debe a Claude Shannon y a Warren Weaver la Teoría Matemática de la Información, que toma como base la teoría de la probabilidad y el álgebra de Boole.
En esta presentación sobre sistemas, que es de carácter básico y conceptual, es suficiente quedarse con dos ideas emanadas de la teoría de Shannon, son el tipo de la secuencia de los datos es decir, cómo es la información que relaciona dos elementos de un sistema y la magnitud cantidad de información:

Referencias y lecturas complementarias

1.- Ver los artículos Gregory Bateson, Claude Shannon y Warren Weaver en Wikipedia

2.- Lo que probablemente Bateson quería decir con su enigmática frase, es que una diferencia percibida por un observador, cuyo estado es alterado a consecuencia de la percepción ocurrida, es decir, diferenciado de su estado anterior a ella. (Ver en glossarium BITri «Diferencia» página 61 )

3.- La información de Bateson se inscribe, claramente, en el esquema cibernético, esto es, en los sistemas donde actúan los mecanismos de control. Ver el artículo «El paradigma de la Información de G. Bateson» con un enfoque hacia las ciencias sociales y una muy buena introducción a la cibernética.
(Cárdenas-García, J.F.(2020El Paradigma de Información de Gregory Bateson: Una Introducción. Veritas & Research, 2(2), 87–97)

4.- La información como magnitud física se describe en la Teoría Matemática de la Información, que toma como base la teoría de la probabilidad y el álgebra de Boole. En la sección 04.- Información, orden y aleatoriedad del Curso Introducción a la Complejidad se trata este enfoque de manera más precisa.

02.- EMERGENCIA

La emergencia es una cualidad intrínseca de los sistemas complejos: una bacteria es un ser vivo; la vida es un proceso emergente que surge por la interacción de sus moléculas. Muchas veces la emergencia se sintetiza con esta frase: «el todo (la vida) es mayor que la suma de las partes (la suma de todas las interacciones moleculares)

Lo que llamamos emergencia es la evolución de las reglas simples que cumplen las partes a reglas que cumple el sistema como totalidad. La emergencia es una consecuencia directa de la información que surge en la interacción entre las partes, por lo tanto se puede controlar y medir:

03.- AUTOORGANIZACIÓN

La autoorganización es la otra cualidad intrínseca de los sistemas complejos que marca la tendencia hacia el orden.
En el ámbito del pensamiento sistémico se considera como lo opuesto a la emergencia, en tanto que la emergencia responde a condiciones de retroalimentación positiva e información novedosa, mientras que la autoorganización responde más bien a lo contrario: retroalimentación negativa e información regular.
En consecuencia la autoorganización se puede controlar y medir de forma complementaria a la emergencia.

La autoorganización tiene dos propiedades exclusivas que afectan al comportamiento colectivo y al coordinado:

04.- COMPLEJIDAD DE UN SISTEMA

Como se ha dicho antes, la complejidad es la consecuencia de la información que recorre el sistema y de la emergencia y la autoorganización, como propiedades intrínsecas de los mismos. De hecho se define la complejidad como un estado intermedio entre estas cualidades.

El pensamiento sistémico considera que la complejidad es una propiedad los sistemas derivada de las otras propiedades y como tal se puede medir y controlar actuando sobre ellas. Se trata de actuar sobre el producto estabilidad x variabilidad para alcanzar en el sistema un nivel de complejidad aceptable.

Para controlar la complejidad con objeto de mantener el sistema en un estado estacionario tal que ni se desboque con el caos ni se paralice con el orden, se puede actuar con la retroalimentación. La variabilidad de Ashby para equilibrar el sistema con su entorno también debe ser controlada. Las posibles perturbaciones también deben ser controladas sobre todo si el sistema presenta fragilidad: