domingo, 21 de julio de 2013

Complejidad y Estadisticas: Orden y/o caos x William Canales Verdugo



4.1          Introducción........................................................................................................        2
4.2          Dos modelos de universo....................................................................................         2
4.3          Los  antecedentes de la teoría del caos...............................................................          3
4.4          La teoría del caos.................................................................................................        4
4.5          La complejidad.....................................................................................................       7
4.6          La aleatoriedad objetiva ante la teoría del caos.........................................................................             9
4.7          La probabilidad fractal y el posible orden oculto en información de apariencia aleatoria.........   12
4.8          El efecto mariposa o las insospechadas conexiones entre hechos distantes.............................               15
4.10       Bibliografias.................................................................................................................................       17


4.1       Introducción

La teoría de las estructuras disipativas, conocida también como teoría del caos, tiene como principal representante al químico belga Ilya Prigogine, y plantea que el mundo no sigue estrictamente el modelo del reloj, previsible y determinado, sino que tiene aspectos caóticos. El observador no es quien crea la inestabilidad o la imprevisibilidad con su ignorancia: ellas existen de por sí, y un ejemplo típico el clima. Los procesos de la realidad dependen de un enorme conjunto de circunstancias inciertas, que determinan por ejemplo que cualquier pequeña variación en un punto del planeta, genere en los próximos días o semanas un efecto considerable en el otro extremo de la tierra. La idea de caos en la psicología y en el lenguaje.



4.2       Dos modelos de universo.

El siglo XX ha sido testigo de dos modelos teóricos del universo: la teoría determinista, y la teoría del caos.

La teoría determinista está representada por Newton, Laplace y otros pensadores del siglo 17 en adelante y, en nuestro siglo por Einstein.

Según el determinismo, el universo funciona como un reloj, donde no existe lugar para el azar y donde todo está determinado inexorablemente por las eternas leyes de la naturaleza. Esto implica la posibilidad de poder predecir cualquier situación (B), conociendo la situación anterior (A) y las leyes naturales que rigen el proceso que va desde (A) hasta (B).

Si bien se reconocen casos donde no son posibles las predicciones, sobre todo cuando incursionamos en el territorio de lo infinitamente pequeño (el de las partículas sub-atómicas) ello, para los deterministas, no ocurre porque en la realidad reine el azar, sino simplemente porque aún no hemos descubierto las leyes que rigen esos procesos.

El matemático René Thom, sostiene que si los físicos no pueden prever el resultado en el clásico ejemplo de lanzamiento de la moneda, no es porque ello sea imposible, sino porque el experimento sería muy difícil y costoso, ya que la previsión es teóricamente posible si el investigador controlara en forma lo suficientemente precisa las condiciones iniciales del lanzamiento.

Para la teoría del caos, esta previsión “exacta” es incluso teóricamente imposible pues, como ocurre en un sistema dinámico inestable, la condición inicial de la moneda que saldrá "cara" puede ser tan cercana e incluso igual a la condición inicial de la moneda que saldrá "cruz", pero sin embargo llegan a un final diferente. Esto es así porque el sistema evoluciona por zonas de incertidumbre donde no reinan las leyes eternas de la física.






4.3       Los antecendes de la teoría del caos

Ya en 1908, el matemático francés Henri Poincaré (1854-1912) ensayó con sistemas matemáticos no lineales, llegando a conclusiones que, serían un importante antecedente histórico y conceptual de la teoría del caos.

Poincaré partió del esquema laplaceano según el cual, si conocemos con exactitud las condiciones iniciales del universo, y si conocemos con exactitud las leyes naturales que rigen su evolución, podemos prever exactamente la situación del universo en cualquier instante de tiempo subsiguiente. Hasta aquí … todo bien, pero, según Poincaré, ocurre que nunca podremos conocer con exactitud la situación inicial del universo, y siempre estaríamos cometiendo un error al establecerla y, aun suponiendo que pudiéramos conocer con exactitud las leyes que rigen su evolución, nuestra predicción de cualquier estado subsiguiente también sería aproximada.

Poincaré propuso la siguiente hipótesis: un pequeño error en las condiciones iniciales, en vez de provocar también un pequeño error en las últimas, provocaría un error enorme en éstas, con lo cual el fenómeno se vuelve impredecible. Este efecto multiplicativo del error no es debido a nuestra ignorancia o a nuestro limitado conocimiento de lo real, sino a la misma configuración de la realidad, que admite ese tipo de evoluciones erráticas.

En la década del 60, el meteorólogo y matemático norteamericano Edward Lorenz, exteriorizó su “perplejidad” ante la imposibilidad de pronosticar fenómenos climáticos más allá de un cierto número de días, se propuso a elaborar un modelo matemático para predecir fenómenos atmosféricos descubriendo que la misma herramienta matemática que utilizaba estaba fallando: pequeños cambios en las condiciones iniciales producían diferencias asombrosas (inesperadas, impredecibles) en el resultado, con lo cual las predicciones meteorológicas a mediano o largo plazo resultaban imposibles. La tradicional certeza de la matemática no podía compensar la tradicional incertidumbre de la meteorología, ya que el virus de la incertidumbre había invadido el mismísimo cuerpo de la madre de las ciencias exactas.

Si un fenómeno no puede predecirse, ello se debe en principio y como mínimo a una de tres razones:

1. La realidad es puro azar, y no hay leyes que permitan ordenar los acontecimientos.

2. La realidad está totalmente gobernada por leyes causales, y si no podemos predecir acontecimientos es simplemente porque aún no conocemos esas leyes.

3. En la realidad hay desórdenes e inestabilidades momentáneas, pero todo retorna luego a su cauce determinista. Los sistemas son predecibles, pero de repente, sin que nadie sepa muy bien porqué, empiezan a desordenarse y caotizarse (periodo donde se tornarían imposibles las predicciones), pudiendo luego retornar a una nueva estabilidad.

Las investigaciones -centradas en la tercera posibilidad- comenzaron en la década del 70: los fisiólogos investigaron porqué en el ritmo cardíaco normal se filtraba el caos, produciendo un paro cardíaco repentino; los ecólogos examinaron la forma aparentemente aleatoria en que cambiaban las poblaciones en la naturaleza; los ingenieros concentraron su atención en averiguar la razón del comportamiento a veces errático de los osciladores; los químicos, la razón de las inesperadas fluctuaciones en las reacciones; los economistas intentaron detectar algún tipo de orden en las variaciones imprevistas de los precios. Poco a poco fue pasando a un primer plano el examen de ciertos otros fenómenos tan inherentemente caóticos y desordenados que, al menos en apariencia, venían a trastocar la imagen ordenada que el hombre tenía del mundo: el movimiento de las nubes, las turbulencias en el cauce de los ríos, el movimiento de una hoja por el viento, las epidemias, los atascamientos en el tránsito de vehículos, los a veces erráticos dibujos de las ondas cerebrales, etc.

La auténtica perplejidad pasaría por comprobar el hipotético caso donde una serie comienza con una secuencia caótica de números, y en determinado momento se transforma en una serie ordenada.

4.4       La teoría del caos

O teoría de las estructuras disipativas tiene como su principal representante en la figura del belga Ilya Prigogine, Premio Nobel de Química del año 1977 por sus trabajos sobre la termodinámica de los sistemas alejados del equilibrio.

La teoría del caos plantea que el mundo no sigue el modelo del reloj, previsible y determinado, sino que tiene aspectos caóticos donde el observador no es quien crea la inestabilidad o la imprevisibilidad con su ignorancia: ellas existen de por sí. Los sistemas estables, como la órbita de la tierra alrededor del sol, son la excepción: la mayoría son inestables, siendo un ejemplo típico el clima.

Para la teoría del caos, los procesos de la realidad dependen de un enorme conjunto de circunstancias inciertas, que determinan por ejemplo que cualquier pequeña variación en un punto del planeta, genere en los próximos días o semanas un efecto considerable en el otro extremo de la tierra.

Las relaciones causa-efecto pueden ser concebidas de varias maneras:

1. Como vínculos unidireccionales: A causa B, B causa C, etc., pero los efectos resultantes no vuelven a ejercer influencia sobre sus causas originales.

2. Como eventos independientes: según esta concepción, no habría ni causas ni efectos: cada acontecimiento ocurriría al azar e independientemente de los otros.

3. Como vínculos circulares: A causa B, y B a su vez causa A, es decir, el efecto influye a su vez sobre la causa, como resultado de los cual ambos acontecimientos son a la vez causas y efectos.

Se trata de los llamados circuitos de retroalimentación, que pueden ser negativos o positivos.
La teoría del caos, en la medida en que considera que existen procesos aleatorios, adopta la segunda postura (eventos independientes), pero en la medida en que reconoce que otros procesos no son caóticos sino ordenados, sostiene que existen vínculos causales, de los cuales los que más desarrollará son los circuitos de retroalimentación positiva, es decir, aquellos donde se verifica una amplificación de las desviaciones.

Las alternativas de la relación causa efecto podrían ser las siguientes:

• Causas y efectos son razonablemente proporcionales

• Una causa pequeña produce un gran efecto.

• Una causa grande produce un pequeño efecto.

El sentido común prescribe una cierta proporción entre la causa y el efecto: una fuerza pequeña produce un movimiento pequeño, y una fuerza grande, un gran desplazamiento. Sin embargo, ciertas experiencias cotidianas y determinados planteos científicos nos obligan a considerar la posibilidad de algunas excepciones. Examinemos algunos ejemplos de desproporción cuantitativa -aparente o no- entre causas y efectos:

• Efecto palanca: Un simple movimiento de palanca es una causa pequeña, pero puede producir grandes efectos.

• Efecto gota de agua: Una gota más que agreguemos en la tortura china de la gota de agua producirá la insania de quien la recibe.

• Efecto interacción experimental: Donde la acción conjunta de dos variables, lejos de producir un simple efecto sumativo, pueden generar un efecto inesperadamente mayor (o menor).

• Los fenómenos de cismogénesis: descritos por Gregory Bateson, y las escaladas simétricas o las "escapadas" mencionadas por Paul Watzlawick , todos fenómenos interpretables en términos de mecanismos de retroalimentación positiva.

• Mecanismos amplificadores: Von Bertalanffy, el mentor de la Teoría General de los Sistemas, describe la existencia de mecanismos amplificadores donde pequeñas causas generan grandes efectos. Al respecto, cita una distinción entre causalidad de "conservación", donde hay una proporcionalidad razonable entre las intensidades de la causa y el efecto, y la causalidad de "instigación", donde la causa actúa como instigadora o disparadora, es decir, un cambio energéticamente insignificante provoca un cambio considerable en el sistema total.

• Series complementarias: Hemos ya citado un ejemplo donde un factor desencadenante pequeño puede desatar clínicamente una psicosis o una neurosis, o puede sumir a una persona en una profunda crisis.

• La conversión masa-energía: Según lo prescribe el principio de equivalencia masas-energía de Einstein, una pequeñísima porción de masa, bajo ciertas condiciones puede liberar enormes cantidades de energía.

• Efecto mariposa.- "El aleteo de una mariposa que vuela en la China puede producir un mes después un huracán en Texas.

Tales categorías de fenómenos tienen tres aspectos susceptibles de ser analizados separadamente:

1. Situación donde pequeñas causas generan grandes efectos.

2. Una situación que no podemos predecir: sabemos que el efecto puede ser muy grande, pero no podemos saber en qué consistirá, ni muchas veces cuándo, dónde o cómo ocurrirá.

3. Una situación de descontrol: muchas veces no podemos ejercer un control de la influencia de la causa sobre el efecto.

En lo esencial, la teoría del caos sostiene que la realidad es una "mezcla" de desorden y orden, y que el universo funciona de tal modo que del caos nacen nuevas estructuras, llamadas estructuras "disipativas", propone para el universo un ciclo de orden, desorden, orden, etc., de forma tal que uno lleva al otro y así sucesivamente tal vez en forma indefinida.

En relación con las ideas de orden y caos, en principio y más allá de las respuestas de Prigogine, pueden plantearse varios interrogantes:

¿En el universo hay orden en vez de caos?

¿Hay caos en vez de orden?

¿Hay un orden oculto tras el caos aparente?

¿Hay un caos oculto tras el aparente orden?

¿Cómo del orden se pasa al caos?

¿Cómo del caos se pasa al orden?

La física se ha manejado tradicionalmente con un principio filosófico bastante simple: "lo que es, sigue siendo, mientras no haya motivos para que deje de ser lo que es". En éste caso, para la teoría determinista, se considera que un sistema tiende a permanecer en equilibrio si no hay ningún agente desequilibrante, y aún, cuando lo haya, el sistema evolucionará espontáneamente de nuevo hacia el estado de equilibrio.

Para la teoría del caos, mientras el sistema va caotizándose cada vez más, llega un momento en que alcanza lo que Prigogine denomina el “punto de bifurcación”, que es un punto donde el sistema puede evolucionar hacia una de dos posibilidades:

a. Retorna al estado de equilibrio original, tal cual lo prevé la termodinámica clásica.

b. Al dejar de caotizarse, empieza a auto-ordenarse o auto-organizarse hasta constituir una nueva estructura, denominada estructura “disipativa” o “dispersiva”, debido a que consume mayor cantidad de energía que la organización anterior a la cual reemplazó.

La afirmación que del caos nace el orden puede generalizarse mediante los siguientes ejemplos:

• El universo nació de un caos inicial y generó un mundo organizado de galaxias.

• De la actividad desordenada de las moléculas nació la vida.

• La llegada caótica de muchos estímulos, cuando observamos una figura poco estructurada, son organizados por nuestra percepción en una estructura.

• De la actividad desordenada de muchos individuos nace el orden social y el progreso económico.

Según Prigogine cuando se empuja al sistema más allá de sus límites de equilibrio proliferan estos circuitos de retroalimentación positiva.

Es la irreversibilidad la que hace posible cosas que serían imposibles en estado de equilibrio, provee una importante ley constructiva, la del origen de la vida y de sus estructuras derivadas altamente complejas y sofisticadas, como el cerebro o la sociedad.

Para que surja una nueva estructura más compleja, una condición necesaria es que haya un estado inicial en el punto de bifurcación, por ejemplo un pequeño acontecimiento que luego, por retroalimentación positiva, genere grandes consecuencias.

Este proceso de retroalimentación es la condición suficiente, porque por sí sola, la condición inicial no puede hacer nada. Prigogine destaca el hecho de este acontecimiento inicial, muchas veces insignificante, ¡se produce por azar!.

La realidad no es entonces ni puramente determinada ni puramente gobernada por el azar. Hay algunos fenómenos a los que a grandes rasgos puede aplicarse el esquema determinista, como el movimiento de la tierra en torno al sol, pero en otros hay una mezcla de determinismo y probabilidad o azar, como en la evolución de un ser humano, de una sociedad, del clima terrestre, etc. Para Prigogine, un problema de la ciencia actual es precisamente determinar cuánto hay de determinismo y cuánto de azar en los fenómenos que estudiamos. Puesto que ambos elementos están siempre presentes en mayor o menor medida, las predicciones ya no pueden ser absolutas sino probabilísticas, y ello no por nuestra incompetencia o ignorancia sino porque la misma realidad tiene de por sí esa mezcla.

4.5       La complejidad

Edgar Morin nos ofrece una primera aproximación a la complejidad: "A primera vista la complejidad es un tejido (complexus: lo que está tejido en su conjunto) de constituyentes heterogéneos inseparablemente asociados: presenta la paradoja de lo uno y lo multiple." La complejidad se presenta con los rasgos inquietantes de lo enredado,y muestra emparejados orden y caos.

Morin plantea la Complejidad en conjunción dos términos que parecen autoexcluirse, pero que, a poco que volvamos sobre nosotros mismos los encontramos muy íntimamente entrelazados. En la vida cotidiana cada uno juega varios roles sociales, cada ser tiene una multiplicidad de personalidades en sí mismo, un mundo de fantasmas y sueños que acompañan su vida.

La vida humana no se somete a ninguna ley o principio que pueda imponer el Paradigma de la Simplicidad, que pone Orden en el Universo y persigue todo tipo de Desorden y Caos. La Simplicidad, que o bien separa lo unido, o bien unifica lo que es diverso, nos presenta la pareja Disyunción/Reducción, frente a la que se opone con energía el dúo de la complejidad: Orden y Caos. Diversas patologías afectan al pensamiento moderno: la hiper-simplificación que ciega al espíritu a la complejidad de lo real; el idealismo, donde la idea oculta a la realidad que pretende traducir; el dogmatismo, que encierra a la teoría en sí misma, la racionalización que encierra lo real en un sistema coherente.

"Estas cegueras son parte de nuestra barbarie. Estamos siempre en la prehistoria del espíritu humano. Solo el pensamiento complejo nos permitirá civilizar nuestro conocimiento." Volviendo a nosotros otra vez, somos seres biológicos, pero no solo eso, también somos seres culturales, meta-biológicos, que vivimos en un universo de lenguaje, de ideas y de conciencia, y también somos seres físico-químicos compuestos de elementos que se comunican entre sí, sin que nosotros tengamos conciencia de esa comunicación.

Cuando amamos biológicamente, nuestros genes buscan su perpetuación, su difusión; cuando amamos culturalmente, perseguimos un ideal que ha sido amasado en nosotros a través de la educación (o como reacción a ella); si amamos químicamente, nuestras glándulas liberan sustancias que excitan y atraen a otras glándulas que se nos acercan; amamos también inconscientemente, nuestros instintos buscan aliviar tensiones producidas por nuestras pulsiones, y por último, amamos sin saber porque amamos. Así, comprobamos como nosotros mismos podemos ser múltiples siendo únicos como somos.

Valdría esta frase de Pascal para ilustrar la inseparabilidad que afecta a todo aquello con lo que nos enfrentamos, a todo lo que se nos presenta de forma compleja: "Siendo todas las cosas causadas y causantes, ayudadas y ayudantes, mediatas e inmediatas, y relacionándose todas por un vínculo natural e insensible que vincula a las más alejadas y a las más distintas, considero imposible conocer las partes sin conocer el todo, y también conocer el todo sin conocer las partes."

Nos encontramos con que ya no hay un fundamento único o último para el conocimiento, "en un universo donde Caos, desordenes y azares nos obligan a negociar con las incertidumbres". Aunque el reconocimiento de no poder encontrar certidumbre allí donde no la hay, constituye ya de por sí una certidumbre.

La aceptación de la confusión puede convertirse en un medio para resistir a la simplificación mutiladora. Nos falta un método en el comienzo, pero podemos disponer de un a-método en el que la ignorancia, incertidumbre, confusión, se convierten en virtudes. Nuestra expuesta pretensión de no renunciar al todo y a las partes parece convertirse en una empresa imposible, deviene un circulo vicioso, atenazado por la imposibilidad lógica, la imposibilidad del saber enciclopédico y por la renuncia omnipotente del principio de disyunción y la ausencia de un nuevo principio de organización del saber.

Nos las tenemos entonces con "un círculo vicioso de amplitud enciclopédica que no dispone ni de principio, ni de método para organizarse." Un círculo que nos atrapa, que nos devora como si fuéramos la serpiente Uro-boros. Sólo podemos conservar la circularidad, engarzarnos en el círculo para no ser inscritos por él. La pretensión de eliminar las contradicciones, las antinomias, se demuestra ilusoria. Querer romper la circularidad nos lleva a caer de nuevo bajo el principio de disyunción/reducción.

Conservar la circularidad es "respetar las condiciones objetivas del conocimiento humano", que conlleva siempre paradoja e incertidumbre. La circularidad nos permite un conocimiento que reflexiona sobre sí mismo, transformando el círculo vicioso en círculo virtuoso. Hay que velar, como nos recuerda Morin, por no apartarse de la circularidad: "El círculo será nuestra rueda, nuestra ruta será espiral". La insuperable pretensión del enciclopedismo no debe ser tomada en términos puramente acumulativos, se trata ahora de poner el saber en ciclo, articular lo que esta disociado y debería estar fundamentalmente junto. Necesitamos reaprender a aprender, constituyendo "un principio organizador del conocimiento que asocia a la descripción del objeto, la descripción de la descripción, y el desenterramiento del descriptor. Nos encontramos ante el nacimiento de un nuevo paradigma: el Paradigma de la Complejidad, que se empieza a gestar en las crisis que afectan al conocimiento en nuestro siglo. Un Paradigma que acepta "que el único conocimiento que vale es aquel que se nutre de incertidumbre y que el único pensamiento que vive es aquel que se mantiene a la temperatura de su propia destrucción."

El mundo físico nos ofrece un ejemplo de cohabitación entre Orden y Caos. Así las estrellas, son a la vez formidables máquinas de relojería - producen Orden, Organización - son Cosmos, y también son auténtico Caos: son fuego ardiendo en una autoconsumición insensata, se crean, se autoorganizan en la temperatura misma de su destrucción, viven en la catástrofe continua. También podríamos decir esto de algo más cercano a nosotros, de nosotros mismos, otra vez Caos y Orden, otra vez resultamos complejos. El Caos que se gesta en las estrellas produce interacciones, que, a su vez, permiten los encuentros que se traducen en Organización: los átomos. La relación Caos/Interacción/Organización/Orden está presente en todos los fenómenos complejos, se convierte en Tetrálogo. El Orden y el Desorden se coproducen mutuamente, se necesitan; mantienen una relación solidaria, una relación que es genésica. Y la genesis no ha cesado, seguimos estando en la nube que se dilata, en un universo que sigue en expansión. La complejidad surge en las ciencias físicas, paradójicamente las más reductoras, y precisamente por eso mismo.

El 2º principio de la Termodinámica, el universo en expansión de Hubble, la Teoría de la Relatividad, constituyen algunas de las fisuras a través de las que la complejidad se abre paso en el mundo físico, son las puertas por las que entran los conceptos de Caos, de Organización, de Expansión que convierten en ruinas lo que se había creído un edificio sólido. Y tras estas ruinas, nos encontramos con que toda observación, todo conocimiento, es siempre relativo a un observador, a un sujeto que conceptúa. Un observador que no es un ente puro, y que no puede desasirse de sus condicionamientos bio-antropológicos, culturales, psicológicos; de nuevo, como no, otra vez, nosotros mismos. Así se presenta la necesidad de articular la física a la antropo-sociología, intentando construir un círculo virtuoso, siguiendo una ruta compleja, una ruta espiral. La Complejidad de lo real necesita ser pensada a través de macro-conceptos, necesitamos pensar mediante "constelación y solidaridad de conceptos."

La Complejidad es el desafío, no la respuesta. El paradigma de la complejidad es una empresa que se está gestando, que vendrá de la mano de nuevos conceptos, de nuevas visiones, de nuevos descubrimientos, y de nuevas reflexiones que se conectaran y reunirán. Es una apertura teórica, una teoría abierta que requiere de nuestro esfuerzo para elaborarse. Que requiere lo más simple y lo más difícil: "cambiar las bases de partida del razonamiento, las relaciones asociativas y repulsivas entre algunos conceptos iniciales, pero de las cuales depende toda la estructura del razonamiento, todos los desarrollos discursivos posibles".


4.6       La aleatoriedad objetiva ante la teoría del caos

En oposición a los científicos que son deterministas hasta la médula, hay otro segmento de investigadores que desde los años 50’s consideran que la aleatoriedad sí es una cualidad real e inherente a los fenómenos del universo, una cualidad que existe de forma objetiva en la realidad circundante, independientemente del estado de conocimiento del sujeto investigador. Con fundamento en los postulados de la Mecánica Cuántica y la Teoría de la Relatividad, estos científicos llegan a la conclusión de que en el universo existen demasiados fenómenos cuyo comportamiento es aleatorio, fluctuante, indeterminado, discontinuo, sin que los avances de la ciencia puedan desentrañar sus misterios para brindar una explicación determinista, caso en el cual sólo cabe reconocer que en tales fenómenos la aleatoriedad está presente como una cualidad objetiva inherente de su esencia.

Los aportes de estos científicos han dado forma a la denominada «Teoría del Caos», teoría según la cual por más que el científico determinista se esfuerce en controlar todas las condiciones, las variables y hasta los más mínimos detalles de un experimento, siempre existirán variables fragmentarias y fenómenos corpusculares que escaparán a todo control científico produciendo grados infinitesimales de aleatoriedad en el comportamiento del experimento, alterando así permanentemente su resultado final de forma impredecible.

El ejemplo clásico mencionado por estos teóricos se refiere a un experimento realizado en el ambiente aséptico y cerrado de un laboratorio, en el cual sobre una mesa se ha colocado una lámina de vidrio inclinada a 45 grados de declive, lámina sobre la que cada 20 segundos cae una gota de agua que resbala a lo largo del vidrio debido a la fuerza de gravedad, hasta que llega a un determinado punto final en el que la gota es recolectada. Respecto de este experimento se afirma que aunque el dosificador de las gotas de agua esté totalmente calibrado, aunque la temperatura y la presión atmosférica dentro del laboratorio estén controladas, aunque cualquier corriente de aire esté suprimida, y aunque parezca que las gotas siempre resbalan siguiendo el mismo camino descendente sobre el vidrio, en realidad en cada ocasión el resultado del experimento no es exactamente el mismo, ya que cada gota de agua es única y no se parece a las demás en cuanto a su tamaño, su forma o su composición, también cada gota impacta contra el vidrio de manera diferente dispersándose en diversas partículas al golpearlo, además la superficie del vidrio tiene microscópicos corpúsculos cristalinos que siempre alterarán por cuestión de micrones el trayecto descendente que sigue cada gota de agua en su caída, también cada gota al resbalar deja sobre el vidrio un imperceptible rastro de humedad que altera infinitesimalmente el deslizamiento de la siguiente gota que cae, adicionalmente a cada segundo el planeta Tierra es influenciado por las fuerzas de atracción gravitacional ejercidas por la luna o por el sol o por los otros planetas del sistema solar y tales fuerzas de atracción gravitacional a cada segundo también actúan minúsculamente en la dinámica que sigue cada gota de agua al caer alterando su trayectoria, etc.

En otras palabras, para los exponentes de la Teoría del Caos ni los experimentos de laboratorio ni las simplificaciones matemáticas de la realidad ni los modelos de simulación computacional son plenamente exactos, pues prácticamente cada evento ocurrido en el universo es «único e irrepetible», y en cada evento intervienen muchos procesos y variables que no son totalmente cuantificables ni son siempre los mismos, y aún en las fórmulas matemáticas más complejas elaboradas por la ciencia determinista para representar los fenómenos de la Naturaleza no siempre estarán incluidas todas aquellas variables que pueden ocasionar resultados cambiantes en la ocurrencia futura de un evento. En síntesis, los científicos deterministas se engañan cuando creen que al realizar una y otra vez un experimento de laboratorio obtienen siempre el mismo resultado dentro de una relación total de causas a efectos, porque en realidad los resultados obtenidos en cada ocasión no son los mismos, ya que en cada ensayo realizado influyen de forma caótica los fenómenos corpusculares alterando el resultado final de manera impredecible, influencia aleatoria que ocurre de forma ajena a la voluntad y al estado de conocimiento del sujeto investigador.

Contra la opinión de los científicos deterministas que tienen fe en lograr un conocimiento total del universo mediante la realización de experimentos, los partidarios de la Teoría del Caos (también denominados «Caólogos») consideran que en todo experimento de laboratorio cada ensayo realizado es único e irrepetible, por lo tanto se comete un error científico cuando a partir de esos ensayos se formulan leyes de la Naturaleza bajo la pretensión de que son absolutamente ciertas, generales e infalibles. En cada ensayo de laboratorio que se realiza siempre influyen diversas causas objetivas que escapan al control absoluto que sobre el experimento pretende ejercer el investigador, por lo tanto en cada ensayo realizado simplemente se obtienen resultados que se aproximan a un determinado valor central, desviaciones que precisamente son originadas porque la materia no se comporta como un referente determinista absoluto sino que en verdad es una amalgama formada por las oscilaciones de partículas que vibran entre el determinismo y el indeterminismo. En la imagen superior se observa que en el experimento cada gota aparentemente cae y resbala sobre el vidrio siguiendo un mismo patrón repetitivo sometido a total control de laboratorio, pero si se prestase atención a la influencia ejercida por los fenómenos minúsculos o corpusculares, se descubre que cada gota de agua en verdad es única en su forma, que cada gota impacta contra la lámina de vidrio de manera distinta, que tanto el dosificador del agua como la lámina de vidrio van acumulando pequeñas moléculas de agua que alteran el movimiento de la siguiente gota que cae, que las moléculas de cristal de la lámina de vidrio tienen distintas configuraciones atómicas que reaccionan de manera diferente al contacto con las moléculas de agua alterando el desplazamiento de cada gota, etc. Y de nada serviría limpiar el dosificador y la lámina de cristal cada vez que ha caído una gota, porque al hacerlo simplemente se alteraría a nivel corpuscular la textura de ambos instrumentos y esto volvería a generar influencias impredecibles e infinitesimales en el trayecto de la siguiente gota.

Es por eso que para los partidarios de la Teoría del Caos por más avances y descubrimientos que haga la ciencia siempre quedará por fuera de su alcance una cantidad importante de información que no es computable, que alude a relaciones impensables e inimaginables entre los fenómenos de la Naturaleza, que no se puede usar fácilmente en modelos de simulación para hacer predicciones deterministas, lo que ha dado lugar al surgimiento del concepto de «Entropía», que es ampliamente usado en la estadística, en la informática o en las matemáticas, y que alude a la existencia en todo sistema de una cantidad de información subyacente que no es computable ni mensurable y que en cierta medida representa la aleatoriedad generada por el mismo universo y cuya comprensión absoluta escapa a las leyes exactas que definen el funcionamiento del sistema.

Los partidarios de la Teoría del Caos también sostienen que existen diferentes evidencias de que la aleatoriedad es una cualidad inherente y objetiva a la esencia del universo, tal como ya se vislumbraba dentro de los postulados teóricos y experimentales de la Mecánica Cuántica y de la Teoría de la Relatividad. El solo mundo de las matemáticas ofrece diversos ejemplos de teoremas, fórmulas y proporciones que conducen a resultados que en sí mismos están formados por una estructura aleatoria. Por ejemplo, si se piensa en la totalidad de los dígitos que conforman la secuencia del conocido número Pi (Π), hoy se sabe, gracias al uso de potentes computadoras, que en este número después de la coma sigue una serie infinita de dígitos que no revelan un patrón discernible, o una frecuencia periódica, o una regresión o una tendencia evidente: Π = 3,1415926535897932384626433832795 …∞. Si la ciencia determinista a menudo tiene que trabajar usando en sus cálculos este tipo de números irracionales que en su misma estructura son aleatorios, entonces es absurdo predicar que en la ciencia determinista rige la más absoluta precisión, porque en verdad lo único que impera en esta ciencia son aproximaciones cada vez más cercanas a los verdaderos valores del universo sin llegar a la precisión absoluta.

La Mecánica Cuántica también revela que la Aleatoriedad existe autónomamente y de manera natural en el universo, lo cual se puede observar en el fenómeno espontáneo de la desintegración atómica de los elementos radioactivos inestables (como el Uranio-234, el Polonio-218, el Protactinio-234, el Actinio, el Torio-234, etc.), ya que ante este fenómeno físico se puede predecir con gran exactitud el número de núcleos de un cuerpo radioactivo que se desintegrará dentro de un determinado periodo de tiempo (con base en la «vida media» del material radioactivo), pero no se puede predecir con total exactitud en qué momento se desintegrará cada uno de esos núcleos atómicos. La desintegración de cada núcleo de un átomo radioactivo, liberando sus partículas hacia el espacio, ocurre de manera natural y espontánea, sin ninguna influencia externa, pero ese proceso físico no sigue ningún patrón matemático, no responde a una frecuencia repetitiva, no se ciñe a una tendencia o a un ritmo naturalmente determinado que pueda ser reducido a una precisa ecuación matemática o a un modelo de simulación que permita calcular en qué momento volverá a desintegrarse un nuevo núcleo.

Por ese motivo se afirma que el mejor aparato para generar verdaderas secuencias de números aleatorios se puede construir colocando una pieza de cualquier material radioactivo cerca de un contador Geiger‑Müller, y luego ese contador se puede conectar a un computador que en el monitor mostrará los diversos resultados numéricos correspondientes a los momentos exactos cronometrados en que se va produciendo la constante y azarosa dispersión de las partículas de ese material radioactivo, y fácilmente se constatará que esa secuencia de números originada a partir de un fenómeno meramente natural no refleja ninguna tendencia, frecuencia, regresión o repetición, siendo totalmente aleatoria e impredecible su generación.


4.7       La probabilidad fractal y el posible orden oculto en información de apariencia aleatoria

Pero los seguidores de la Teoría del Caos van mucho más allá, pues no sólo consideran que se debe reconocer la aleatoriedad como una cualidad objetiva e inherente a los fenómenos de la Naturaleza que afecta la supuesta precisión y repetición idéntica de las mediciones experimentales realizadas por los científicos deterministas, sino que además afirman que esa aleatoriedad en todo caso se rige por ciertos límites cuantificables, por ciertos principios de orden matemático y geométrico que sobresalen en medio del aparente caos, principios los cuales paulatinamente pueden llegar a ser conocidos y estudiados a profundidad, labor en la cual han puesto su empeño en los últimas décadas hasta dar origen a la denominada «Probabilidad Fractal». Este es un naciente campo del conocimiento que hasta ahora está tomando cuerpo y que promete resultados grandiosos en las más variadas áreas de la ciencia, pero mientras eso ocurre por el momento es suficiente con señalar algunos antecedentes básicos sobre el origen de esta herramienta matemática.

Así, el desarrollo de la teoría de la Probabilidad Fractal inicia con la publicación de las obras tituladas The wave principle (1938) y Nature's law − The secret of the universe (1946), escritas por el contador norteamericano Ralph Nelson Elliot (1871−1948), obras en las cuales a partir de la aplicación de los números de la Sucesión Fibonacci y la Proporción Áurea se afirma que las fluctuaciones aparentemente aleatorias que ocurren en el mercado de valores en verdad se desarrollan dentro de ciertos límites o ciclos cuyos ritmos de ocurrencia pueden ser proyectados, es decir, habría cierto vestigio de orden en medio de las impredecibles subidas y bajadas de los precios de los valores transados en los mercados. Durante los años 50’s, 60’s y 70’s diversos investigadores recolectaron estadísticas económicas sobre las fluctuaciones de los valores transados en Wall Street y en otras bolsas del mundo, y así paulatinamente se comenzó a verificar que en medio de las caóticas transacciones realizadas en el mercado por una multitud de oferentes y demandantes que actúan siguiendo sus propios intereses particulares, se percibe globalmente cierto ritmo, cierta regularidad, ciertas regresiones, ciertos patrones regidos por la Sucesión Fibonacci y por la Proporción Áurea que permiten proyectar la futura subida o bajada del precio de los valores transados, y desde entonces los principios señalados por Ralph Nelson Elliot comenzaron a ser investigados seriamente por los científicos y a generar una serie de experimentos y escritos por parte de profesores de Harvard, Boston, Yale, Princeton, UCLA y por consultores de Merrill Lynch, JP Morgan Chase, Standard & Poor’s, etc.










Las investigaciones de Ralph Nelson Elliot fueron las primeras en encontrar mediante registros estadísticos ciertos patrones de orden que imperan en medio del caos de las transacciones de valores en los mercados. La línea quebrada superior de la imagen representa una serie de subidas y bajadas en el precio de un valor en la bolsa, línea que a primera vista simplemente representa la ocurrencia de una serie de fluctuaciones impredecibles. Sin embargo, como lo muestra la línea quebrada de la mitad, si cada segmento conformado por una línea de subida y una línea de bajada de la línea quebrada superior es descompuesto en tendencias más simples, se descubre que cada subida está formada por 5 momentos y cada bajada por 3 momentos para un total de 8 momentos por segmento, y además se descubre que la forma de este segmento de subida y bajada es igual a menor escala que toda la forma de la línea quebrada superior. A su vez, como lo muestra la línea quebrada inferior, si cada segmento de subida y bajada de la línea quebrada de la mitad es descompuesto en tendencias aún más simples, se sigue observando que cada subida está conformada por 5 momentos y cada bajada por 3 momentos, de tal formar que al tener en cuenta todos los picos de la tendencia mayor se descubre que las subidas del precio atraviesan por 21 momentos y las bajadas del precio atraviesan por 13 momentos para un total de 34 momentos por ciclo. Los números de la Sucesión Fibonacci (1, 2, 3, 5, 8, 13, 21, 34,… etc.) juegan un papel crucial en la obra de Elliot, pues estos números delimitan las tendencias de subida y bajada de los precios de los valores del mercado.
En la obra de Elliot ya se anticipa la teoría de los «fractales», pues según sus análisis, las fluctuaciones de los precios en el mercado inician mediante una tendencia simple que adopta cierto patrón de momentos, y luego esa tendencia de alguna manera se autorepite una y otra vez formando ciclos de mayor escala pero conservando los lineamientos de su forma básica, hasta que el resultado final es una tendencia general aparentemente fortuita surgida a partir de la interacción caótica e individualista de los miles de oferentes y demandantes que concurren al mercado.

En 1975 el matemático Benoit Mandelbrot publicó su obra titulada The fractal geometry of nature, en la cual parte del supuesto de que el universo está regido por una especie de «compleja irregularidad controlada», ya que para Mandelbrot la materia visible no tiene una estructura tan simple como siempre se ha creído, pues las nubes que vemos no son simples esferas de vapor, las montañas no son simples conos o pirámides de roca, las costas no son semi‑círculos de arena, los cristales no tienen superficies perfectamente planas, un rayo de luz no viaja en línea recta, etc., ya que en los fenómenos de la Naturaleza surgidos de procesos aleatorios ocurridos a lo largo del espacio y del tiempo realmente impera una curiosa complejidad armónica que está representada por la estructura de los «Fractales».

Según Mandelbrot, se denomina fractales a un conjunto de figuras geométricas que son generadas y agrupadas por un proceso de repetición, de tal modo que la figura geométrica final resultante se caracteriza por poseer a toda escala el mismo detalle de su figura básica, por tener además longitud infinita hacia lo microscópico y lo macroscópico, por no ser diferenciable en sus partes componentes y por exhibir una dimensión fraccional. En otras palabras, y usando términos más simples, un fractal es una figura geométrica que siempre mantiene su misma forma si se le agrupa con otras figuras geométricas repetitivas similares que amplían su escala infinitamente, siendo el mejor ejemplo gráfico las famosas «muñecas rusas» que están formadas por una muñeca grande en cuyo interior hay otra muñeca idéntica pero de menor tamaño, y a su vez dentro de ésta hay otra muñeca similar pero de tamaño aún menor, y así sucesivamente, de tal forma que al pasar de una muñeca a la otra se está cambiando de escala pero la misma forma geométrica de la muñeca original se mantiene constante en la composición y estructura del conjunto.
Inicialmente Mandelbrot y otros investigadores que trabajan dentro de la misma línea teórica descubrieron estructuras fractales en la materia inorgánica, como ocurre en ciertas moléculas de cristales, en la forma que adopta el polvo que se amontona, en la forma como se difunde el esmog, en los depósitos de polímeros, en la forma de los copos de nieve o en la forma que asume la ruptura de un material, etc. Luego descubrieron fractales en la materia viva, como ocurre en la forma de los vasos capilares, los tubos intestinales, las redes neuronales, las pequeñas estructuras pulmonares, la forma de la concha de los caracoles, el patrón repetitivo en la ramificación de árboles, helechos, brócolis, flores o plumas de aves, etc. Después también se descubrieron fractales en los resultados observables de procesos muy complejos y fortuitos de la Naturaleza que han ocurrido a lo largo del tiempo, como sucede con la forma de los ríos, las costas, las montañas, los lagos o las depresiones que son resultantes de la erosión, el viento, las fallas geológicas o el movimiento de las placas tectónicas, etc. También se han descubierto fractales en los resultados observables de ciertos procesos aparentemente caóticos que son llevados a cabo directamente por los seres humanos, como ocurre con las fluctuaciones de los precios en los mercados bursátiles, la forma específica como crecen y se organizan las ciudades, la dinámica que siguen los sistemas organizativos creados por el hombre para atender diferentes labores sociales (escuelas, fábricas, empresas, entes gubernamentales), la periódica ocurrencia de las guerras, las fluctuaciones de las migraciones, etc. Y finalmente, en la actualidad se desarrollan investigaciones de todo tipo que anuncian el descubrimiento de estructuras fractales en casi todos los fenómenos de la realidad, ya se trate de los cambios meteorológicos, la distribución de los epicentros de los terremotos en la Tierra, las formas que asumen las turbulencias de aire, la ocurrencia de las interferencias en la señales de radio, la estructura de las ramificaciones que siguió la evolución de las especies, la regularidad de ciertas catástrofes naturales, el funcionamiento que tiende a asumir un sistema informático cuando es alimentado por cierta información inicial, la forma como fluye la información entre los nodos de la red de redes Internet, la ocurrencia aparentemente imprevista de los ataques de epilepsia, la forma aleatoria como se expande una epidemia entre la población, la diversidad de relaciones fortuitas que se dan entre diversos sistemas dinámicos sociales o naturales que se influyen mutuamente, la forma como se agrupan las estrellas dentro de una galaxia y la forma como a su vez se distribuyen las galaxias en el espacio, etc.

Benoit Mandelbrot dio forma a la Teoría del Caos mediante el concepto fundamental de los «Fractales». Desde entonces numerosas investigaciones han encontrado que los fractales rigen todos los fenómenos del universo, tanto los que aparentemente son simples y regulares como los más complejos y aleatorios. Parece que el universo es aficionado a usar ciertas formas geométricas básicas y las reproduce una y otra vez agrupándolas en determinada disposición, de tal forma que el resultado final a mayor escala es autosemejante a la forma de su estructura básica a menor escala. Esto se aprecia muy bien en los helechos donde cada pequeña ramificación se junta al lado de otras semejantes de tal forma que la estructura mayor es totalmente semejante a sus componentes menores. En los caracoles cada segmento de la concha reproduce en mayor escala las mismas proporciones del segmento que le antecede, y además todos los segmentos siguen una misma orientación geométrica formando una espiral perfecta. Muchas montañas han sido estudiadas y se ha concluido que su forma general está constituida por rocas cuyas estructuras geométricas mínimas tienen la misma forma global de la montaña pero a menor escala, y a su vez tales rocas están conformadas por otras placas de menor tamaño que siguen manteniendo la forma general de la montaña pero a escala cada vez más reducida. Cuando se analiza detenidamente un rayo durante una tormenta, se descubre que cada ramificación eléctrica tiene la misma forma general de todo el rayo pero a menor escala, y lo mismo ocurre con cada subsiguiente ramificación, repitiéndose de manera fractal el mismo esquema. En la astrofísica se sabe que el átomo está conformado por un núcleo en torno del cual giran los electrones, y el mismo esquema es repetido por toda la materia que gira y se agrupa en torno de un núcleo hasta formar los planetas y a su vez los planetas giran en torno de un sol formando a mayor escala el sistema solar, y a su vez los sistemas solares giran y se agrupan en torno de un potente centro gravitacional formando una galaxia, y las galaxias aunque se alejan a través del espacio‑tiempo en expansión parecen también girar en torno de algo mucho mayor, y así sucesivamente hasta la escala infinita. Una imagen fractal del universo es la que paulatinamente ha comenzado a imponerse en las últimas décadas, y la Probabilidad Fractal se anuncia como la nueva herramienta matemática para soportar los novedosos estudios que explican el funcionamiento de este nuevo modelo ideal de la realidad.

En síntesis, dentro de la Teoría del Caos mediante el uso de los fractales se ha llegado a formular la posibilidad de conocer con precisión ciertos patrones geométricos o cíclicos que rigen la ocurrencia de los fenómenos más complejos, fortuitos o aleatorios del universo, y si matemáticamente existe la convicción debidamente valorada de que esos patrones de orden seguirán imperando en el caos sin desaparecer rápidamente a lo largo del tiempo, entonces basta aplicar el cálculo de probabilidades para proyectar de qué manera ese patrón fractal seguirá influyendo en la ocurrencia del fenómeno aleatorio. La Teoría del Caos se presenta entonces como la «ciencia de la totalidad», como una ciencia que admite que la realidad está regida por las más intrincadas combinaciones y relaciones que se dan entre el determinismo y el indeterminismo, entre la continuidad y la discontinuidad, entre la regularidad y lo irregular, y por tanto está nueva ciencia requiere una Teoría de la Probabilidad que no esté limitada a considerar los fenómenos como si sólo fueran deterministas relaciones de causas a efectos, sino que además los debe considerar como una amalgama de determinismo e indeterminismo, todo lo cual confluye en la denominada Probabilidad Fractal que actualmente se encuentra en pleno desarrollo.


4.8       El efecto mariposa o las insospechadas conexiones entre hechos distantes

Para los caólogos todos los elementos y sistemas del universo están conectados entre sí de forma holística, de forma inimaginable, de forma imprevisible, de tal manera que simultáneamente todos son a su vez causa y efecto de otros innumerables eventos que aparentemente no tienen relación y que ocurren sin seguir un orden racional, lógico o un objetivo claro o un propósito predeterminado. Por ejemplo, a la luz de estas premisas no tendría nada de extraño que el simple aleteo de una pequeña mariposa en lo profundo de la selva amazónica pudiera influir caóticamente sobre otros eventos, sistemas y procesos naturales muy cercanos que están en curso, desencadenando así toda una serie de intrincados sucesos holísticamente conectados entre sí, que finalmente al otro lado del mundo producen como resultado un gran tifón que azota e inunda las costas de Japón (el denominado «Efecto Mariposa»).  

Y no hay nada de absurdo en estas suposiciones, pues a diario somos testigos de esas «insospechadas conexiones causales» existentes entre diversos eventos separados en el tiempo y en el espacio que determinan la ocurrencia aleatoria de nuevos sucesos que afectan la marcha de innumerables procesos naturales. Por ejemplo, hace 300 millones de años se extinguieron numerosos animales marinos y plantas terrestres formando enormes depósitos de materia orgánica en descomposición que luego darían origen a la formación de yacimientos de petróleo y de carbón, y ante este hecho imprevisible de la naturaleza cabe preguntar: ¿Quién podría haber construido un perfecto modelo de simulación a la luz de la ciencia determinista, que previera que millones de años más adelante los seres humanos, al evolucionar y dominar el mundo, explotarían esos combustibles fósiles produciendo la contaminación de la atmósfera y originando el calentamiento global del planeta, fenómenos que a su vez conducirían a una nueva extinción de casi toda la vida existente sobre la Tierra?. En otras palabras, nadie podría construir un perfecto modelo de simulación que permitiera predecir con total exactitud que la efímera agonía de un alga acuática, ocurrida hace 300 millones de años, estaría necesariamente conectada al desencadenamiento de una serie de eventos que 300 millones de años después llevaría a la extinción masiva de otras especies vivientes más evolucionadas. 
Del mismo modo, todos conocemos a muchas personas que siguen el mismo patrón de comportamiento de «Mr. Alzheimer», quien un día montó apresuradamente en su carro para ir al supermercado a comprar una simple bolsa de pan que había olvidado llevar a su casa en las compras que efectúa semanalmente. Lo que no es capaz de imaginar Mr. Alzheimer al seguir este patrón de conducta, es que los 60 metros cúbicos de humo y gases que produjo el motor de su automóvil durante ese trayecto inevitablemente ascienden al cielo y se mezclan con millones de toneladas de humo y gases producidos por otros automóviles o chimeneas de las fábricas, a tal punto que esa gran capa negruzca de aire contaminado luego se moviliza sobre el Océano Atlántico impidiendo que los rayos del sol lleguen a la superficie de sus aguas para calentarlas, y como resultado no se generan las suficientes nubes cargadas de lluvia que sean capaces de penetrar en el continente africano, lo que ocasiona un largo periodo de sequía que arruina todos los cultivos de esa región del planeta. Luego Mr. Alzheimer, algún día mientras destapa sus bolsas de pan, verá a través de los noticieros de la CNN las imágenes de la terrible hambruna que sufren diversos pueblos africanos por causa de la sequía que arruinó todas sus cosechas, y jamás pasará por su mente que sus acciones individuales de alguna manera están interconectadas con la ocurrencia de esa desgracia que parece muy lejana
En síntesis, en la Teoría del Caos se admite que lo racional, lo regular, lo discontinuo, lo indeterminado, lo paradójico y lo absurdo van de la mano, interconectando causalmente todos los elementos del universo, y también se sostiene que las leyes de la Naturaleza requieren de cierto trasfondo de aleatoriedad e imprevisibilidad para poder funcionar adecuadamente, es decir, las leyes físicas perfectas que rigen la marcha del universo necesitan elementos imperfectos o impredecibles sobre los cuales sustentarse y operar. Por eso se concluye que el universo para poder existir necesita «mantener constante cierta cantidad de aleatoriedad», la cual científicamente equivale a la existencia de cierta cantidad de información en el universo que no es cuantificable, que no es totalmente perceptible, que no es mensurable, que no se puede traducir a fórmulas matemáticas exactas, que no es controlable por el investigador o que no es utilizable plenamente para la realización de predicciones deterministas.


  


4.10     Bibliografías






0 comentarios:

Publicar un comentario

Twitter Delicious Facebook Digg Stumbleupon Favorites More

 
Powered by Blogger