Las Mejores Ofertas en productos esotéricos
Rey Lear: ¿Me estás llamando loco, muchacho?
Chico: Todos tus otros títulos que regalaste, naciste con este.
(W. Shakespeare Rey Lear I,IV)
Todo el mundo sabe que una figura familiar en las cortes medievales era la del Bufón, a menudo descrito como el compañero inseparable del Rey, su único confidente y consejero, una ambigua figura de bufón demente que, complacido con las bromas tontas y necias con las que se dirigía a los espectadores, a menudo se escondía entre bromas y obsceno doble sentido de insospechada sabiduría.
El bufón era un tonto que, dentro de ciertos límites, se le permitía burlarse del Rey sin tener que pagar con su vida por ello. Matar o herir al Loco también se consideraba un signo de cierta desgracia, y su inmunidad y libertad de expresión también se derivaban de una superstición que vinculaba su destino al del Rey.
Hay, de hecho, un motivo profundo que une la figura del Rey con la del bufón de la corte. El Rey es por excelencia el símbolo vivo de la Orden de la Autoridad y la Ley. Se podría decir que fue el catalizador de los principios sobre los que se organizaron las sociedades medievales.
Si, por lo tanto, el Rey encarnaba la Orden, la muerte del Rey o su deposición, el cuestionamiento de su autoridad, significaba la irrupción del Desorden y la falta de forma en el mundo cerrado de la corte.
Dado que se confiaba en el Rey para asegurar el cumplimiento de las Leyes, para garantizar la repetición pacífica y cíclica de los eventos conocidos de la vida cotidiana, la posibilidad misma de la caída y desaparición del Rey escondía amenazadoramente toda la fuerza perturbadora y devastadora del Caos.
Si el paso por la Nada, la pérdida de los puntos de referencia, la destrucción de los ritmos cotidianos es lo más formidable que un hombre puede concebir, también es cierto, sin embargo, que la renovación, la transformación, nuestros propios ciclos de vida requieren que el viejo orden se rompa periódicamente para dar paso a un nuevo orden más adecuado a los acontecimientos cambiantes.
En la Nada, en el Caos, en las Aguas Cósmicas se esconde la fuerza de la regeneración y el precio que hay que pagar para renacer intacto y listo para un nuevo ciclo de vida es la pérdida total del Orden Antiguo, de la memoria misma de su existencia.
Cada Rey, por lo tanto, al aumentar su poder y autoridad, consolidó fuera de sí mismo esta posibilidad de su antitética, de caída y disolución.
Es en este contraste que se inserta la figura del bufón. Se opone a una inteligencia rígida y contingente del mundo la demencia de quien se apoya en una sabiduría fluida y atemporal, en el lenguaje claro, preciso y consecuente del Rey, una charla oscura e ilógica, hecha de rimas, acertijos y lemas ingeniosos y burlones.
En lo estructurado, codificado, dotado de forma, sabe ver el otro lado. Es el mediador entre el Orden existente y el Caos lo que lo delimita.
El Loco era, por lo tanto, el medio, el medio por el cual el Rey se comunicaba con otra mitad del Mundo, con el poder vivificante de su inconsciente, evitando así un endurecimiento excesivo de su papel y autoridad, que haría al Reino obsoleto y peligroso. En este sentido lo citamos aquí, entre las imágenes de Mercurio, porque este papel de mediador lo hace una figura mercurial por excelencia y no es casualidad que todas las figuras de bufones y bufones de la historia y la literatura tengan a Hermes como deidad protectora (basta pensar en el nombre que Shakespeare quiso dar a Mercutio en Romeo y Julieta, Mercutio, el lamicus de Romeo, contiene rasgos trágicos, pero también posee el innegable talento profanador del bufón, del que se muestra incluso a punto de morir.
Conectando el Orden y el Caos, que había dado origen al Mundo, el bufón recompone, por su misma existencia, la Unidad Primordial.
Tal vez por eso, si el Rey hubiera matado a su Tonto, habría deslegitimado su poder con este gesto.
En la astrología tradicional y, más en general, en la Tradición hay una ley fundamental que regula las relaciones entre los principios opuestos, la ley de la enantiodromía mencionada a menudo en la psicología junguiana.
Esta ley es la misma que inspiró la menos conocida de las dos inscripciones que fueron grabadas en la fachada del templo de Apolo en Delfos. El primero, que todos conocemos, fue el Socrático limperativo conocerse a sí mismo. La otra, a la que me refiero ahora, no era nada demasiado.
La ley de laenantiodromía es la misma que regula las relaciones entre la luz y la sombra en los solsticios y equinoccios: cada vez que uno de los dos principios alcanza su punto culminante está destinado a volcarse en el principio opuesto. Así, en el momento culminante del solsticio de invierno, en el día más corto del año, la luz comienza a aparecer de nuevo y los días se alargan, hasta que, en el solsticio de primavera, el tiempo destinado a la luz es mayor que el gobernado por la oscuridad. En el solsticio de verano se produce el fenómeno opuesto y se pueden referir ciclos similares al curso diurno del sol y al curso mensual de la luna.
Por lo tanto, son principios inscritos en el cielo por las luminarias e inscritos en la existencia humana: es en la cumbre de su poder y vigor que comienza la decadencia del hombre y de las civilizaciones que crea.
Me pareció que, en lo que respecta al papel de Mercurio en la relación entre el Orden y el Caos, daría una contribución a la reflexión sobre el significado del tiempo en que vivimos, insistiendo en el intento de los físicos, filósofos, lógicos y matemáticos de crear un orden perfecto y global para la estructura del conocimiento en la física, la lógica y las matemáticas.
Como es bien sabido, el resultado final está muy lejos de las intenciones iniciales de quienes iniciaron este proceso. He condensado en unas pocas páginas, como sigue, algunos de los principales puntos de inflexión del pensamiento científico entre los siglos XIX y XX, en lo que se refiere al Orden y al Caos. Cada uno de nosotros puede preguntarse, en este largo proceso de transformación, cuál fue el papel del Rey y cuál el del Bufón, qué reino ha caído y cuál está a punto de nacer
El orden y el caos en la física
En el siglo XVIII Laplace tenía una confianza ilimitada en el poder de las matemáticas para describir y predecir la levolución de un fenómeno físico a lo largo del tiempo. Los mecanicistas y deterministas más convencidos extendieron esta creencia a los fenómenos biológicos, económicos o sociales. Buscaban modelos mecánicos de los fenómenos para explicarlos (un caso extremo está representado por las ecuaciones de Maxwell: el físico construyó un modelo mecánico muy complicado de sus ecuaciones). A finales del siglo XVIII se produjo una convergencia de investigaciones sobre la relación entre el trabajo mecánico y el calor en una transformación termodinámica.
Este interés también estuvo determinado por la expansión colonial, el empuje para producir cada vez más y a costos cada vez más bajos, el fin de la producción artesanal y la prevalencia de la producción en masa, que utilizaba maquinaria. Los físicos, técnicos e ingenieros se vieron impulsados por la necesidad de determinar con precisión la relación entre las pérdidas y los beneficios en el funcionamiento de una máquina, es decir, entre el combustible utilizado para hacerla funcionar y el trabajo mecánico obtenido.
En los primeros días de la termodinámica fueron principalmente los profesores de la Politécnica Francesa, Inglesa y Alemana y algunos particulares que trabajaban con la ingeniería mecánica los que hicieron los principales descubrimientos. (Primera máquina de vapor de T. Savery, capitán del genio, de finales del siglo XVII, que funciona con presiones muy altas, primera máquina utilizada a gran escala a principios del siglo XVIII, T. Newcomen).
Las primeras máquinas se caracterizaban por un enorme desperdicio y la más mínima desatención hacía que se rompieran o explotaran. Trabajaron en los conceptos de Potencia (trabajo en la unidad de tiempo) y Rendimiento (efectos útiles/trabajo de entrada). La evaluación económica del rendimiento de la máquina se hizo cada vez más importante, así como la posibilidad de utilizar la misma máquina durante varios ciclos. Fue J. Watt, gracias a algunos de sus descubrimientos fundamentales, quien se centró en los conceptos termodinámicos modernos (después de 1769). Mientras científicos como Laplace y Lavoisier se preguntaban sobre la naturaleza del calor (el calor como fluido, calórico), los estudiosos de ingeniería mecánica de los politécnicos hicieron grandes progresos en la ciencia del calor. En particular, a principios del siglo XIX, Lazare y Sadi Carnot, utilizando también analogías hidráulicas, y más tarde Kelvin, Clausius y Joule a mediados de siglo, formularon los principios de la termodinámica tal como la conocemos hoy en día.
El mecanicismo del siglo XVIII estaba vinculado a la concepción de un tiempo reversible, porque los modelos que los físicos y matemáticos tenían en mente eran modelos mecánicos, diseñados para describir eventos cuya evolución se caracterizaba por una información completa sobre el movimiento de cada partícula individual. Este tipo de fenómenos se asemejaba a una película que podía ser proyectada en reversa.
La termodinámica se ocupó en cambio de otro tipo de energía, la energía térmica, que tiene características profundamente diferentes.
El segundo principio de la termodinámica, al señalar la lirreversibilidad de muchos fenómenos naturales que hasta entonces la física había considerado, al menos teóricamente, reversibles, sanciona el fin de la visión mecanicista del mundo y cambia la visión que la civilización occidental tiene del tiempo. Para la termodinámica, la flecha del tiempo sólo tiene una dirección y no puede ser invertida.
Así: Si frenamos con un coche, la energía cinética (ordenada) del coche se transforma en calor que calienta los frenos. Es imposible volver a transformar completamente ese calor en el movimiento de la máquina de nuevo.
Una moneda que cae desde arriba se calienta, pero no puedo volver a subirla.
Si perforo un globo de laria, sale espontáneamente, pero es muy alta la probabilidad de que se produzca el fenómeno inverso.
Un ser vivo que muere es totalmente asimétrico a un muerto que vuelve a la vida.
El cuestionamiento por parte de los físicos de las razones profundas de esta irreversibilidad de los fenómenos en el tiempo llevó, con los trabajos de Boltzmann (1844 1906), que trató de combinar los descubrimientos de la termodinámica con el determinismo mecanicista, a establecer una conexión entre el cálculo de probabilidades y la levolución de los fenómenos y entre nuestra percepción del orden y el caos y el segundo principio de la termodinámica.
En la termodinámica hay varias formas de concebir los conceptos de orden y caos. En el caso de la termodinámica, el término orden se entiende como la cantidad de información que tenemos sobre las partes individuales de un sistema y su evolución futura (es decir, la posibilidad de describir esta evolución con una ecuación).
Como la aparición de estructuras complejas y diferenciadas dentro del sistema.
Sabemos intuitivamente que un sistema gobernado por el azar difícilmente evoluciona espontáneamente hacia una mayor complejidad.
Por esta razón creemos que es imposible (altamente improbable) que un mono, golpeando aleatoriamente las teclas de una máquina de escribir pueda deletrear la Divina Comedia, o que en una cueva en la que durante siglos se adquieren estalactitas y estalagmitas, una estalactita forme la Piedad de Miguel Ángel. Observamos, en un conductor atravesado por la corriente, el movimiento ordenado de las cargas eléctricas calentando una resistencia, pero al calentar la resistencia no creemos que sea posible generar un movimiento ordenado de las cargas en el conductor.
Una olla de agua puesta al fuego apenas cristaliza en cristales de hielo, de hecho, digamos que es imposible tan baja es la probabilidad de este evento (las moléculas de agua deben ser teleguiadas por una inteligencia no visible y colisionar de tal manera que disminuya su velocidad).
El principio de ordenación de Boltzmann fue el último intento desesperado de devolver el caos característico de la energía térmica al orden predictivo de los modelos deterministas.
Boltzmann denominó macroestado a cualquier estado termodinámico caracterizado por un valor preciso de presión, volumen y temperatura (por ejemplo, un gas) y microestado a cada una de las disposiciones de las moléculas, con sus velocidades y aceleraciones, que hicieron posible ese macroestado.
Su principio establecía que un sistema sobre el que no actuaban las influencias externas siempre tiende a asumir como estado final el macroestado más probable, es decir, el que tiene más microestados disponibles para realizarse. Esta formulación, aunque impugnada por muchos físicos, sigue siendo una de las formas más fáciles de entender por qué la lentropía tiende a crecer en un sistema cerrado.
Para entender mejor el principio de Boltzmann, imaginemos a una madre aprensiva que tiene un hijo jugando al fútbol en un equipo donde hay 4 jugadores con camiseta negra y 4 con camiseta blanca. Desde la distancia sólo puede distinguir el color de las camisetas y por lo tanto la madre sólo puede saber dónde está su hijo cuando una acción comienza de nuevo (el juego de fútbol tiene reglas que llevan a los jugadores con la camiseta del mismo color periódicamente de vuelta a su mitad del campo). La madre aprensiva es en la metáfora el físico que quiere saber dónde están las partículas individuales de un gas. Someter un cuerpo al calor sería equivalente en nuestra metáfora a abolir todas las reglas del juego y hacer que los ocho jugadores corran de forma totalmente aleatoria. Si después de un tiempo los corredores cansados dejaran de correr, ¿cómo sabría la madre dónde está su hijo?
Bueno, sólo hay una forma de que los jugadores con camiseta negra estén todos en un lado y los jugadores con camiseta blanca en el otro, en cuyo caso la madre estaría segura de la posición de su hijo.
Hay 16 formas en las que tres jugadores con la camiseta blanca se detienen en un lado y tres con la camiseta negra en el otro (las 4 opciones de un jugador blanco para las 4 opciones de un jugador negro).
Y hay hasta 36 maneras en que los jugadores se detienen para que haya 2 blancos y dos negros a cada lado (las seis maneras de elegir 2 de los cuatro negros para las seis maneras de elegir dos de los cuatro blancos).
(En general hay n.(n-1) (n-h+1)/h!… formas de elegir h objetos de n datos…)
Si asumimos una distribución de color dada como un estado termodinámico, vemos que el estado más probable es aquel hacia el que el sistema tenderá a evolucionar espontáneamente.
Si en lugar de ocho jugadores dispersos tuviéramos millones de partículas, algunos estados tendrían prácticamente 0 probabilidad, otros estarían cerca de la certeza.
En el devenir que caracteriza a nuestro universo, esta tendencia al crecimiento de la entropía en sistemas cerrados se traduce en una disminución de los gradientes térmicos y una atenuación de la diferenciación y complejidad de los estados finales. Describimos todo esto como una pérdida de orden e información y el segundo principio nos hace decir que la lirreversibilidad de los fenómenos, su tendencia a evolucionar siempre hacia los estados más probables, está destinada a conducir al luniverso hacia la muerte térmica, el estado en el que no se producen más transformaciones.
El segundo principio ha modificado así nuestra percepción de lo que es el orden: cuanto más probable es un estado, menos diferenciación hay en él, menos información tenemos sobre las transformaciones individuales que tienen lugar allí, menos herramientas tenemos para discernir el orden y la regularidad dentro de él.
Durante el siglo XX el segundo principio y el principio de orden se extendieron a todas las situaciones en las que es posible atribuir una distribución de probabilidad a un conjunto finito de posibles acontecimientos en un sistema en evolución. Por ejemplo, en la teoría de la comunicación se habla de la entropía de un mensaje tras lo que sucede en su paso de la fuente al receptor, ha habido aplicaciones interesantes para la biología y el intento de explicar por qué los seres vivos parecen contradecir el segundo principio, al caracterizarse por un enorme aumento de la complejidad, ha llevado a Prigogine a desarrollar el concepto de sistemas disipativos. El segundo principio también se ha aplicado a la alinformática, la química y las ciencias sociales.
En resumen, si evolucionamos espontáneamente un sistema aislado su entropía aumenta, por lo tanto en su equilibrio final hay menos diferenciaciones, disminuye la complejidad de la estructura del fenómeno, disminuyen las simetrías locales que nos hacen discriminar las formas regulares, tenemos menos información sobre el estado de las partes del sistema.
Otro golpe de alusión de los físicos como Laplace, que un dèmon suficientemente inteligente podría, conociendo la posición y la velocidad de todas las partículas del universo, predecir el curso de los eventos futuros hasta el final del tiempo, fue dado por el principio de incertidumbre de Heisenberg.
Este principio establece que no es posible calcular simultáneamente con absoluta precisión cuál es la velocidad y la posición de una partícula elemental porque, al observarla, modificamos su estado. Por lo tanto, cuanto mayor sea la precisión con la que determinemos su velocidad, mayor será la incertidumbre con la que podamos determinar su posición, y viceversa.
Este principio pone en duda nuestra concepción de la realidad externa última como una realidad independiente del observador en la que las partículas tienen realmente su propia velocidad y posición. Dado que la velocidad y la posición son imposibles de observar simultáneamente, los físicos tienden a pensar que la realidad última es estocástica, que debemos imaginar los fenómenos mismos como realidades probabilísticas. En esta dirección la física cuántica ha evolucionado y se ha modificado el antiguo principio de causalidad (Schroedinger concibió el ejemplo de un gato que está simultáneamente vivo o muerto dependiendo de cómo se mire un fenómeno relativo a las partículas elementales).
Por supuesto, esto ha cambiado profundamente nuestra imagen del mundo. A estas revoluciones en nuestra forma de pensar la realidad se han añadido las introducidas por la teoría de la relatividad de Einstein, la relatividad de la simultaneidad de los fenómenos para diferentes observadores, la dilatación y contracción del espacio y el tiempo en la comparación entre los sistemas de referencia que son integrales con las estrellas fijas y los sistemas de referencia que se aceleran y se mueven a velocidades cercanas a la de la luz. En la teoría de la relatividad general Einstein también descubrió que la geometría de nuestro continuo espacio-tiempo no es euclidiana, pero que la distancia más corta entre dos puntos puede ser una línea curva, una geodésica.
El orden y el caos en las matemáticas
Desde mediados del siglo XIX los matemáticos sintieron con creciente fuerza la necesidad de refundar su disciplina en axiomas de los que se pudiera deducir rigurosamente.
Este intento se refería principalmente a la laritmética, la geometría y la lógica y muchos lógicos y matemáticos dedicaron sus vidas a este propósito. Frege, Peano, Russell, Hilbert y muchos otros produjeron obras que son hitos en la historia del pensamiento humano.
Sin embargo, Russell ya se encontró con dificultades que parecían bloquear parcialmente el camino a este proyecto: de los axiomas surgieron paradojas, antinomias, que nos impidieron considerar el daño matemático lógico como no contradictorio.
El descubrimiento de la geometría no euclidiana por Lobacewski, Bolyai, Gauss, Klein y otros también había puesto de relieve que no había necesariamente una sola elección del sistema axiomático de la que deducir la influencia de la geometría y que la geometría euclidiana no era lunica posible. Se podrían crear otras geometrías modificando o sustituyendo parte de los axiomas. Un golpe fatal al proyecto de crear un sistema formal completo y no contradictorio que se refería a la lógica, la laritmética o la geometría fue dado en la década de 1930 por Kurt Goedel. Con su teorema estableció que en todo sistema formal de ese tipo nacen proposiciones de antimonio, paradojas, que sólo pueden ser resueltas expandiendo el sistema original, y creando así un metalenguaje que, sin embargo, sólo propondría otras antinomias de diferente nivel de complejidad. Esto daría lugar a una regresión infinita de matrioskas verbales contenidas una dentro de la otra, destinadas a no tener fin. Goedel, con su teorema, dio un giro de época al pensamiento abstracto e influyó en muchas direcciones fundamentales de la investigación posterior. En particular, llegó a una rigurosa definición de una operación efectivamente ejecutable, uno de los logros más significativos de la filosofía de las matemáticas.
Otro pensador que influyó decisivamente en la filosofía de las matemáticas del siglo XX fue Wittgenstein, quien, en Tractatus y obras posteriores, exploró los límites del pensamiento abstracto e intentó definir estrictamente términos como forma o estructura, la manera en que la forma de pensamiento se vincula con el significado, los límites dentro de los cuales puede operar el pensamiento formal. Aunque Wittgenstein terminó negando muchas de las observaciones del Tractatus, algunas de ellas todavía definen los límites del pensamiento abstracto y pensable como postes fronterizos.
Otra gran revolución en la historia del pensamiento matemático ocurrió con respecto a la noción de un modelo matemático.
Hasta la década de 1920 un modelo matemático tenía que cumplir tres condiciones fundamentales:
–
Identificación de las variables de estado
–
Determinar una ley de evolución del sistema estudiado que, con el paso del tiempo, dado un estado inicial, determinaría los siguientes estados
–
Ser verificado por la experiencia
La tercera característica de los viejos modelos matemáticos se ha ido debilitando cada vez más. Un modelo matemático es hoy, como lo define el matemático Giorgio Israel, un trozo de matemáticas aplicado a un trozo de realidad y cada vez más importante, a los ojos de quienes crean modelos matemáticos, se ha convertido en la metáfora que vincula el modelo con lo que describe, la lanalogía y la fuerza descriptiva resultante.
Además, un solo modelo puede describir una multiplicidad de situaciones reales y es probable que una situación real sea descrita por varios modelos, que ayudan a captar diferentes significados ocultos, a dibujar diferentes interpretaciones.
Por último, falta el predominio de la mecánica y de las ecuaciones diferenciales lineales en la construcción de modelos, es decir, la búsqueda de regularidad determinística y de previsibilidad del futuro de un fenómeno.
Los modelos matemáticos ya no se aplican sólo en la física y, a lo sumo, en la química, sino que su aplicación masiva se ha extendido a disciplinas como la biología, la sociología, la lantropología, la psicología, la economía, etc. (a este respecto, en el decenio de 1930 Morgestern y Von Neumann intentaron una matematización abstracta y axiomática de la economía, pero tuvieron que admitir en el decenio de 1940 un intento similar).
Con los modelos formados por las ecuaciones de presa de depredador de Volterra Lotka y el modelo de latidos del corazón de Van Der Pol, el concepto mismo de un modelo matemático comenzó a cambiar profundamente.
Todavía hoy los modelos matemáticos oscilan entre la pura percepción de una analogía matemática entre el modelo y el fenómeno descrito, capaz de revelar algunos significados ocultos, como lo haría la leségesis de un texto hermético, y los modelos mecanicistas del tipo antiguo (este es el caso de muchos de los modelos basados en la construcción de autómatas o relativos a la inteligencia artificial).
Como sucede a menudo en la historia de la ciencia, los sistemas deterministas basados en ecuaciones diferenciales y en la física matemática fueron descuidados durante mucho tiempo tras la formulación de la teoría de la relatividad, en favor de los modelos geométricos. Más tarde, en los años sesenta, con las teorías del caos, se redescubrieron algunos estudios de física matemática (en particular el de Poincarè a principios de siglo) que utilizaban ecuaciones diferenciales no lineales para hacer frente a procesos de tipo no determinístico (otro problema que subrayaba la crisis del modelo determinista y mecanicista había sido afrontado por Poincarè y era el problema de los n cuerpos: si se quisiera describir con un sistema de ecuaciones diferenciales la levolución de un sistema constituido por n cuerpos celestes, con n>3, la complejidad del sistema sería tal que no permitiría la computabilidad de las soluciones).
El hecho de que se haya redescubierto esta matemática depende en gran medida de las aplicaciones en campos distintos de la física (meteorología, genética y dinámica de poblaciones, teoría de las epidemias, etc.)
.
En particular, las matemáticas del caos se originaron a partir de los estudios de Poincarè sobre los sistemas deterministas. En los casos que dieron origen a la teoría, alterando ligeramente las condiciones iniciales, las trayectorias siguen una ley de divergencia exponencial que produce soluciones radicalmente diferentes. En tales sistemas, si el conocimiento de las condiciones iniciales es incierto, la predicción parece imposible. Tales estudios fueron reanudados por Lorenz en la década de 1960 en relación con las turbulencias en la meteorología. Se encontró que una perturbación muy pequeña, lejos del equilibrio y la estabilidad del sistema, podía determinar consecuencias de enorme magnitud (un golpe de mariposa que causa un huracán). Mientras que las tendencias evolutivas, las trayectorias, de un sistema que no se aleja demasiado del equilibrio acaban volviendo a él, lejos del equilibrio hay puntos de bifurcación en los que el sistema puede tomar otro camino evolutivo y evolucionar rápidamente hacia una morfología radicalmente diferente.
Estos modelos y teorías se configuran como una especie de Darwinismo matemático o como una concepción neo-heraclita del mundo: donde las trayectorias bifurcadas del sistema se disputan entre diferentes morfologías posibles. También es, en cierto sentido, una venganza del determinismo lapón, tanto que se ha hablado de un enfoque determinista de la turbulencia, que introduciría orden en el caos.
El estudio de las trayectorias de los sistemas caóticos parece imposible con los medios analíticos o geométricos tradicionales y, desde los primeros estudios de Lorenz, se ha demostrado que es esencial utilizar la computadora. Además, se abandona toda esperanza de seguir trayectorias individuales y el uso de métodos probabilísticos adquiere cada vez más importancia (en química y biología la contribución de Prigogine es fundamental a este respecto). Tratar los fenómenos impredecibles de esta manera, en una estructura determinista, significa intervenir de alguna manera en el caos. Fenómenos impredecibles que habrían detonado cualquier modelo determinista pasado pueden ahora ponerse en un marco coherente y global. Algunos argumentan que todo esto marca una revolución en la ciencia moderna aún más radical que la de la mecánica cuántica.
Un encuentro entre los modelos analíticos y cuantitativos à la Poincarè y los de tipo más marcadamente geométrico (à la Enriquez), con el fin de poner de relieve las transformaciones, que luego dieron lugar a la teoría de las catástrofes de Thom. El estudio de las singularidades de las funciones que pueden ser diferenciadas por varias variables, un estudio que originalmente sólo se refería a las matemáticas, se utilizó para describir las discontinuidades de un sistema real, la forma que asume la transición de una configuración estructuralmente estable a otra, aunque sea estable. También en el centro de esta teoría está la idea de la bifurcación. La teoría tiene como objetivo proporcionar imágenes geométricas de los cambios catastróficos y clasificar todos los tipos posibles. El resultado fundamental es el teorema que muestra que los tipos de catástrofe en un espacio cuatridimensional (por ejemplo, el espacio-tiempo) son siete. La descripción cualitativa que proporcionan estas imágenes geométricas no es muy predictiva desde el punto de vista cuantitativo, pero tiene por objeto proporcionar el significado filosófico del fenómeno estudiado, una especie de hermenéutica de la realidad. Thom entendió sus teorías como una recuperación de la antigua filosofía natural y como una revalorización del aristotelismo, acompañando todo esto con una polémica contra una ciencia entendida como mero reduccionismo y método experimental. Sostuvo que las matemáticas proporcionan modelos mentales e imágenes de los fenómenos y que, si bien estos modelos ayudan poco desde el punto de vista cuantitativo, son una fuente de comprensión ontológica. El peligro de este neoplatonismo es que, después de pegar un trozo de matemáticas en un trozo de realidad, los resultados matemáticos se utilizan para sacar conclusiones ontológicas con el resultado de que un conocimiento completamente subjetivo conduce a conclusiones metafísicas sobre el universo.
Por último, citamos la teoría fractal de Mandelbrot, que proporciona un método para construir modelos geométricos de objetos bastante irregulares (por ejemplo, las costas de Gran Bretaña) y una técnica para medirlos, con una noción apropiada de tamaño y medición. Esta teoría se ha aplicado sobre todo a la forma de los llamados atractores extraños de las matemáticas del caos, a los procesos estocásticos como los movimientos brownianos, a la teoría de los errores, a la distribución de las galaxias, a los problemas de jerarquía y distribución y los modelos fractales obtenidos por ordenador de diversos fenómenos naturales, convenientemente coloreados, también se han utilizado en el arte.
La contribución a las formas de determinación cuantitativa es muy débil.
Al final de este breve excurso a través de la dialéctica entre el Orden y el Caos en las matemáticas y la física del siglo pasado, es hora de preguntarnos cuál ha sido el papel de los científicos y si han servido más al Rey, guardián del Orden, o al Payaso, que reina sobre el caos. De hecho, quienes se habían propuesto demostrar que el universo está gobernado por el determinismo y que las matemáticas y la lógica se rigen por un orden absoluto, se han encontrado con el caos y, viceversa, quienes se han ocupado de los fenómenos caóticos han introducido el orden. La dialéctica entre el orden y el caos nos recuerda que el bufón es el doble del rey y el rey es el doble del bufón. Quien mata a su propio Doble, como sucede en el Doble de Dostoievski, se mata a sí mismo.

