-El retorno de la Cosmogonía vs. La investigación tecnológica-
Si en los dos capítulos anteriores se introducen algunas reflexiones teológicas y antropológicas, conviene ahora adentrarse en los aspectos epistemológicos implicados en las nuevas concepciones, todas en proceso de búsqueda de la verdad, en los campos de la física, la matemática, la biología, así como sus repercusiones en las ideas que dan perfil a la cosmología de fin de siglo.
Con independencia de sesgos de escasa significación y breve duración, la búsqueda de conocimiento en Occidente se ha asentado a veces en lo filosófico, otras en lo científico y con alternancias en su significación intrínseca, sin embargo se puede distinguir ejes que guían la acción, para que el ser humano busque el conocimiento de lo cósmico por dos razones: la primera como una forma de enraizamiento de la existencia; la segunda como una necesidad de anclaje en la vida social y por ende en la historia, y en la escatología.
Esos procesos se afianzan - a su vez - en la filosofía o en la ciencia y en el esfuerzo de síntesis que plantea Theilhard en la conjunción de ambos, en torno a un eje que supere ambas aventuras del espíritu humano.
Hubert Reeves, ex - asesor científico de la NASA y actual Director de Investigaciones en el CNRS (Centre National de la Recherche Scientifique -Centro Nacional de Investigaciones Científicas de Francia), a propósito del concepto de “psiquismo” planteado por Theilhard, expresa que: “En vez de descender de los Dioses, somos el resultado de un largo ascenso...Este ascenso, hasta el origen del árbol genealógico nos revela nuestra inserción en el gran movimiento de organización de la materia universal y nuestro parentesco con todo lo que existe...Al mismo tiempo (ahora) comprendemos mejor como la organización y la complejidad pudieron emerger del caos primordial”.
Aunque el concepto de “psiquismo” de Theilhard ha sido interpretado y atacado por positivistas, científicos, filósofos y aún por religiosos de muy diversas maneras, es indudable que descansa su propuesta en una concepción de “Inminencia Divina” que Reeves ni siquiera considera pues como científico es agnóstico. Pero si es posible tomar en consideración el “paralelismo” del planteamiento de Theilhard (metafísico o “ultrafísico” como él se autodenominara), con las deducciones empíricas del físico de partículas , Reeves.
La razón es que la fenomenología del conocimiento la ha debido buscar el hombre, en lo personal apelando a diversas formas de acción cultural - según propias profesiones y en lo colectivo según sus posibilidades de desarrollo histórico y por ello hoy coexisten diversas formas de adquirir conocimiento.
Es útil penetrar en esa intimidad para explicarse la Naturaleza en su totalidad y lo que culturalmente el ser humano ha derivado porque todos los intentos por conocer la verdad en cualquier campo aportan al conocimiento del Cosmos y el conocimiento de éste, aclara la inserción humana en el planeta Tierra.
Un acercamiento a las formas de elaborar conocimiento permite concluir que hay básicamente dos maneras de acercarse a esas manifestaciones que son complementarias entre sí:
1) Histórica: La cual trata de investigar el origen, el desarrollo en el espacio y tiempo y sus relaciones con otras manifestaciones, y a la vez que describe características y delimita lo “real - fáctico” de lo “pensado - posible”.
2) Sistemática: La que se apoya sobre la anterior pero busca comprender las conexiones lógico-esenciales internas y externas de la realidad humana en su globalidad. Por lo tanto, tiende a buscar la coherencia y universalidad más englobantes, alejándose de lo casuístico y anecdótico.
No hay forma de “saltar” fuera de la historia, ya que ninguna época elimina pura y simplemente la anterior o desaparece en la que le sigue. “Venir después” no equivale sin más a “progreso” en su sentido evaluativo implicando des valoración absoluta de lo pasado como retrógrado o anticientífico. Así, sólo hay predominio de una u otra forma, en relación con las restantes y toda la virtualidad y eficiencia de los análisis y los proyectos buscan descubrir y/o establecer prioridades no - exclusivas.
En la actualidad se piensa que más que de “mundos”, “pensamientos”, o “ideas” se debe hablar de lenguajes en los cuales se “encarnan” y a través de los que se “transmiten” esas formas interpretativas del mundo.
El análisis por la vía del lenguaje, no prejuzga sobre grados de realidad o fantasía, pero facilita el análisis y en cosmogonía y cosmología es imprescindible para poder entender la ubicación témporo - espacial de creencias y mitos en su real dimensión, sin hacer extrapolaciones inadecuadas.
METODOS PARA INTERPRETAR LA REALIDAD
De los apuntes de las clases recibidas del filósofo y político venezolano Arístides Calvani se desprende que el hombre occidental en busca de la verdad ha utilizado - o sigue haciéndolo aún - cinco formas de conocimiento que para efectos explicativos se pueden diferenciar claramente aunque en la práctica se entremezclan entre sí, en grados diversos y en épocas diferentes. Estas formas de interpretar la “realidad” son, las siguientes:
Magia: Aunque es la más primitiva, perdura hasta hoy como “residuo” pre científico, refugio del contemporáneo sin poder y como “tentación” del que usa la ciencia o la teología o la política como formas de “poder absoluto”, tanto real como ideologizado.
Por medio de la magia, el hombre pretende dominar él mismo el mundo en virtud de una fuerza propia, que automáticamente dispone de tiempo y espacio, vida y muerte, en busca de lo positivo y para rechazar lo negativo o para usarlo en contra de otros. El poder mágico reside en todo y se transmite por la fuerza de la palabra, la escritura, el contacto.
En cuanto a su finalidad, la magia es “blanca” si la acción busca algo deseado o permitido, o “negra” si pretende originar daños a otras personas y se desarrolla como “técnicas rituales con cosas” que deben influir a las divinidades. Como fuente de conocimiento se da en tres ámbitos:
a) Sicológicamente permanece en el campo de lo “misterioso” concebido irracionalmente y no conlleva auténtica comunicación ni participación concebidas personalmente.
b) Sociológicamente se extiende (sobretodo en la época actual, cuando aumenta la inseguridad y el futuro no es claro)
c) Políticamente se afianza cuando se espera solución a males sociales y el “remedio” a las necesidades como “caídas del cielo” o bien suministradas por el Estado.
Mito: Este muestra gran vigencia hasta más o menos el siglo IV a.C. Sin embargo, por influencia de la “antropología ilustrada” y su programa de “desmitificación” queda asimilado a ser una manifestación “primitivo - irracional” pero recientemente se ha secularizado especialmente en política y renueva su vigencia. Antiguamente - y a partir de su etimología que significa “palabra definitiva” acerca del origen del todo el mito se afirmaba sin necesidad de prueba, por vía de la autoridad de la tradición mediante el relato (no escrito) de acciones de dioses, demonios, ángeles y otros seres sobrenaturales.
Actualmente, el mito se presenta como un relato tradicional sobre acontecimientos ocurridos en el origen de los tiempos, destinado a fundamentar la acción ritual de los hombres para instituir todas las formas de acción y pensamiento por las cuales el hombre comprende su inserción y su papel en el mundo y a sí mismo. Los mitos más importantes suelen darse, por ejemplo, en estos ámbitos: la explicación del origen de los dioses (Teogonía); la explicación del surgimiento del mundo y sus condiciones (Cosmogonía); la explicación de la creación de la naturaleza animada y/o inanimada (Antropogonía). ; o el fin del mundo (catástrofes apocalípticas o “profesías” escatológicas). Los mitos, pese a la irracionalidad en que se fundan, conservan, sin embargo, su función simbólica (exploratoria y comprensiva), porque quedan arraigados en el subconsciente colectivo.
Históricamente, todo pensamiento racional y/o religioso ha encontrado en el lenguaje mítico su origen y condición porque no hay nada que nazca sin presupuesto; de allí que la razón y la creencia auténticas deben emanciparse constantemente del mito - del cual sin embargo - paradójicamente se nutren. El mito se suele debatir entre una innegable relación dialéctica de “pertenencia histórica” y una necesidad de “distanciamiento crítico” en una misma historia de dominación y emancipación, que se autoinfluencian. Modernamente el mito ha resucitado en las obras de ciencia - ficción, género literario que mezcla intención, ciencia, sentimientos psicológicos y esperanza en un futuro.
Filosofía: Esta forma de conocimiento se origina hacia el siglo VI a.C. en Grecia luego recorre los siglos con épocas de esplendor. La filosofía conoce “crisis” de identidad cuando las diferentes filosofías pugnan por competir entre sí o de “pertinencia” al comparar su significado como método de conocimiento frente a la teología en el Medioevo, a las ciencias físicas en la Edad Moderna y las humanas en los siglos XIX y XX.
Preocupada preferentemente al inicio (Grecia) por la razón última y las características de la realidad en general (Ontología y Metafísica) y del mundo físico y sus variaciones (Cosmología) sufre una mutación profunda en el Medioevo Cristiano, debiendo pensar las relaciones Dios - Hombre (Teología y Antropología Cristiana). En los albores de la Edad Moderna se amplía su referencia al pasado (Renacimiento) y luego el Hombre se define como sujeto consciente (Descartes) y por lo tanto responsable de su mundo por el conocimiento (originando el nacimiento de la ciencia moderna como “dominación de la materia”) y por la actividad (estableciendo el comercio y la industria).
En el siglo XIX conoce una doble transformación decisiva por la progresiva autonomía y constitución de las ciencias humanas: a) En la primera, el hombre se ve como centro de la realidad y por el impacto de la concepción filosófica de Marx de la “praxis” como matriz de la filosofía se orienta hacia líneas de trabajo: la primera busca una representación sistemática en la realidad, esto es una “cosmovisión”, una herencia hegeliana y marxista; otra la filosofía católica heredada del Tomismo (simbolizada por el Socialcristianismo) y una tercera basada en la sistematización de la libertad preconizada por un liberalismo pragmático; b) La segunda es una filosofía exclusivamente del lenguaje donde sólo la ciencia da una imagen de la realidad (lógica simbólica: filosofía del lenguaje ordinario en la tradición anglo - sajona); c) La tercera es profundizando la variedad de expresiones de la subjetividad tomada como una actividad central (fenomenología, hermenéuticas, existencialismo); d) La cuarta emerge como opuesta al humanismo y subjetivismo como “últimas ilusiones metafísicas”: el estructuralismo francés: Levi - Strauss, Althusser, Foucault, Lacan, que son las que dominan el panorama actual; y por ahora, luchando por ser tomados en consideración surgen los “naturalistas del descontructivismo”, liderados por Derrida y sus muchos discípulos que buscan rehacer el quehacer humano, sin sujetarse a nada .
Ciencia: Tal como se conoce hoy día, la ciencia adquiere un primer gran desarrollo hacia el siglo XVI en el ámbito de las ciencias físicas y naturales como una progresiva emancipación de la filosofía. El desarrollo de las “ciencias humanas” (historia, sociología, etnología, lingüística, sicología, antropología, política, comunicación) en los siglos XIX y XX se afecta siguiendo el mismo patrón pero debiendo reivindicar su estatuto científico por la semejanza o la diferencia con el modelo imperante en las ciencias físicas y naturales. Las contiendas metodológicas y la relación de las ciencias con la filosofía y demás formas de conocimiento (ideologías y utopías) constituye un gran debate cultural que aunque se ha enfriado debido al retiro de la filosofía de la contienda, permanece.
a) La ciencia se constituye a partir del conocimiento de la experiencia, pero no se contenta con descripciones sino que busca elaborar un saber sintético y explicativo. La búsqueda de causas y la posibilidad de prever pueden pretender tener valor universal por el desarrollo de métodos de verificación bastante precisos, capaces de generar un acuerdo entre investigadores.
b) El instrumento central de la ciencia y el eje de su metodología es la elaboración de un lenguaje teórico apropiado, el cual es esencialmente de naturaleza lógica y sirviéndose en gran medida de las matemáticas En general lo que la teoría dice en forma abstracta, debe ser realizado concretamente y en ella intervienen los modelos que son “intermediarios” entre la teoría y la realidad, pues facilitan la imaginación.
c) Toda ciencia es una actividad humana. Como tal, ella viene de alguna parte: el mundo del hombre (historia, valores, normas, instituciones, clase, carácter, educación y se dirige a alguna parte para buscar la transformación de ese mismo mundo por el conocimiento y la acción, lo cual pone en juego fines y objetivos tanto como medios e intereses, dando como consecuencia que no exista ciencia “neutra”, aunque el momento teórico si tiene su “relativa autonomía”.
Arte: Aunque en Occidente el arte no se conceptúa normalmente como una forma de conocimiento sino que se le clasifica como un entretenimiento , el filósofo Benedetto Croce la incluye como un método de mayor libertad para acercarce a otras formas de descifrar lo desconocido. Esta aproximación la reafirma el criterio del historiador del arte, el británico Ernst Gormbrich, para quien: “ lo que el arte delinea siempre son verdades absolutas porque lo hermoso y lo feo, por ejemplo, son conceptos absolutos y universales. Las imágenes que recrea el arte son modos de conocimiento de realidades conocidas y reproducidas por medio de otros cánones, que se asemejan a la llamada “intuición fulgurante”, cuya descripción es útil a estas alturas del siglo porque en occidente o se le conoce pobremente o se la práctica por esnobismo”.
CONOCIMIENTO Y VERDAD
Sacamos como conclusión de las distintas formas de llegar al conocimiento, que La “no - neutralidad” o presencia de valores no quiere decir subjetivismo o falta de objetividad, sino reconocimiento de la presencia de intereses, valores y fines. Y estos son los que hay que precisar pues si bien no tienen por qué ser excluyentes tampoco son equivalentes y en todo caso hay que estar conscientes de su presencia.
Esto implica que el conocimiento no se puede plantear en forma disyuntiva: a) dejarle el “explicar” a la “ciencia” o b) el dejarle “comprender” a la filosofía, la ideología, la utopía o la religión.
Hay una relación mutua que nace del hecho intrínseco que el científico es un hombre no “in abstracto”, sino un “hombre situado” en relación con sus semejantes, en un país con intereses determinados y en una causa que se constituye en su propio fin, lo cual propicia la ideologización del quehacer científico (lo que no implica necesariamente -salvo en casos extremos- su “politización”, como ocurrió en el pasado con suma frecuencia, o como se repite -más recientemente- en el caso de la “oficialización” del conocimiento en la extinta U.R.S.S. que hasta 1989 , cuando se abole la enseñanza obligatoria del marxismo-leninismo y se desarticula su altar en la Universidad de Lomosov , era obligada referencia ,sin importar la carencia de articulación entre el conocimiento y la ideología.
Ahora bien, la inmensa mayoría de las convicciones o certidumbres que el hombre posee, sea cualquiera su seguridad, afectan a un contenido parcial de la vida en la que son distinguibles estas circunstancias:
Por su propia parcialidad, funcionan como elementos de su circunstancia, que requieren a su vez ser interpretados desde una certidumbre superior. Esto remite a la exigencia de una certidumbre radical, es decir, en la cual encuentre su raíz toda otra certidumbre; este carácter confiere a esa certidumbre postulada cierta universalidad, no en el sentido de que abarque o comprenda las demás, sino en el que todas se ordenen y articulen en función de ella.
Estos requisitos excluyen el que la ciencia, aun supuesta su verdad y la validez de su jurisdicción interna, pueda desempeñar la función de esa certeza radical. Las ciencias están definidas por su parcialidad y por su carácter positivo; es decir, por su acotamiento de una zona de la realidad, por ejemplo: el mundo físico, el de los objetos matemáticos, el de los seres vivos, el de la realidad psíquica, respecto a la cual pretenden lograr un conocimiento que se funda formalmente en supuestos o principios ajenos como tales a la ciencia misma, y de los cuales esta no puede ni necesita dar razón.
Aunque las ciencias sean suficientes para sí mismas, y no pueden ser sustituidas por ningún otro tipo de saber, no son suficientes como conocimiento al hombre actual. Incluso la religión, que en su sentido muy concreto es una certidumbre radical, carece de vigencia social suficiente en el mundo. Aún las personas para quienes la religión tiene plena validez personal, en la medida en que están condicionados por su circunstancia histórica necesitan poner de acuerdo esa vigencia personal con el tiempo cosmológico para insertar su fe en el Eje Cósmico que propone Theilhard (aunque esa es una opción personalísima y libre).
La vida humana requiere, para ser vivida, la posesión de una certeza radical y decisiva; radical, porque en ella han de radicar las verdades parciales; decisiva, porque solo ella podrá decidir la discordia entre unas y otras y construir con ellas una perspectiva justa y clara. Nuestro tiempo no posee una certeza, en el sentido concretísimo de que ninguna creencia vigente cumple esos requisitos; de ahí la hondura de la crisis que afecta a nuestra situación. Para poder vivir, el hombre actual necesita, pues, una verdad radical.
¿Podrá hallarla? No es probable que la mayoría de los hombres sean capaces de descubrirla por sí mismos; pero no es menester: Podrán recibirla como vivencia, cuando sea descubierta justificada y evidenciada por algunos. Pero ¿dónde encontrarla? ¿en la ciencia, o en la filosofía, o en la religión, o bien en el arte (que a juicio de Benedetto Croce es otra forma de conocimiento más libre) ?. La opción es personal, obviamente pero por ello es sugerente la propuesta de Theilhard.
OBJETIVIDAD CIENTÍFICA
Según el criterio de los especialistas en lógica de las ciencias, para hacer ciencia objetiva se requiere la configuración de varios elementos:
1) El conocimiento científico, que es distinto del conocimiento vulgar o empírico, el que se encuentra sólo por la experiencia sensible, al azar de los acontecimientos de cada día y se limita, casi siempre, a comprobar fenómenos particulares. El conocimiento científico es explicativo muestra el orden determinado en que se encadenan los hechos, buscando alcanzar un grado de generalidad y de unidad cada vez más elevado; clasifica y define tipos generales, enuncia leyes, relaciones constantes entre los elementos simples y abstractos e intenta unificar esas mismas leyes con ayuda de principios y de teorías para llegar al conocimiento objetivo, es decir, impersonal y universal.
2) El espíritu científico, elemento esencial de la ciencia que es, ante todo, espíritu de libre examen, espíritu crítico. Su regla fundamental es no admitir como verdadero nada que no se conozca evidentemente como tal por lo que es evidente que la “no sumisión a la autoridad” (como decía Claude Bernard) es, pues, la norma fundamental del método. Las únicas autoridades válidas para el hombre de ciencia son la razón y la experiencia.
3) Es necesario hacer buen uso de la libertad, de la independencia intelectual. La experiencia es de difícil interpretación, pues muchas veces hay inclinación a admitir como evidente la primera idea que se presenta al espíritu, o a tomar por evidencia lo que no es sino resultado de la familiaridad con ciertos hechos o ideas y aún el amor propio por mantenerlas sin haber.
4) Además de la independencia, que constituye la base de todo espíritu científico, el hombre de ciencia debe poseer el respeto a la verdad científica, tener el criterio de que los hechos no pueden explicarse mediante voluntades sobrenaturales o cualidades ocultas, así como tampoco por cerrar las puertas a toda manifestación que parezca venida del “espíritu”, para refugiarse en la comodidad engañosa del materialismo.
5) La fiel observancia a la objetividad es a su vez “el fiel de la balanza” lo que implica en el hombre de ciencia, ciertas cualidades morales, tales como la probidad intelectual, la sinceridad, el valor.
USO DE LA LOGICA
Mientras en Occidente no cambien las reglas del juego que son parte de una herencia cultural, unilineal, para explorar otros cánones, para llegar a una verdad, el científico debe recurrir a la Lógica que es en sí una ciencia de orden normativo. Los teoremas y las leyes científicas deben ser demostrados y comprobados por medio de métodos rigurosos, cuyo empleo explica el desenvolvimiento prodigioso de las ciencias desde el siglo XVI. Importa, pues, conocer esos métodos, buscar cuáles son las condiciones de la verdad, cómo las operaciones de la inteligencia deben realizarse para llegar a conocimientos verdaderos.
Durante mucho tiempo se creyó que la inteligencia, observando sus propias actividades, sus propias exigencias, era capaz de determinar, por sí misma, las reglas que la ciencias debían seguir. De ahí una concepción tradicional que se remonta a Aristóteles en que una lógica “puramente formal” dejaba de lado la materia, contenido de los juicios y de los raciocinios, para no considerar más que su forma, es decir, la manera como una idea se une a otra idea.
De hecho, las ciencias se han constituido con ayuda de métodos ajenos, y a veces hostiles, a la lógica tradicional, métodos descubiertos y aplicados espontáneamente por matemáticos, astrónomos, físicos que los han ido perfeccionando poco a poco. Dado que la lógica requiere poner en marcha un proceso reflexivo éste se da, a su vez en dos formas: por la intuición y el razonamiento.
INTUICIÓN
La intuición, mediante la cual se puede conocer un objeto, ya de una sola vez, ya indirectamente, después de una serie de procesos del pensamiento, es una visión directa, inmediata, por medio de la cual, según dice Pascal “se conoce la cosa por una sola mirada” es la intuición (del Latin intuire: ver). La intuición, por su parte, se da en cuatro formas:
a) La intuición psicológica, que es el conocimiento inmediato de ciertos hechos psíquicos tengo conciencia de una emoción, de un sentimiento.
b) La intuición sensible, que es el punto de partida de los razonamientos construidos por los físicos, los biólogos y hasta por los matemáticos, sobre el mundo material.
c) La intuición de evidencia, a base de la cual trabajan principalmente los matemáticos.
d) La intuición inventiva, que es una especie de súbita iluminación fulgurante , mediante la cual el espíritu adivina o descubre el camino que debe seguirse en la resolución de un problema, una impresión o un esfuerzo mental conectado o desconectado del tema.
RAZONAMIENTO
El razonamiento es un conocimiento discursivo (del latín discurrere, correr de acá a allá); es una progresiva concatenación de juicios para arribar a una conclusión. En el caso del razonamiento se conocen tres formas de producirse:
a) Por analogía, que consiste en pasar de unas analogías comprobadas a otras no comprobadas;
b) por inducción, que consiste en pasar de los hechos observados a la ley;
c) Por deducción que consiste en pasar de la ley a las consecuencias.
El proceso de razonamiento, a su vez puede seguir dos vías: la del análisis o la de la síntesis así:
a) El análisis es el proceso del espíritu mediante el cual se descompone un todo en sus elementos; mientras
b) la síntesis consiste en reponer un todo partiendo de sus elementos (no ya en remontarse a los principios, sino en descender a las consecuencias, más o menos complejas).
VERDAD ASTRONÓMICA
La astronomía es fundamentalmente una ciencia de observación y de experimentación y todavía más recientemente de simulación con el uso de ordenadores electrónicos. Por su parte, la ciencia física, que constituye la rama madre que cobija a la astronomía y sus especializaciones - entre ellas la Cosmología - exige seguir estas reglas de juego, según plantean los propios astrónomos:
1.- Observar correctamente es saber discernir lo que es fundamental y lo que es accesorio, o hasta lo que es sin relación con el hecho observado.
Pero en la observación, en la que estas variaciones son naturales, es con frecuencia ardua labor la de distinguir claramente lo que es importante de lo que no lo es verdaderamente. Cuando eso ocurre (y siempre que sea posible), se apela a la experimentación.
Si es cierto que nuestros los deben ser nuestros primeros medios de información, también es verdad que por sí solos son insuficientes, y por ello se interpreta por el razonamiento aquello que se observa. Existen, por tanto, al margen de los hechos observados, que son siempre verdaderos, interpretaciones que pueden variar merced a los progresos de la ciencia.
2.- Estas interpretaciones tratan de inquirir, ante todo, las causas de los fenómenos, y conducen a agrupar los hechos que pueden ser atribuidos a una causa común. En el más frecuente de los casos esta causa permanece algún tiempo desconocida y se hace preciso reemplazar su conocimiento por una hipótesis.
La explicación de varios hechos por una misma hipótesis permite reemplazar los hechos dispersos por una teoría. Gracias a esta teoría, es posible, por medio del razonamiento y del cálculo, deducir consecuencias que se expresan en hechos del mismo orden.
3.- Si estos hechos se manifiestan conformes a la experiencia, verifican la teoría a posteriori, justifican su empleo y legitiman las hipótesis sobre las cuales la teoría se funda.
Cuando una teoría permite interpretar todo lo observado, se considerada como válida; pero si sobreviene un hecho nuevo que la teoría no puede explicar, es necesario reemplazarla o modificar las hipótesis sobre las cuales descansa.
Entre las teorías hay algunas de tal importancia, por el conjunto de los hechos que coordinan, por los descubrimientos que han suscitado, que toman puesto definitivamente en la exposición clásica de las ciencias físicas y adquieren la categoría de verdades científicas .
4.- Algunas hipótesis, cuyo enunciado es muy general y muy sencillo, nunca desmentidas por la observación corriente o por la experiencia, son de importancia capital. No pueden comprobarse experimentalmente más que en algunos casos particulares.
Estas hipótesis, emitidas por generalización de hechos comprobados, aunque sea groseramente, pero de las que se postula la absoluta generalidad, la validez en todas las circunstancias, adquieren la categoría de Principios.
Una vez admitido un Principio, la estricta obediencia lógica permite deducir de él ciertas consecuencias. De este modo aparecen las verdades contenidas en el principio de que se trata y de las cuales se procura obtener la significación explícita. Estas verdades son los Teoremas, y sólo un abuso de lenguaje hace que a menudo sean bautizadas con el nombre de Principios.
5.- Al vocablo Principio se opone hasta cierto punto el de Ley. La ley física es la expresión de una verdad científica; expresada por una relación cuantitativa de las conexiones que la naturaleza impone a los valores numéricos de los parámetros que rigen la realización de un fenómeno. La ley es, pues, de origen estrictamente experimental, diferenciándose en esto del Principio, y se aplica en un dominio restringido.
Las leyes se establecen por la experiencia. Su validez es comprobada por ella. Los resultados experimentales, por su propia naturaleza, adolecen de una incertidumbre cuyo límite superior es posible apreciar.
Extrapolando los datos de la experiencia se enuncia la ley que expresa los resultados de las medidas, si estos resultados difieren del que proclama el enunciado de cantidades más pequeñas que el error posible.
6.- La expresión de una ley no puede ser definitiva. Es posible que ocurra que nuevas medidas, más precisas, hagan aparecer diferencias sistemáticas y ciertas entre los resultados experimentales y la expresión del enunciado.
A medida que la ciencia progresa, el número de las hipótesis sobre las cuales descansan las teorías va reduciéndose. Algunas de ellas, tales como la hipótesis atómica, se hacen accesibles a la experiencia, que las verifica. Otras se ven condensadas en una hipótesis única de alcance más general; así ocurre con la atracción universal, que explica a la vez la gravedad y el movimiento de los planetas.
7.- Una teoría es tanto más perfecta cuanto mayor número de hechos explica por medio del menor número de hipótesis. En este respecto, la física moderna ha hecho progresos considerables (Mientras que en otro tiempo los fenómenos de calor, luz y electricidad eran atribuidos a otros tantos agentes, dotados de acciones que les eran exclusivamente propias, han podido dárseles después una interpretación común, gracias al conocimiento de la estructura del átomo).
Una vez establecidas las teorías, deben intervenir las matemáticas. Descartes pedía para todas las ciencias un método análogo al de las matemáticas, a fin de llegar a una certeza universal. Pero toda ciencia, incluso las matemáticas, está obligada a pasar, ante todo, por una fase experimental, y la aplicación del método matemático, en sus diversos grados, no es posible sino cuando la ciencia ha alcanzado un grado suficiente de análisis y de abstracción.
8.- Las matemáticas pueden aplicarse a las ciencias de la naturaleza (ciencias fisicoquímicas) merced a la noción de función: todos los fenómenos se consideran como variables entre las cuales existen relaciones tales, que a todo valor de una, corresponde un valor determinado de otra.
Los fenómenos naturales son función unos de otros, y la forma precisa mediante la cual el hombre de ciencia tiende a expresar toda ley física es la fórmula matemática que puede además representarse gráficamente con diversas modalidades.
9.- La expresión en forma matemática permite aplicaciones adaptadas y rápidas. Por otra parte, satisface al espíritu, dándole, ante todo, precisión absoluta, y permitiéndole, además, sistematizar las leyes de tal manera que puedan organizarse conjuntamente en un amplio sistema deductivo. (Es además, fuente de descubrimientos, ya porque el estudio de la función expresada por la ley permita revelar fenómenos todavía no observados, ya porque la simple analogía de las fórmulas conduzca a semejanzas sugestivas).
10.- A causa de su carácter abstracto, se tiende a creer que las matemáticas pueden resolver cualquier problema práctico. En primer lugar se olvida que las matemáticas tienen una base experimental, y luego que muchos problemas se resuelven muy fácilmente de una manera empírica, mientras que se necesitarían cálculos complicados para darles una solución matemática.
Las matemáticas no crean hechos nuevos, pero constituyen un lenguaje cómodo que permite enunciar las leyes con precisión, por medio de funciones, de traducir los datos de los problemas por ecuaciones, cuya solución de fórmulas que, interpretadas en el caso particular al cual se aplican, suministran las soluciones del problema, y finalmente la posibilidad de comprobar las hipótesis, de provocar otras nuevas y de sugerir observaciones, experiencias o simulaciones, según sea lo aplicable.
CONTORNOS DE LA VERDAD COSMOLOGICA
La cosmología moderna utiliza fundamental y preferentemente el conocimiento científico de la manera en que se ha explicado, pero no están exentos los cosmólogos de imprimir en sus aproximaciones, en sus interpretaciones y en sus conclusiones otras formas de conocimiento.
Estas otras formas de conocimiento que bañan la cultura en cada época y por lo tanto se imbrican en el trabajo de los cosmólogos son: la filosofía, la metafísica y en menor grado la teología, que influyen en el concepto de verdad, que matiza el pensamiento y el quehacer de los científicos. Igualmente se imbrican en el trabajo de elaboración cosmológica la ideología, las preferencias, el sentimiento, los prejuicios, las “verdades” apriorísticas, las fobias, los personalismos y otras características propias - consustanciales - al ser humano que al matizar la objetividad la perjudican.
Un breve examen a estas formas de conocimiento - sobre todo en lo que se relaciona criterios subjetivos y el concepto de verdad en que se muevan los científicos con el problema acerca del eventual “inicio” (si es que en verdad hubo alguno, o muchos o ninguno) es de gran utilidad.
A modo de ejemplo, ya en 1978 el filósofo y especialista en ética, el español Julián Marías, distinguía cuatro casos de relación del ser humano - y extrapolándolo se incluye al cosmólogo - con la verdad.
En primer lugar señala que como lo humano admite grados y pluralidad de estratos y dimensiones que se modifican con el tiempo no es posible establecer reglas fijas que relacionen al hombre con la verdad; pero gracias a una generalización de carácter moralista - objetivo es posible pensar que tal relación se da de la siguiente manera:
1) Vivir en el ámbito de la verdad: Esto acontece siempre que un individuo o una época vive apoyándose en un repertorio de verdaderas creencias, en las cuales está auténticamente encarnada su existencia. Ese repertorio puede ser angosto o amplísimo, tosco o preciso; en todo caso, el hombre descansa sobre ese supuesto, del cual es realmente solidario, y vive en rigurosa autenticidad.
2) Vivir en el horizonte de la verdad: Vivir con pretensión de verdad, buscándola en la medida en que no se la tiene o resulta deficiente. Naturalmente, la verdad que se pretende y busca será de otra índole que la anterior; no una verdad en que “se está” o creencia en sentido estricto, sino una verdad a que “se llega” . Una verdad en cuyo funcionamiento dentro de la vida va implicada la justificación, por uno u otro mecanismo. Este modo de vivir, cuyo motor es la evidencia, viene definido inicialmente por una pobreza de verdad, y no asegura la posesión de ella, sino su exigencia.
3) Vivir al margen de la verdad: Esta es una situación que es mucho más frecuente, porque son mayoría las épocas en que el sistema de creencias está, por lo menos, agrietado y trunco, y son muy pocos los individuos capaces de la violenta distensión requerida por la indagación de la verdad - esta posibilidad no tiene nunca carácter social, y ésta es una de sus peculiaridades - ; vivir al margen de la verdad; es decir, sobre un repertorio de creencias más o menos coherentes, de las cuales el hombre no se siente últimamente solidario, sino que recibe del contorno y acepta sin crítica, y que completa con ciertas “ideas” respecto a las cuales no tiene tampoco evidencias y que usa sin exigirles efectiva justificación. Podríamos llamar también a esta forma de vida - que es la de la inmensa mayoría de los hombres, incluso de los intelectuales de profesión - la vida en la verosimilidad; y, por supuesto, su raíz última es la frivolidad, que consiste en aparentar “saber a qué atenerse.”
4) Vivir contra la verdad: Esta es una situación extremadamente anormal y paradójica, pero por diversas distorsiones históricas y sociales ha dominado en buena parte este siglo. La ideologización facilita el engaño y la politización lo oficializa; en consecuencia, se afirma y quiere la falsedad a sabiendas, se la acepta tácticamente, y se admite el diálogo con ella.
En torno al tema el filósofo es tajante porque afirma: “Hay en el mundo actual múltiples temas - que están en la mente de todos y no es menester enunciar...” ¿Por qué esta voluntaria adscripción a la mentira en cuanto tal? La razón no es demasiado oculta: en el fondo, se trata simplemente del miedo a la verdad.
CEREBRO Y VERDAD
El miedo a la verdad ,ha acompañado a la humanidad con gran fidelidad y es un sentimiento y como tal subjetivo; pero también puede valorarse científicamente -es decir objetivarlo para entenderlo y encauzarlo- y al respecto el neurólogo portugués Antonio Damasio ,quien investiga y enseña sobre cognotivismo y redes neuronales ,hace algunos planteamientos que aclaran y descubren a la vez el cuadro que nos presenta el filósofo Marías:
1.- La idea de que el bastión de la lógica no debe ser invadido por las emociones y el sentimiento está firmemente establecida (se la encuentra tanto en Platón como en Kant); pero tal vez no hubiese sobrevivido nunca de no haber sido expresada tan vigorosamente como lo fue por Descartes, que separó de las emociones a la razón y apartó a ésta de sus cimientos biológicos reales. Por supuesto que la escisión cartesiana no es la causa de las patologías que hoy padece la razón, pero sí que puede achacarse a aquella lo mucho que el mundo moderno ha tardado en reconocer su raigambre emocional.
2.- Cuando se concibe a la razón como carente de ascendencia biológica, es bastante fácil pasar por alto el papel que en su funcionamiento desempeñan las emociones; no advertir que nuestras decisiones presuntamente racionales acaso sean manejadas por la emoción que se desea mantener a raya; e ignorar el efecto positivo que las emociones bien armonizadas pueden producir en la búsqueda del conocimiento.
En apoyo de esos planteamientos, que ya habían sido sintetizados por Einstein en la fase que relaciona ciencia (razón) con religión (emoción) Damasio plantea como tesis que no es probable que la razón comience a existir con el pensamiento y el lenguaje en un denso ambiente congnitivo, sino más bien que se origine de la evolución biológica de un organismo viviente empeñado en sobrevivir, porque el núcleo cerebral del ser humano es un refinadísimo aparato que capacita para tomar las decisiones relacionadas con el mantenimiento de los procesos vitales( que incluyen la regulación del medio interno y los impulsos, instintos y sensaciones). De allí que la racionalidad depende de la enérgica pasión por la razón que anima a tal aparato.
La racionalidad necesaria para que los humanos superen esos retos y perduren ha de estar imbuida de los sentimientos y emociones que brotan de lo más profundo de nuestro ser, porque la emoción es un factor integrante de todo proceso discursivo -y si así fuese- de lo que adolece hoy la humanidad no es de falta de competencia lógica, sino más bien “de una falta de emociones que informen el despliegue de la lógica.”
Como comprobación de ese aserto, Damasio señala que las "pruebas empíricas" pueden obtenerse estudiando a personas que, habiendo actuado antes racionalmente, por sufrir lesiones neurológicas en determinados sistemas del cerebro pierden la capacidad de tomar decisiones racionales y, junto con ella, la de “procesar normalmente” las emociones, porque sus instrumentos de racionalidad aún pueden recuperarse; el conocimiento del mundo en el que han de obrar sigue siendo asequible, y su capacidad para abordar la lógica de un problema permanece intactas. Sin embargo, muchas de sus decisiones personales y sociales son irracionales, por qué ocurre que el delicado mecanismo del razonamiento no es afectado ya por los influjos emocionales.
Esto ocurre por el deterioro de áreas muy precisas de las regiones cerebrales frontal, temporal y parietal derecha; aunque hay otras condiciones cuya causa neurológica todavía no ha sido identificada pero presentan características similares en muchos aspectos.
La falta de emoción es por lo menos tan perniciosa para la racionalidad como el exceso de emoción. Ciertamente no parece que la razón salga gananciosa al actuar sin el influjo de la emoción. Al contrario, es probable que ésta nos ayude a razonar bien, sobre todo en los asuntos personales y en los sociales, orientándonos a veces hacia el sector más ventajoso para nosotros dentro del campo de las decisiones posibles, pero no se requiere que las emociones sustituyan a la razón o que decidan por nosotros.
Tampoco debe negarse que la emoción excesiva pueda "generar irracionalidad"; Lo único es que nuevos datos neurológicos parecen indicar que la "absoluta carencia de emociones es un problema aún más grave", que lo primero muy probablemente, la emoción constituye el sistema de soporte sin el que el edificio de la razón no puede funcionar bien”. Es curioso comprobar que Pascal, en el mismo siglo XVII en que se introdujo el dualismo cartesiano, vislumbró ya esta idea cuando dijo: “Sobre esta sabiduría del corazón y de los instintos debe basarse la razón misma y echar los fundamentos de todo su discurso”. Nosotros estamos empezando a descubrir los pertinentes datos neurobiológicos que, a no mucho tardar, confirmarán la profunda visión pascaliana”.
Pero si efectivamente la emoción -subjetiva- y la razón -objetiva- se deben entrelazar para darnos la verdad, estamos enfrentados a un problema más profundo que el de la simple objetividad dada la necesidad de bucear la verdad en la complejidad del pensamiento post-moderno.
PENSAMIENTO POST-MODERNO
En la presentación de la obra “La Tercera Cultura”, que data de 1996, su editor el norteamericano John Brockman aborda justamente el problema de cómo el pensamiento sobre temas profundos: cosmología, evolución, cerebro, conciencia y expresa que en los últimos años se ha producido en la escena intelectual norteamericana (que está a la vanguardia planetaria) un relevo que está dejando al intelectual tradicional cada vez más al margen, porque estos, con una educación al estilo de los años cincuenta, (basada en Freud, Marx y el modernismo) no tienen un bagaje suficiente para un pensador de los noventa. Su concepción acerca de cómo deben enfrentar los intelectuales el reto de replantearse el Universo y el papel del ser humano es ácida y directa cuando señala:
1)Los intelectuales norteamericanos tradicionales son, hasta cierto punto, cada vez más reaccionarios, y con harta frecuencia arrogantemente (y tercamente) ignorantes de muchos de los logros intelectuales verdaderamente significativos de nuestro tiempo. Su cultura, que rechaza la ciencia, carece muchas veces de base empírica. Emplea una jerga propia y lava sus trapos sucios en casa. Se caracteriza principalmente por comentarios de comentarios, en una espiral que se agranda hasta que se pierde de vista el mundo real.
2) En 1959, C.P. Snow había publicado un libro titulado The Two Cultures (Las dos culturas). Para Snow de un lado estaban los intelectuales de letras; de otro los de ciencias y, advirtió -con incredulidad- que en la década de los treinta los primeros se había apropiado del término “intelectual”, como si nadie más mereciese tal calificativo. Esta nueva definición circunscrita al “hombre de letras” excluía científicos como el astrónomo Edwin Hubble, el matemático John Von Neumann, el cibernético Norbert Wiener y los físicos Albert Einstein, Niels Bohr y Werner Heisenberg.
3) Para entender esta extraña situación hay que tener en cuenta que los científicos no supieron defender la trascendencia de su trabajo. En segundo lugar, aunque muchos científicos eminentes, entre los que destacaban Arthur Eddington y James Jeans, también escribieron libros para el gran público, sus obras fueron ignoradas por los "autoproclamados intelectuales", y el valor e importancia de las ideas presentadas permanecieron invisibles como actividad intelectual porque la ciencia no gozaba del favor de los periódicos y revistas dominantes.
4) En una segunda edición de su obra en 1963, Snow añadió un nuevo ensayo, “Las dos culturas: una segunda mirada”, en el que de manera optimista sugería que una nueva cultura, una “tercera cultura”, emergería y llenaría el vacío de comunicación entre los intelectuales de letras y los científicos. En aquella tercera cultura los intelectuales de letras se entenderían con los de ciencias; pero la profecía de Snow no se cumplió: los intelectuales de letras siguen sin comunicarse con los científicos, y son estos últimos quienes están comunicándose directamente con el gran público. Así, si bien los medios intelectuales tradicionales practicaban un juego vertical: los periodistas escribían de abajo arriba y los profesores de arriba abajo, lo cierto es que hoy, los pensadores de la “tercera cultura”, tienden ahora a prescindir de intermediarios y procuran expresar sus reflexiones más profundas de una manera accesible para el público lector inteligente.
5.- Pero en el concepto de “tercera cultura” que ha emergido resulta que -precisamente- no hay canon o lista oficial de ideas aceptables. La fuerza de la tercera cultura estriba precisamente en que admite desacuerdos acerca de las ideas que merecen tomarse en serio. A diferencia de los intereses intelectuales previos, las realizaciones de la tercera cultura no son disputas marginales sino que afectarán a las vidas de todos los habitantes del Planeta, porque irremediablemente el quehacer del intelectual incluye la comunicación. Los intelectuales no son solo gente que sabe, sino gente que modela el pensamiento de su generación. Un intelectual es un “sintetizador, un publicista, un comunicador”.
6.- Las ideas emergentes de la tercera cultura son especulativas, y representan las fronteras del conocimiento en áreas como la biología evolutiva, la genética, la informática, la neurofisiología, la psicología y la física. Algunas de las cuestiones fundamentales planteadas son: ¿De dónde surgió el Universo? ¿De dónde surgió la vida? ¿De dónde surgió la mente? La emergencia de la tercera cultura es una nueva filosofía natural, fundada en la comprensión de la importancia de la complejidad, de la evolución. Los sistemas de gran complejidad -sean organismos, cerebros, la biosfera o el universo mismo- no han sido resultado de ningún proyecto, sino de la evolución. Hay un nuevo conjunto de metáforas para describirnos a nosotros mismos, nuestras mentes, el universo y todas las cosas que sabemos de él, y son los intelectuales que han concebido estas nuevas ideas e imágenes -científicos que hacen cosas y escriben sus propios libros- los que dirigen el curso de los tiempos.
Si bien Brockman incluye en su obra exclusivamente a científicos norteamericanos -que afirma- son quienes marcan la pauta en el mundo científico, a continuación se incluye una selección de las principales ideas provenientes de algunos de los nuevos pensadores en la línea de la tercera cultura, que, independientemente de su nacionalidad, aportan la riqueza de sus planteamientos en los temas fundamentales que hemos venido examinando.
Las ideas están tomadas, directamente, de las descripciones formuladas por esos autores acerca de sus labores de investigación; ya que interesa en esta parte de la obra, asomarnos brevemente a las ideas que moldearán el futuro cercano, para escudriñar, con nuevos elementos de juicio cómo da inicio todo lo que contiene el Universo.
Se advierte que el hecho de que muchos de los conceptos e ideas esbozados aquí no son de uso corriente ,lo van a ser conforme nos adentremos en el siglo.
PLÉCTICA
La pléctica , concepto acuñado por el físico norteamericano de partículas (y autor de la teoría de los “quarks”, Murray Gell Mam) es el estudio de la simplicidad y la complejidad. Se incluyen en ella la elaboración de teorías y la realización de experimentos de su comprobación -entre otras- de las diversas definiciones de complejidad propuestas: la física de la información clásica y cuántica en la historia del Universo; el estudio de la dinámica no lineal, incluye la teoría del caos, los “fractales”, los “atractores extraños” y la autosimilitud en los sistemas complejos no adaptativos de la física; y el estudio de los sistemas complejos adaptativos, (incluye la evolución química prebiótica, la evolución biológica); el comportamiento de los organismos individuales, el funcionamiento de los ecosistemas; el aprendizaje y el pensamiento; la evolución de los lenguajes humanos; el auge y caída de las culturas humanas; el funcionamiento de los ordenadores diseñado para desarrollar estrategias en la resolución de problemas.
Algunos de los estudios en estos temas se llevan a cabo en casi todas las Universidades que hacen labores de investigación; pero en E.U.A., sobresale en esa labor específica el Instituto de Santa Fe, California, que dirige Gell-Man fundado en 1984, que reúne a matemáticos, informáticos, físicos, químicos, neurobiológicos, inmunólogos , evolucionistas, ecólogos, arqueólogos, lingüistas, economistas, expertos en ciencias políticas e historiadores de planta, así como a invitados especiales; el énfasis se pone en la interacción de los pensadores sin criterios reduccionistas ni “apriorismos oficiales”.
Según las propias ideas de Gell-Mann -y no necesariamente compartidas por todos- la pléctica se expresa así:
1) La complejidad que nos rodea procede de reglas muy simples y de un orden inicial, (más la inclusión del azar) que está asociado con la indeterminación; y la fuente más fundamental de indeterminación es la mecánica cuántica, el marco básico para las leyes físicas; pero en contraste con la física clásica, la mecánica cuántica no es completamente determinista, ya que, aunque se conocieran exactamente las condiciones iniciales del universo y las leyes fundamentales de las partículas elementales y sus interacciones, la historia del universo no estaría determinada.
2) La mecánica cuántica al no ser enteramente determinista, ofrece sólo probabilidades de historias alternativas; pero así como algunas situaciones esas probabilidades son prácticamente certidumbres, y las explicaciones de la física clásica son una buena aproximación; pero en otras situaciones la indeterminación es evidente. Por ejemplo, cuando un núcleo radiactivo se desintegra para emitir una partícula alfa, la dirección que toma la partícula emitida es imposible de conocer antes de que la desintegración tenga lugar, pues todas las direcciones son igualmente probables.
3) Incluso en la aproximación clásica, aun asumiendo que se conocen exactamente las leyes fundamentales,(lo que no es estrictamente cierto), existe una indeterminación efectiva que surge de la ignorancia parcial de las circunstancias presentes las que -de hecho- en parte son resultado de accidentes anteriores y de las dificultades de cálculo. Esta clase de indeterminación resulta exacerbada por el fenómeno del caos en los sistemas no lineales, que tiene que ver con una extrema sensibilidad de los resultados a los detalles de la situación presente. La importancia de los accidentes en la historia del universo difícilmente puede ser exagerada. Cada ser humano, por ejemplo, es el producto de una secuencia enormemente larga de “accidentes”, cada uno de los cuales podría haber tenido un resultado diferente.
4) Para tener una idea de la magnitud de estos accidentes, pensemos -por ejemplo- en las fluctuaciones que dieron origen a nuestra galaxia; a los accidentes que condujeron a la formación del sistema solar, (incluyendo la condensación de polvo y gas que produjo la Tierra); a los accidentes que condicionaron el comienzo de la evolución de la vida sobre la Tierra; y los accidentes que contribuyeron a la evolución de especies concretas, incluyendo los rasgos particulares de la especie humana.
5) Cada uno de nosotros tiene genes que son el resultado de una larga secuencia de mutaciones accidentales y emparejamientos aleatorios, y de la selección natural. La mayoría de accidentes individuales condiciona muy poco el futuro, pero otros pueden tener amplias ramificaciones, muchas consecuencias diversas que se remontan a un evento aleatorio que podría haber tenido otro resultado. (Es lo que llamamos “accidentes congelados”). Un ejemplo es que muchas de las moléculas que tienen un papel importante en la vida terrestre son dixtrógiras, mientras que las que no lo tienen son levógiras. Durante mucho tiempo se intentó explicar este fenómeno invocando el carácter siniestro de la interacción débil en la materia, en oposición a la antimateria, pero al final se llegó a la conclusión de que ésta no podía ser la causa.
6) Supongamos, entonces, que el hecho de que las moléculas biológicas sean dextrógiras es puramente accidental, y lo que ocurre es que el organismo ancestral del que descienden todas las formas de vida en este planeta tenía moléculas dextrógiras; pero la vida podría perfectamente haber resultado al revés, (con moléculas levógiras desempeñando los papeles importantes) y otros ejemplos (de nunca acabar) los podemos encontrar en la historia humana: Por ejemplo, Enrique VIII se convirtió en rey de Inglaterra porque su hermano mayor Arturo murió. Este accidente originó todas las monedas, cédulas y demás registros, todas las referencias a Enrique VIII en los libros de historia, todos los acontecimientos durante su reinado, incluyendo la separación de la iglesia anglicana de la iglesia católica romana, y naturalmente la sucesión de monarcas posteriores de Inglaterra y Gran Bretaña. La acumulación de “accidentes congelados” es lo que da al mundo su “complejidad efectiva”.
7) La complejidad efectiva referida a algo en particular es la longitud de una descripción breve de sus regularidades. Esas regularidades sólo pueden provenir de dos fuentes: las leyes fundamentales, que son muy simples y se pueden describir brevemente, y los accidentes congelados. A medida que pasa el tiempo van apareciendo sistemas con una complejidad efectiva cada vez mayor. Esto vale tanto para sistemas no adaptativos del tipo de las galaxias, estrellas y planetas, como para los sistemas complejos adaptativos (entre ellos los seres humanos).
8) Por supuesto que no todo tiende hacia la complejidad, hay sistemas que se hacen más y más simples y llegan a desaparecer (caso de las civilizaciones antiguas), y en conjunto se observa que en vez de una progresión regular hacia más y más complejidad, lo que si existe en realidad es la envolvente de la “complejidad efectiva” la que se expande, porque los “accidentes congelados” se van acumulando con el transcurrir del tiempo.
9) Así el aparente orden es el resultado de observar y medir mecanismos de autoorganización funcionando en niveles locales, aunque en su conjunto el desorden del Universo aumenta de acuerdo con la segunda ley de la termodinámica; y con excepción de las llamadas “leyes fundamentales” -aun poco comprendidas unas y en proceso de elaboración o francamente desconocidas otras- lo único que puede afirmarse es que son fundamentales solamente algunas de las físicas, porque las demás se construyen sobre sus bases; pero, a la vez, las otras leyes que se derivan de estas pocas leyes físicas están acompañadas de otros rasgos propios que son el resultado de las peculiaridades de sus propios contextos e interacciones.
10) Por consecuencia puede afirmarse que las leyes físicas se aplican universalmente, pero allí donde es posible su existencia (por ejemplo en el inicio del Universo, no podría aplicarse el conocimiento derivado actualmente de la fisica nuclear, resultado de la organización de la sopa de los quarks primordiales, y es absurdo aplicar -por extensión- las leyes de la física a los aspectos biológicos y psicológicos -salvo que se adicione todo el conocimiento que se deriva de los accidentes astronómicos, geológicos, biológicos, psicológicos y otros correlacionados, con la biología y la psicología.
AZAR y COMPLEJIDAD
Para el físico francés, Bernoit Mandelbrot, la gama de fenómenos naturales y sociales es infinita pero las técnicas matemáticas susceptibles de domeñarlas, muy poco numerosas y ocurre así que fenómenos que nada tienen en común comparten -lamentablemente- una misma estructura matemática lo cual impide hacer “ciencia exacta” en el mejor sentido de la palabra; para tan solo hacer “ciencia aproximada”, esto es obtener tan solo “verdades parciales”.
1) Por ejemplo: para el profano y para el filósofo la noción de azar es una “noción unívoca”, cuya unicidad ha quedado además expresada matemáticamente de forma abstracta y muy general, e incluso con demasiada generalidad, tanto porque hace tabla rasa de diferencias fundamentales como porque la cimentación que la axiomática proporciona al cálculo de probabilidades diluye su especificidad, al punto que la “teoría de la probabilidad” constituye -de hecho- un capítulo mal diferenciado de la “teoría de la medida”.
2) Unificación, abstracción y generalidad han sido las tendencias que han dominado la investigación en el tercer cuarto de este siglo; así la matemática francesa no fijaba su interés en las “filigranas” del análisis o de la geometría, sino en sus “estructuras fundamentales”; y la física se complacía en la búsqueda de partículas fundamentales con el mismo espíritu.
3) En la práctica, para Mandelbrot no hay ciencia sino de lo general, por lo que su dilatada carrera científica ha estado marcada por la identificación y el estudio de una nueva estructura general subyacente a numerosos fenómenos de apariencia heteróclita. Esa estructura que se difunde por las matemáticas y por las ciencias físicas, biológicas y sociales, es la llamada “sibisemejanza” o, dicho de modo más general, la invariancia por reducción o dilatación y los objetos que caracteriza son los llamados “fractales”.
4) Paradójicamente, la construcción de la geometría fractal me hizo descubrir pronto y luego me confirmó que la aparente unicidad del mundo de los modelos aleatorios e incluso las del cálculo de probabilidades, son engañosas. Así desde el punto de vista que nos interesa destacar en esta obra, el cálculo de probabilidades según este físico, tiene analogías inquietantes con la teoría de la materia, porque al estudiar con atención la aplicación de leyes generales a contextos heteróclitos se revela la existencia de varios “estados” muy distintos.
5) Dos de los estados de la materia han sido conocidos desde muy antiguo siempre: las palabras “sólido” y “líquido” proceden del griego y del latín, pero “gaseoso” data apenas del siglo XVII; pero la física es a la vez una y diversa. La manifestación de su unidad es que todos estos estados (y otros posibles, pues se están identificando sin cesar estados nuevos) se deducen de unos mismos principios y utilicen unos mismos conceptos, (como los de temperatura y presión); y a la vez la manifestación de su variedad es que los estados de la materia se diferencien de forma muy clara.
6) Hay un fenómeno análogo de “diferenciación” en el caso del cálculo de probabilidades y según la geometría de los fractales, la concepción actual del azar permite adoptar diversos “estados”, tan distintos entre sí como lo es un gas de un sólido.
7) El matemático ruso Andrei Kolmogoroff aportó a la axiomática del cálculo de probabilidades los últimos toques que la hicieron aceptable para los “matemáticos puros”, pues en 1954 declaró que “todo el valor epistemológico de la teoría de probabilidades se basa en esto: los fenómenos aleatorios considerados en su acción colectiva a gran escala, crean una regularidad no aleatoria”.
8) Lo que la tesis antedicha significa para cualquier matemático es que toda acción colectiva posee al menos un aspecto que es, en el límite, regular y no aleatorio. Esto no basta para satisfacer al científico quien tiene que asegurarse de que tal regularidad colectiva y no aleatoria no se refiera a fenómenos que no le interese. Además, si existe regularidad, quiere asegurarse de que queda establecida con la rapidez suficiente para que los valores asintóticos sean reflejo de la estructura de los sistemas finitos que encontramos en la naturaleza.
9) La introducción de distinciones entre diversos estados de azar constituye una aportación a las matemáticas, pero nos las cambia; lo que modifica sobre todo es su interpretación. De igual manera la necesidad de distinguir tres estados diferentes del azar resultó una tarea indispensable para tratar de resolver problemas planteados por la naturaleza recurriendo a determinadas partes de las matemáticas existentes (haciéndolas descender de una generalidad abstracta e indiferenciada a una concreción muy estructurada.)
Tal concreción se sintetiza en tres posibilidades delineadas así:
El caso benigno: Se puede dotar de un sentido preciso a la noción de que estos teoremas “se aplican rápidamente”. Si así ocurriera en el caso de una fluctuación, se la denominará “benigna”. Se deduce, en general, que las estructuras más interesantes no son estadísticas. Las fluctuaciones benignas han sido descritas por los matemáticos; muchas han sido explicadas por los científicos; los ingenieros han aprendido a manejarlas para volverlas más tolerables. Estos últimos podían evaluar la probabilidad de un acontecimiento futuro basándose en medidas calculadas sobre un número suficientemente grande de acontecimientos pasados.
El caso lento: Puede suceder que “la acción colectiva” conduzca a los teoremas A, B y C, pero que los límites se alcancen de un modo tan lento, que no enseñen gran cosa sobre el tema “colectivo” que encontramos en los problemas científicos concretos. ¿Serán A, B y C, siempre A, B y C o no? Resultaría tranquilizador saber que siguen siendo aplicables. Pero hay que reconocer que se trata de meros espejismos, pues el mundo real es finito.
¿Cuál es, pues, la aplicabilidad práctica de los teoremas de límite? La física macroscópica estudia muestras tan inmensas (el número de Avogadro es el patrón de medida) que no existe dificultad alguna. Pero si se considera -en cambio- la variable logarítmico-normal, que es, sencillamente, la exponencial de una variable gaussiana, sus propiedades a largo plazo están presididas por el hecho de que sus momentos (media, varianza, etc.) son todos finitos y se obtienen mediante fórmulas sencillas; ésta es la razón de que la variable logarítmico-normal parezca benigna. Pero a corto o medio plazo todo se desbarata y su comportamiento parece salvaje.
El caso salvaje: Los síntomas del fracaso completo de la modalidad benigna de la convergencia de las fluctuaciones son dos y pueden actuar solos o en combinación: a) la aparición ocasional de enormes desviaciones con respecto a lo que podría considerarse como “norma” y b) el hallazgo ocasional de sucesiones muy largas de valores, cada una de las cuales se aparta poco de la norma (tomada por separado), pero cuyas desviaciones en una misma dirección son tan “persistentes” que la media no puede irse formando sino muy lentamente, o no se forma en absoluto.
Podría ser, pues, que ciertas ciencias fueran intrínsecamente más complejas que otras. Se podría temer que el “grado de exactitud” de una ciencia tuviera, en todos los casos, un límite más o menos alto. Al ir desde las más exactas a las que lo son menos, veríamos ir disminuyendo la proporción de magnitudes interesantes que son regularizadas por la acción colectiva, así como también la proporción de magnitudes regularizables que resultan ser interesantes.
COMPLEMENTARIEDAD BÁSICA
En menos de un cuarto de siglo hemos pasado de las verdades “absolutas” de la física clásica a tener aproximaciones a la verdad, con la física relativista, aunque las verdades en el microcosmos de la física cuántica suelen bordear los fenómenos que se burlan del sentido común:
1) Muchos de estos fenómenos son consecuencia del principio de complementariedad, cuya manifestación más conocida es la dualidad onda-partícula. (Un objeto microscópico -un fotón, un átomo, un electrón, por ejemplo, se comportan en unos casos como una onda en el agua, en otros como una partícula discreta). Ambas características se complementan entre sí, para proporcionar una descripción completa del objeto. La idea de la complementariedad se enunció hace más de setenta años; por eso, creen todavía muchos físicos que no se trata sino de una consecuencia de la relación de incertidumbre.
2) Según el principio de incertidumbre, dos variables complementarias, la posición y el momento, por ejemplo, no se pueden medir a la vez con una precisión que vaya más allá de un límite fundamental: La relación de incertidumbre impide normalmente que se sepa todo del comportamiento de los objetos cuánticos; por tanto, nunca vemos que al mismo tiempo hagan de partículas y de ondas.
3) Pero la verdad es que la incertidumbre no es el único factor por el que la complementariedad se impone, aunque se conciban y analicen experimentos reales y mentales que escapan a la relación de incertidumbre, para “engañar” a los objetos cuánticos bajo estudio. Sin embargo, los resultados siempre descubren que la naturaleza se pone a sí misma a salvo de esas intromisiones: la complementariedad permanece intacta, aun cuando la relación de incertidumbre no desempeñe ningún papel. La conclusión a la que debe arribarse es que la complementariedad es más profunda de lo que se apreciaba; posee un carácter más general y fundamental en la mecánica cuántica que la ley de incertidumbre.
4) Las ondas y las partículas ofrecen un comportamiento distinto en el “banco de pruebas”. El aspecto ondulatorio se evidencia en forma de patrones de interferencia. (Arrójense a la vez dos piedras a un estanque tranquilo; se refuerzan unas a otras donde las crestas se encuentran con crestas y se extinguen mutuamente cuando crestas y valles se suman). El mismo fenómeno ocurre cuando una luz atraviesa dos rendijas, que hacen las veces de dos piedras. La onda luminosa viaja por ambas rejillas, y lo hace de suerte tal que, de cada rejilla, salen dos ondas menores. Estas se interfieren y, cuando se las proyecta en una pantalla, generan una serie de franjas luminosas y oscuras.
5) El comportamiento corpuscular, por lo contrario, se manifiesta siempre en forma de fotones, (que sin excepción aparecen como entidades indivisibles.) Un detector adecuado cuenta un número discreto de fotones en vez de registrar una intensidad continua.
6) Esta naturaleza dual de ondas y partículas tan contraria a la intuición no agota la complementariedad. La mayoría de los objetos cuánticos tiene una estructura interna de la que resultan propiedades magnéticas. Las mediciones podrían hallar que los “polos” de esos “imanes” apuntan hacia arriba o hacia abajo, o a la izquierda o a la derecha. Pero nunca hallarán que apuntan “hacia arriba y a la izquierda o a la derecha”, de manera análoga a lo que acontece con el comportamiento ondulatorio y corpuscular.
7) Un aspecto más chocante -incluso misterioso- de las propiedades complementarias concierne a su predecibilidad. Encontraremos que el resultado no es predecible en absoluto: la izquierda o la derecha saldrán con una probabilidad del cincuenta por ciento cada una. ¿Es que hay algo que no sabemos y con lo que sí podríamos hacer una predicción? No, el problema es más serio: el resultado de la medición izquierda-derecha no se puede conocer de antemano.
8) Esta complementariedad es un rasgo de la realidad, y hemos de vivir con él. Nadie insistió más en ello que el físico danés Niels Bohr; a quien le cabe el mérito de que atribuyamos a la complementariedad el rango de verdad fundamental. No fue fácil, y la resistencia opuesta por físicos tan prominentes entre ellos Albert Einstein fue formidable.
9) Sin embargo, las restricciones que establece la relación de incertidumbre no son el único mecanismo por el que la naturaleza impone la complementariedad. La respuesta negativa está justificada porque desde el punto de vista teórico Richard Feymann a inicios de los 90 y luego, desde el punto de vista experimental en 1994 utilizando detectores de paso con luz láser se ha determinado que es posible construir detectores por donde pasan los objetos observados que no afectan al movimiento de éstos de manera significativa. Es decir, detectores de paso, o de camino, que eluden la relación de incertidumbre.
10) Posteriormente en 1995, el experimento que efectuó el norteamericano David J. Wineland en el Instituto Nacional de Pesos y Medidas en Boulder, Colorado, han demostrado de forma convincente que el principio de complementariedad es -sin duda alguna- más fundamental que la relación de incertidumbre.
Sin embargo -y paradójicamente-, pese a esta convicción no se espera que los resultados refuten la mecánica cuántica. El mundo cuántico se protege cuidadosamente de las contradicciones internas, y, si se produjera un hallazgo inesperado, lo más probable sería que indicase que algo había funcionado mal en los experimentos, no en la mecánica cuántica. A pesar del ingenio experimental de los seres humanos, la naturaleza, irá siempre un paso por delante. Tal parece que podemos escapar a la relación de incertidumbre de Heisenberg, pero no al principio de complementariedad de Bohr.
REALIDAD MATEMÁTICA Y COMPUTACIÓN
Señala el lógico matemático inglés John L. Casti que para quien abrigue la idea de que la capacidad de la mente humana es ilimitada en su facultad para resolver cuestiones difíciles -entre ellas el origen y destino del Universo y cuanto en él se halle inmerso, a mirada a la matemática del siglo XX le habrá de resultar desazonadora como lo muestran estos tres ejemplos:
a) En 1931, Kurt Gödel establecía su “Teorema de la Incompletitud”: que puede sinteizarse en la postulación de que, en razón del mismo, ningún sistema de inferencia deductiva permite dar respuesta a todas las preguntas concernientes a los números.
b) En 1973, Alan M. Turing demostraba una proposición equivalente para los programas de ordenador: se afirma en ella la inexistencia de un procedimiento sistemático capaz de determinar si un cierto programa acabará por detenerse cuando procesa un conjunto de datos;
c) En 1994 Gregory J. Chaitin, de IBM, ha descubierto proposiciones aritméticas cuya veracidad nunca puede quedar establecida por un sistema de reglas deductivas, cualquiera que éste sea.
Se trata de hallazgos que imponen límites a nuestra capacidad cognoscitiva en el mundo de la matemática y la lógica y cabe preguntar: ¿Existen restricciones similares para nuestra capacidad de hallar respuesta a los problemas que suscita la naturaleza?
Al afrontar esta cuestión, la tarea primera, consiste en determinar -a estas alturas del siglo- qué ha de entenderse por “conocimiento científico”. Para tajar este nudo gordiano filosófico, una de las formas científicas de dar respuesta a una cuestión adopta la forma de un sistema de reglas o, si se quiere, de un programa. Lo que se hace es, sencillamente, introducir la cuestión en el sistema de reglas, accionar después la manivela de la deducción lógica y esperar, por fin, a que aparezca la respuesta. Por otra parte, la idea según la cual el conocimiento científico viene generado por lo que en definitiva se reduce a la similitud con un programa informático, suscita el problema de los límites o capacidad de la computación
Para resaltar este punto de la interrelación hechos reales de la naturaleza , expresión matemática y capacidad computacional Casti se sirve de dos ejemplos concretos:
1.-Estabilidad del Sistema Solar. El problema más célebre de la mecánica clásica es el problema de N cuerpos. A grandes rasgos, se plantea cuál es el comportamiento de un sistema compuesto por N masas puntuales que se mueven de acuerdo con la ley de atracción gravitatoria de Newton. Una de las versiones del problema indaga si dos o más de estos cuerpos llegarán a entrar en colisión o si alguno de ellos terminará por adquirir una velocidad arbitrariamente grande en un tiempo finito. En su tesis doctoral, Zhihong Xia, de la Universidad del Noroeste ,EUA , demostró que, en ciertas hipótesis, un único cuerpo que se moviera en vaivén entre dos sistemas binarios (cinco masas en total) podría adquirir una velocidad arbitrariamente elevada y verse expulsado del sistema. Tal resultado, que se basa en una configuración geométrica especial de las posiciones de los cuerpos, nada nos dice acerca del caso concreto de nuestro Sistema Solar. Pero sí hace nacer la duda de que quizás el Sistema Solar pudiera no ser estable. Y lo que reviste todavía mayor interés: el hallazgo ofrece nuevos instrumentos con los que investigar la materia.
2.-El plegamiento de las proteínas. Las proteínas que forman parte de los seres vivos están constituidas por secuencias de muchísimos aminoácidos, enlazados a la manera de cuentas en un collar. Una vez que tales cuentas se hallan dispuestas en la sucesión correcta, la proteína se repliega rápidamente, adoptando una estructura tridimensional específica en grado sumo, determinante de su función en el organismo. Se ha estimado que un superordenador que aplicase reglas plausibles para el plegamiento proteínico tardaría unos 10-127 años en dar con la forma plegada final incluso en el caso de una secuencia muy corta, compuesta nada más por unos 100 aminoácidos. De hecho, en 1993, Aviezri S. Fraenkel, de la Universidad de Pennsylvania, demostró que la formulación matemática del problema de replegado proteínico es computacionalmente “difícil” en el mismo sentido como lo es el problema del viajante. ¿Cómo lo resuelve la naturaleza?
El examen de las dos cuestiones planteadas ha producido lo que parecen ser dos respuestas. Primera: puede que el Sistema Solar no sea estable.
Segunda: el plegamiento de las proteínas es computacionalmente difícil.
Pero lo que todas estas presuntas “respuestas” comparten con las demás es que en cada una interviene una representación matemática del problema planteado en el mundo real, y no el problema propiamente dicho. Por ejemplo, la solución dada por Xia al problema de los N cuerpos no explica de qué forma se mueven los cuerpos planetarios reales atraídos por las fuerzas gravitatorias del mundo real. De igual manera, la conclusión de Fraenkel de que el plegamiento de las proteínas constituye un problema computacionalmente difícil no entra en la cuestión de cómo se las arreglan las proteínas para llevar a cabo su trabajo en segundos, y no en miles de millones de años.
Por tanto, para deducir conclusiones sobre la incapacidad de la ciencia para habérselas con tales cuestiones tenemos que justificar, o bien que el modelo matemático constituye una representación fiel de la situación física, o bien abandonar las matemáticas por completo. “¿Qué haría falta para que el mundo de los fenómenos físicos exhibiera el tipo de insolubilidad lógica que encontramos en las matemáticas? .Al respecto Casti afirma:
1) La naturaleza tendría que ser, ora inconsistente (incoherente), ora incompleta. La consistencia (coherencia) significa que en la naturaleza no existen auténticas paradojas. En general, cuando encontramos lo que parece ser una de ellas -como los chorros de gas aparentemente emitidos a velocidades mayores que la de la luz por ciertos cuásares- las investigaciones posteriores han proporcionado una explicación: los chorros “superlumínicos” resultaron ser ilusiones ópticas provocadas por efectos relativistas).
2) La completitud de la naturaleza entraña la imposibilidad de que surja un estado físico sin razón alguna; porque siempre existe una causa para cada efecto. Puede que algunos analistas opongan que la teoría cuántica contradice el aserto de que la naturaleza es consistente y completa. Pero...en realidad, la ecuación que rige la función de onda de un fenómeno cuántico proporciona una explicación causal para cada observación (completitud) y está bien definida en cada instante temporal (consistencia). Las notables “paradojas” de la mecánica cuántica nacen de nuestro empeño en concebir el objeto cuántico como si fuera un objeto clásico. Por ello se deduce que la naturaleza es, a un tiempo, consistente y completa.
3) Por otra parte, la dependencia de la ciencia respecto de la matemática y la argumentación deductiva constituyen un obstáculo para nuestra capacidad de dar respuesta a ciertas cuestiones relativas al mundo natural”. Y lo que estos ejemplos muestran es que, si se requiere buscar en el mundo real cuestiones imposibles de responder científicamente, ha de establecerse una cuidadosa distinción entre el mundo de los fenómenos naturales y los modelos matemáticos o computacionales de tales mundos como sigue:
A.- Los objetos del mundo real consisten en magnitudes directamente observables, como el tiempo o la posición, o en magnitudes, como la energía, deducidas a partir de aquellas. Nos basamos, pues, en parámetros, ya sean las medidas de posición de los planetas o la configuración realmente observada de una proteína. Tales elementos observables constituyen, por lo general, un conjunto discreto de medidas que toma valores en cierto conjunto finito de números. Además, tales medidas no son, por lo general, exactas.
B.- En el mundo de la matemática, por otra parte, tenemos representaciones simbólicas de estos observables del mundo real, en las cuales es frecuente suponer que los símbolos pertenecen a un continuo en el espacio y en el tiempo. Los símbolos matemáticos representativos de atributos como la posición y la velocidad presentan, de ordinario, valores expresados mediante números enteros, números reales o números complejos, sistemas, todos ellos, que contienen una colección infinita de elementos. En matemáticas, la noción preferida para caracterizar la incertidumbre es la aleatoriedad.
C.- El mundo de la computación, que ocupa la curiosa posición de tener un pie apoyado en el mundo real de las herramientas físicas y otro en el mundo de los objetos matemáticos abstractos. Si concebimos la computación como la ejecución de un conjunto de reglas, es decir, de un algoritmo, tal proceso es de naturaleza puramente matemática y pertenece al mundo de los objetos simbólicos. Pero concebida como un proceso de cierre y apertura de conmutadores en la memoria de una máquina computadora real, se trataría de un proceso firmemente arraigado en el mundo de los observables físicos.
Salidas: Una vía para poner de manifiesto si una cuestión es lógicamente imposible de responder por medios científicos consiste en restringir toda la discusión y argumentación al mundo de los fenómenos naturales. Al tomar tal camino nos está prohibido traducir a enunciados matemáticos cuestiones como “¿Es estable el Sistema Solar?” Y, en consecuencia, generar respuestas con el mecanismo de demostración lógica de las matemáticas. Nos enfrentamos entonces con el problema de hallar un sustituto en el mundo real para la noción de demostración matemática.
La noción de causalidad puede constituir una candidatura adecuada. En principio, cabe considerar que una cuestión admite respuesta científica si podemos producir una cadena de argumentos causales cuyo eslabón último es la respuesta a la cuestión. Los argumentos causales no tienen por qué estar expresados en términos matemáticos. Por ejemplo, el clásico silogismo, “Todos los hombres son mortales; Sócrates es hombre; por consiguiente, Sócrates es mortal”, es una concatenación causal. En ella no se utilizan matemáticas; sólo lenguaje ordinario. Por otra parte, sin el concurso de las matemáticas, la construcción de una argumento causal convincente puede ser tarea amedrentadora. En el caso de la estabilidad del sistema solar, por ejemplo, se requiere hallar definiciones no matemáticas convincentes de los planteas y la gravitación.
En vista de semejantes dificultades, parece prudente examinar métodos que conjuguen el mundo de la naturaleza con el de las matemáticas. Si para zanjar una cuestión atinente al mundo de la realidad deseamos apelar a la maquinaria demostrativa de las matemáticas, será preciso empezar “codificando” la cuestión, plasmándola en cierta formalización matemática, como una ecuación diferencial, una gráfica o un juego N personal. Abordamos la versión matemática del problema valiéndonos de los instrumentos y técnicas de este rincón concreto del mundo matemático y, finalmente, “descodificamos” la solución (¡si la tenemos!) devolviéndola a términos del mundo real. ¿Cómo saber si los modelos matemáticos de un sistema natural y el sistema propiamente dicho guardan relación entre sí? He aquí un antiguo arcano filosófico, cuya resolución entraña el desarrollo de una teoría de modelos. Además, los argumentos matemáticos pueden estar sometidos a las restricciones que Gödel y Turing han revelado; ignoramos todavía si el mundo real sufre constricciones similares.
Solución: Tal vez exista forma de esquivar estas dificultades. Los problemas que Gödel y otros identificaron valen para sistemas numéricos con infinitos elementos, como el conjunto de los números enteros. Pero en muchos de los problemas del mundo real interviene un número finito de variables, cada una de las cuales sólo puede tomar un número finito de valores.
Análogamente, las modalidades de razonamiento no deductivo -por ejemplo, la inducción, en la cual saltamos a una conclusión general partiendo de un número finito de observaciones concretas- pueden llevarnos más allá del dominio de la incredibilidad lógica. Así pues, si restringimos nuestros formalismos matemáticos a sistemas que utilicen conjuntos finitos de números, a la lógica no deductiva o a ambas cosas, toda cuestión matemática tendría que admitir respuesta; podemos esperar, por consiguiente, que también hallará respuesta su homólogo descodificado del mundo real.
Puede que los estudios de la mente humana revelen otros métodos para circunvalar los límites impuestos por la lógica. Ciertos defensores de la inteligencia artificial han sostenido que nuestros cerebros son ordenadores, si bien extraordinariamente perfeccionados, que efectúan cálculos según el mismo proceso lógico, secuencial, que los ordenadores tradicionales (e incluso que las redes neuronales o los procesadores en paralelo). Pero diversos teóricos, y muy señaladamente el físico-matemático Roger Penrose, de la Universidad de Oxford, han aducido que la actividad cognitiva humana no se basa en reglas de deducción conocidas y no está sujeta, por consiguiente, a limitaciones gödelianas.
Tal punto de vista se ha visto recientemente reforzado por estudios realizados conjuntamente con el apoyo de la psicóloga Margaret A. Boden, de la Universidad de Sussex, el matemático Donald G. Saari, de la Universidad del Noroeste, el economista Ake E. Andersson y otras personas, amparados por el Instituto de Estudios Futuros, de Estocolmo.
El trabajo induce fuertemente a pensar que, ni en las artes, ni en las ciencias naturales, ni en las matemáticas, la capacidad creativa humana se encuentra sometida a las rígidas limitaciones de los cálculos computarizados. Penrose y otros teóricos han conjeturado que la creatividad humana proviene de ciertos mecanismos o reglas desconocidos aún, quién sabe si relacionados con la mecánica cuántica. Al desvelar tales mecanismos e incorporarlos en el método científico, puede que los científicos logren resolver problemas aparentemente inabordables.
Evidentemente, la capacidad de la ciencia para calar en los secretos de la naturaleza está limitada por multitud de consideraciones prácticas, tales como el error de las mediciones, la duración de los cómputos, los recursos materiales y económicos, la voluntad política y los valores culturales. Pero ninguna de estas consideraciones guarda relación con la existencia de barreras lógicas que impidan dar respuesta a una cierta cuestión relativa al mundo natural.
EL PROBLEMA DE LA CONSCIENCIA
Desde un punto de vista objetivo, podemos llegar a conocer bastante bien el cerebro, Cuando el lector se detiene en esta página, hay un revoloteo de procesos: los fotones inciden en su retina, las señales eléctricas remontan el nervio óptico y atraviesan áreas diferentes de su cerebro, para que, al final, responda con una sonrisa, una expresión de perplejidad o un comentario. Pero se da también un aspecto subjetivo. Cuando el lector mira la página es consciente de que lo hace; percibe imágenes y palabras como parte de su vida interior, privada, mental. Todos tenemos vivas impresiones de las flores con sus colores, del cielo estrellado, Puede que sintamos además algunas emociones y formemos determinados pensamientos. Juntas, estas experiencias constituyen la consciencia, la vida subjetiva, interior, de la mente.
Durante muchos años, quienes investigaban el cerebro y la mente eludieron la consciencia. Dominaba la idea de que la ciencia, que se apoya en la objetividad, no podía dar cabida a algo tan subjetivo como la consciencia. El movimiento behaviorista en psicología, imperante en la primera mitad del siglo, se concentró en el comportamiento externo y desdeñó todo lo que tuviese que ver con procesos mentales internos. Más tarde, el ascenso de la ciencia cognitiva centró la atención en los procesos que ocurrían dentro de la cabeza.
En los últimos años, sin embargo, un número creciente de neurólogos, psicólogos, filósofos, informáticos y físicos ha rechazado que no se pueda estudiar la consciencia e intenta desentrañar sus secretos, Como cabría esperar de un campo novedoso, hay una maraña de teorías diversas, que polemizan unas con otras; a menudo usan los conceptos básicos de forma incompatible.
La miríada de concepciones que pululan en este campo van de las teorías reduccionistas, según las cuales la consciencia se puede explicar con los métodos habituales en neurología y psicología, a la postura de los llamados mistéricos, para quienes nunca comprenderemos la consciencia en absoluto.
1) En contra el reduccionismo se puede señalar que las herramientas de la neurología no pueden proporcionar una explicación completa de la experiencia consciente, aunque tengan mucho que ofrecer. En contra el misterismo se espera que un nuevo tipo de teoría podría explicar la consciencia. Aún se nos escapan los entresijos de esa teoría, pero el razonamiento riguroso y ciertas inferencias fundamentadas descubren algo de su naturaleza general. En ese orden, la teoría en cuestión habrá de basarse en nuevas leyes fundamentales y puede que el concepto de información desempeñe un papel central. Estos tenues destellos sugieren que una teoría de la consciencia tendría quizá consecuencias sorprendentes en nuestra forma de ver el universo y a nosotros mismos.
2) Los investigadores usan la palabra “consciencia” de muchas formas diferentes. Para aclarar la cuestión, tenemos que separar primero los problemas que con frecuencia se cobijan bajo ese nombre.
A tal fin, importa distinguir entre los “problemas fáciles” y el “problema duro” de la consciencia.
Los problemas fáciles: Estos no son en absoluto triviales -encierran la complejidad propia de los problemas de la psicología y la biología-, pero el misterio central radica en el problema duro.
• Entre los problemas fáciles de la consciencia figuran los siguientes: ¿Cómo discierne el sujeto entre un estímulo sensorial y otro, y reacciona ante ellos según lo pertinente? ¿Cómo integra el cerebro la información que llega de fuentes dispares y se sirve de ella para controlar el comportamiento? ¿Por qué pueden los individuos verbalizar sus estados internos? Aunque estas preguntas están asociadas a la consciencia, todas se refieren a los mecanismos objetivos del sistema cognoscitivo.
• En consecuencia, tenemos pleno derecho para esperar que la investigación incesante en los dominios de la psicología cognitiva y la neurología hallen la respuesta.
• Dado el reciente aluvión de trabajos sobre la consciencia acometidos por neurólogos y psicólogos, pudiera pensarse que el misterio empieza a aclararse.
• Un examen más atento, por contra, nos revela que casi todas las investigaciones actuales se dirigen sólo a los problemas fáciles de la consciencia.
• La confianza en el punto de vista reduccionista viene del progreso en los problemas fáciles, que no sirve de nada por lo que se refiere al problema duro.
• Piénsese en la hipótesis propuesta por los neurobiológicos Francis Crick, del Instituto Salk de Estudios Biológicos en San Diego, y Christof Koch, del Instituto de Tecnología de California. sostienen que la consciencia podría surgir de ciertas oscilaciones de la corteza cerebral, que se sincronizan al dispararse las neuronas 40 veces por segundo.
• Crick y Koch creen que el fenómeno podría explicar de qué manera se funden en un todo coherente los distintos atributos de un solo objeto percibido (su color y su forma, por ejemplo) que se procesan en partes diferentes del cerebro. En su teoría, dos elementos de información quedan unidos precisamente cuando los representan disparos neuronales sincronizados.
• Cabe en principio que la hipótesis elucidara uno de los problemas fáciles, el de cómo el cerebro integra la información. Pero, ¿por qué van las oscilaciones sincronizadas a hacer que surja la experiencia visual, no importa cuánta integración tenga lugar? Esta pregunta lleva en sí el problema duro, acerca del cual la teoría no tiene nada que ofrecer.
• Daniel D. Dennett ha presentado una depurada teoría relativa a la manera en que se combinan numerosos procesos independientes y producen una respuesta coherente a un suceso percibido. La teoría podría servir de mucho para explicar cómo producimos comunicaciones verbales sobre nuestros estados internos, pero nos dice muy poco acerca de la razón de que haya una experiencia subjetiva tras esas comunicaciones.
• Como otras teorías reduccionistas, la de Dennett es una teoría de los problemas fáciles.
El problema duro: Este se refiere al “cómo” los procesos físicos del cerebro dan lugar a la consciencia. Se refiere al aspecto interior del pensamiento y la percepción, a la sensación que las cosas producen en el sujeto:
• Cuando vemos, por ejemplo, experimentamos sensaciones visuales, como la de un azul vivo. O piense en el inefable sonido de un oboe lejano, el sufrimiento de una gran pena, el gozo de la felicidad o la cualidad meditativa de un momento en que nos perdemos en nuestros pensamientos.
• El problema duro de la consciencia, va más allá de los problemas que se refieren a cómo se desempeñan las funciones.
• Aun cuando cada función de comportamiento o cognoscitiva relacionada con la consciencia se explicase, quedaría en pie un misterio: ¿por qué la ejecución de esas funciones va acompañada por la experiencia consciente?
• Es este quebradero de cabeza adicional el que hace que el problema duro lo sea.
• Algunos han sugerido que, para resolver el problema duro, necesitamos echar mano de los nuevos instrumentos de la explicación física, de la dinámica no lineal, por ejemplo, de nuevos descubrimientos de la neurología o de la mecánica cuántica.
• Pero estas ideas se resienten de idéntica dificultad. A este respecto se han planteado las propuestas de Stuart R. Hameroff, de la Universidad de Arizona, y Roger Penrose, de la Universidad de Oxford. Mantienen que la consciencia surge de procesos físico-cuánticos que ocurren en los microtúbulos, estructuras proteínicas del interior de las neuronas.
• Es posible (si no probable) que esta hipótesis conduzca a una explicación de cómo toma decisiones el cerebro o incluso de la manera en que demuestra teoremas matemáticos, tal y como apuntan Hameroff y Penrose.
• Pero aunque lo haga, callará acerca de cómo esos procesos pueden dar lugar a la experiencia consciente. Lo mismo le pasará a cualquier teoría de la consciencia que se base sólo en el procesamiento físico.
TEORIA DEL TODO O TEORIA DE LA CONCIENCIA …?
Es una creencia muy extendida que la física proporciona un catálogo completo de los elementos y las leyes fundamentales del universo. Como dice el físico Steven Weinberg en su libro Dreams of a Final Theory, el objetivo de la física es una “teoría del todo”, de la que se derive cualquier cosa que haya que saber del universo. Pero Weinberg reconoce un problema con la consciencia. Pese a la potencia de la teoría física, la existencia de la consciencia no parece derivarse de sus leyes. Defiende la física con el argumento de que al final podría acabar explicando lo que él llama los correlatos objetivos de la consciencia (es decir, los correlatos neuronales), pero, claro está, eso no es explicar la consciencia misma.
Si la existencia de la consciencia no se deriva de leyes físicas, una teoría de la física no constituye una verdadera teoría del todo. Una teoría final, pues, debe contener un componente fundamental extra.
Por tanto, una teoría completa tendrá dos componentes:
• leyes físicas, que nos dirán qué les pasa a los sistemas físicos, desde los infinitesimales hasta los cosmológicos,
• leyes psicológicas, que nos dirán cómo se asocian algunos de esos sistemas a la experiencia consciente.
Estos dos componentes constituirían una verdadera teoría del todo.
Admitamos que existan tales leyes psicofísicas. ¿Cómo descubrirlas? El principal obstáculo lo encontraremos en la carencia de datos. Tal y como se la describe, la consciencia es subjetiva: no hay, pues, forma de observarla en otros.
Pero hablamos de un obstáculo, no de un callejón sin salida. Para empezar, cada uno de nosotros tiene acceso a sus propias experiencias, un rico tesoro que puede servir para formular teorías.
Es verosímil que nos basemos además en informaciones indirectas, como las descripciones que hacen los sujetos de sus experiencias.
También tienen un papel que desempeñar los argumentos filosóficos y los experimentos mentales. Estos métodos, aunque limitados, son suficientes para empezar.
Al no poderse contrastar de forma concluyente, estas teorías serán más conjeturales que las teorías de las disciplinas científicas al uso. sin embargo, no hay razón por la que no deban estar sujetas a una explicación fiel de nuestras experiencias personales y las comunicadas por los otros.
Si hallamos una teoría que concuerde con los datos mejor que cualquier otra dotada de idéntica sencillez, tendremos buenas razones para aceptarla. Hasta ahora no contamos con ninguna que case con los datos. Resulta, pues, prematuro ocuparse de la contrastabilidad.
Propuestas: Podríamos empezar por buscar leyes puente de alto nivel que conectasen los procesos físicos con la experiencia en el orden cotidiano de cosas. Podría sacarse la configuración básica de una ley así de la observación de que, cuando somos conscientes de algo, por lo general tenemos la capacidad de actuar al respecto y hablar de ello, y éstas son funciones objetivas físicas. A la recíproca, cuando una información está disponible directamente para la acción y el habla, en general es consciente. Por tanto, caben dos formas de atacar el problema:
a) Coherencia estructural: La consciencia guarda una buena correlación con lo que podríamos llamar “percatarse”: el proceso gracias al cual la información del cerebro vienen a estar globalmente disponible para los procesos motores del estilo del habla o de la acción corporal. Podemos reformular la idea que está detrás de esto como un principio de coherencia estructural: la estructura de la experiencia consciente se refleja en la estructura de la información presente en la acción de percatarse, y al revés.
b) Principio de invariancia organizativa: Otro candidato a ley psicofísica es el principio de plantear que los sistemas físicos que tengan una misma organización abstracta darán lugar al mismo tipo de experiencia consciente, no importa de qué estén hechos. Por ejemplo, si las interacciones entre nuestras neuronas se pudiesen duplicar con toda precisión mediante microcircuitos de silicio, surgiría la misma experiencia consciente. La idea es un tanto polémica, pero creo que está muy respaldada por los experimentos mentales donde se reemplazan gradualmente las neuronas por microcircuitos de silicio. (Lo que entraña que algún día podría lograrse la consciencia en las máquinas).
TEORIA DE LA INFORMACION
El objetivo final de una teoría de la consciencia se cifra en un conjunto simple y elegante de leyes fundamentales, análogo a las leyes fundamentales de la física. Sin embargo, es poco probable que los principios descritos antes sean fundamentales. Más bien parecen ser leyes psicofísicas de alto nivel, análogas a principios macroscópicos e la física del estilo de los que aparecen en la termodinámica o la cinemática. ¿Cuáles podrían ser las leyes fundamentales subyacentes?
Nadie lo sabe, pero puede apuntarse que el concepto de “información” quizá desempeñe en las leyes psicofísicas primarias un papel central. Según la noción abstracta que propuso Claude E. Shannon, del Instituto de Tecnología de Massachussetts, en los años cuarenta, la información consiste en un conjunto de estados distintos que comparten una estructura básica de similaridades y diferencias entre ellos.
Una información encierra quizá dos aspectos básicos, o al menos algunas informaciones los tienen: uno físico y otro experiencial.
Esta hipótesis posee categoría de principio fundamental, un principio que podría estar tras la relación existente entre los procesos físicos y la experiencia.
Dondequiera que encontremos una experiencia consciente, existirá como uno de los aspecto de un estado de información; el otro aspecto es el que se hallará inmerso en un proceso físico del cerebro.
Hay que darle sustancia a esta propuesta para construir una teoría satisfactoria. Pero concuerda muy bien con los principios mencionados antes -que los sistemas con la misma organización incorporan la misma información, por ejemplo- y podría explicar numerosos rasgos de nuestra experiencia consciente.
La idea es, al menos, compatible con otras, como la del físico John A. Wheeler, quien sugiere que la información es fundamental en la física del universo. En última instancia, las leyes de la física podrían tal vez reformularse a partir del concepto de información; en ese caso tendríamos una congruencia satisfactoria entre las construcciones conceptuales de las leyes físicas y las de las leyes psicológicas. Hasta pudiera suceder que una teoría de la física y una teoría dela consciencia acabasen por amalgamarse en una gran teoría de la información.
La ubicuidad de la información plantea un problema potencial. Pensemos en un termostato. Incorpora cierta información, pero ¿es consciente?
Se proponen al menos dos respuestas:
1.- podríamos restringir las leyes fundamentales de manera que sólo cierta información tuviese un aspecto experiencial, dependiendo quizá de su procesamiento físico.
2.- que admitiésemos que toda información tiene un aspecto experiencial, es decir, donde hubiera un procesamiento complejo de la información habría una experiencia compleja y donde aquel fuera simple la experiencia sería simple.
En ese cuadro, hasta un termostato podría tener experiencias, pero mucho más simples incluso que una experiencia básica del color, y ciertamente no las acompañarían emociones o pensamientos. Parecerá extraño al principio, pero si la experiencia es de verdad fundamental, podríamos esperar que estuviese muy difundida.
Sea como sea, la elección entre estas posibilidades dependería de cuál se integrase en la teoría más potente.
Por supuesto que todos los problemas apuntados, que requieren mas precisión y estudio pueden ser abordados desde dos perspectivas: una estrictamente materialista y otra que se abra a que además de la materia existe una información que estructura la materia no importa de cual se trate, ni tampoco de las características que adopte, tanto en el mundo microscópico, el mundo que nos es familiar o el macroscópico.
EVOLUCIONISMO Y RELIGIÓN
El biólogo francés George Olivier, en su obra "La Evolución del Hombre" al referirse a las distintas escuelas que defienden el criterio materialista frente al espiritualista sostenía en la década de los sesenta estas ideas:
Criterio materialista.- Para el científico materialista el sector de la evolución es el azar que interviene de un modo constante en la evolución. Es así como el azar, actuando por la mutación y la selección, lo explica todo. Los nuevos tipos aparecen por mutaciones al azar; los que sobreviven son los que resultan ser viables, por casualidad, en el medio en que se encuentran, lo que corresponde finalmente a una cierta elección dentro de las posibilidades de mutaciones persistentes. No acontece lo que debía de acontecer, ya que no hay plan preestablecido. Pero lo que puede acontecer, acontece generalmente. La historia de la vida en la tierra es una interminable sucesión de casualidades, corregidas a cada instante por la selección. Una serie de pequeños cambios cuantitativos, acumulados por la selección en una misma dirección, puede finalmente provocar un gran cambio cualitativo.
El materialismo sostiene a fondo la teoría sintética (también llamada neodarwinismo) y pone en exergo la larga duración de los tiempos geológicos: de pocos millares de millones de años, durante los cuales la vida ha tenido todo el tiempo necesario para proceder a todos los ensayos posibles antes de llegar a una buena solución, la adaptación del ser a su medio ambiente. El materialismo insiste en que la ortogénesis rebasa a menudo su objetivo, precisamente porque carece de un verdadero objetivo y su orientación es aleatoria y debida únicamente a las fuerzas de la evolución. En cuanto a la intervención del factor tiempo, se trata de mutaciones que modifican el ritmo de crecimiento, total o parcial, dando así origen a nuevos seres, perfeccionados o simplificados.
Crítica del materialismo.- La dialéctica materialista rechaza las explicaciones y el hecho de ver fuerzas directrices allí donde no hay más que categorías de hechos. Pero a juicio de Olivier no se le puede hacer la misma crítica: la atribución sistemática al dios azar es tan verbal como el antiazar, es decir, la finalidad. Por otra parte, el azar no constituye una noción científica suficiente.
El materialismo se basa en hechos concretos; ahora bien, la evolución paleontológica está ordenada en una dirección que no puede ser determinada por mutaciones aleatorias. La tendencia fundamental de la evolución es el desarrollo del psiquismo; ¿cómo puede explicar esto el azar? Finalmente, a propósito de las objeciones a la teoría sintética se ha visto que la creación de los órganos complejos sigue siendo un enigma. Además, la aparición por simple azar del hombre y de la conciencia refleja es chocante para nuestra razón (y para nuestra vanidad). Parafraseando a Bernard Shaw “la evolución consistiría, no solamente en transformar progresivamente una marea de amibas en una Academia Francesa, sino que además, lo haría por pura casualidad” Para Grassé, que no defiende el finalismo, “Los partidarios de los azares dichosos y constantemente renovados hacen surgir otra finalidad, la de una suerte perpetua que convierte su teoría en irrisión”. Los materialistas reniegan de su teoría al negarse a ver la evidencia: la evolución es una fuerza que comporta un mínimo de finalidad. Rechazar una causa so pretexto de ser metafísica es anticientífico.
Sin embargo, se puede sacar en conclusión, que no se comprende por qué razón a la materia se le impondría una finalidad especial por la vida; se tiene una impresión de finalismo, de predestinación, pero al materialismo no niega esta apariencia ni tampoco cierto determinismo. Por eso el biólogo puede mantenerse dentro del estudio de los hechos y considerar la finalidad como tal, sin plantearse otros problemas que el del cómo materialista, sin tener que ir hasta el porqué del espiritualista. El método es ciertamente válido. Vista desde este ángulo, la dialéctica materialista, la investigación de las causas racionales, la objetividad, deben poner de acuerdo a todos los biólogos, pero para algunos de ellos ésta no es más que la primera etapa de la comprensión íntima de la evolución.
Criterio espiritualista.- El espiritualismo se interesa necesariamente por todo concepto científico que se refiera al hombre o que vaya a parar a él, como es el caso de la evolución. Para el espiritualismo, en efecto, el hombre es doble y está compuesto de espíritu y materia ( y ambos simultáneamente). Al espiritualismo le importa mucho defender esta posición.
A menudo, el punto de vista espiritualista no se expresa; hay muchos sabios y hombres de ciencia que son cristianos, pero guardan para sí mismos sus conceptos personales y ante un problema científico adoptan una actitud racionalista. Este pudor de sentimientos contiene una ambigüedad, al menos por lo que hace referencia a las teorías de la evolución. Si se adopta el punto de vista materialista, se reduce todo lo que se refiere al hombre a elementos materiales, alma inclusive, si es que existe. Ahora bien, un espiritualista es necesariamente dualista y tiene que refutar toda teoría que no acepte, en el hombre, un principio trascendente. El espiritualismo reviste formas muy diversas: existe un principio trascendente que domina la materia y la vida. Habiendo admitido este postulado, ya no hay ninguna dificultad en buscar el objetivo y la razón de ser de la evolución. Mientras el materialismo no admite más que las causas mecánicas, el espiritualismo busca las causas finales, ya que los factores de la evolución no son más que las causas segundas y no explican más que el determinismo mecánico de la evolución. La cuestión consiste en saber si la ciencia debe ignorar las causas trascendentes.
Para el espiritualismo, la finalidad es evidente, por ejemplo, el ojo está hecho para ver, tiene un objetivo, una finalidad, igual que el martillo está hecho para golpear y para la mano del obrero. Todo esto es la finalidad interna, la coordinación anatómica; pero también hay una finalidad externa, una relación entre los seres y las cosas, un equilibrio biológico: la “cadena alimentaria”. La finalidad, concebida en su sentido lato admite los tanteos, los errores y los fracasos de la naturaleza. De todos modos, la mayoría de los organismos, las correlaciones funcionales y la misma naturaleza de la vida necesitan un principio original: hay un mínimo de finalidad en la naturaleza y todo ocurre como si la naturaleza quisiera la perpetuación de la vida.
A decir verdad, es la evolución humana la que provoca la interpretación finalista que parece resultar del brote de psiquismo, del “ascenso de la conciencia” que se comprueba en el reino animal cuando se va desde los seres inferiores hasta nosotros. Ahora bien, el hombre no se caracteriza únicamente por una mayor inteligencia, sino por la emergencia del espíritu fuera de la materia, por la conciencia moral, nociones todas ellas que desafían el análisis científico habitual. La evolución ha tenido al hombre por fin (tal vez por fin temporal), pero no hay duda de que la evolución ha sido dirigida, impuesta por la voluntad así: “La evolución es la obra de un pensamiento creador sobrenatural, de Dios, que ha hecho nacer la vida en un universo dispuesto a recibirla”.
Crítica del espiritualismo.- Es difícil discutir los conceptos finalistas presentados en esta forma, ya que están basados principalmente en nociones metafísica e implican el postulado dualista señalado al principio. La argumentación científica sobre ello suele ser muy pobre, incluso cuando emana de hombres de ciencia indiscutidos. Las afirmaciones no son pruebas.
Las interpretaciones finalistas son antropocéntricas; somos nosotros, los hombres, los que vemos una intención, una finalidad en la evolución. Un solo concepto de la evolución halló gracia ante el finalismo, que de él ha sacado un argumento: la teoría de Lamarck (la adaptación, según este autor, está provocada por la reacción del ser, como si éste tuviese una personalidad, una conciencia). Dentro de la óptica lamarckiana se dice: “La función crea el órgano”; por consiguiente, el órgano está hecho para la función y todo, en la naturaleza, halla su razón de ser, su objetivo, su finalidad.
¿HAY UN EJE CÓSMICO?
Sustentada en la necesidad de clarificar conceptos para tratar de “vivir en el ámbito de la verdad”, como aconseja Julián Marías; pero, al tiempo, conociendo la imposibilidad de apartar la razón del subjetivismo -como explica Antonio Damasio- es conveniente retomar la propuesta de Theilhard para analizarla - someramente, frente a la actitud del científico que trata de explicar - elaborando modelos del Universo - lo que éste es, fue y puede ser.
En el marco referencial utilizado en el concepto Occidental, los científicos (haciendo una simplificación) se suelen mover en uno de los siguientes contornos:
a) es agnóstico,
b) es creyente o
c) es materialista y cada una de estas posiciones apriorísticas, bañan - como un todo su quehacer cosmológico (cuando el científico no logra superar esas visiones), por ende sus explicaciones suelen teñirse de esos marcos contextuales extra - científicos. Conviene, pues, asomarse a los parámetros que contextualizan estos modelos, ya que conociendo el “punto de salida” puede intuirse el “punto de llegada”.
Demostración.- Para facilitar la comprensión de este punto , se utiliza un extracto del modo de razonamiento que emplea el jesuita francés Jean Chavaux, en su obra “Dios Demostrable”, que se publicó en la década de los setenta, cuando analiza el hecho de la Evolución Cósmica. El ejemplo muestra gran consistencia lógica. Veamos:
Evolución.- Un hombre de ciencia en Occidente (sea creyente, materialista o agnóstico) está de acuerdo en constatar unánimemente un hecho: el de la Evolución cósmica y biológica y humana. Este hecho lo constata por las vías normales de las ciencias experimentales, puede leerlo de la misma manera, e interpretarlo en el plano científico de la misma manera: la materia se orienta en el curso del tiempo hacia estados cada vez más altamente complejificados.
La materia viva, la vida se orienta en el curso del tiempo hacia formas cada vez más cefalizadas. La ley de asociación, de síntesis y de complejificación se verifica desde las síntesis puramente físicas, situadas al nivel atómico y molecular, hasta el plano humano, en el que un proceso análogo de asociación y de síntesis entre los elementos humanos se efectúa ante sus ojos. Tal es el esquema de la lectura que ha propuesto Theilhard, y , sin perjuicio de tal o cual precisión, el conjunto de los hombres de ciencia puede aceptar esta “ley de recurrencia”. De hecho, esta “lectura” del fenómeno está en vías de pasar a la enseñanza común.
Método Cientifico.- Los hombres de ciencia están de acuerdo en admitir que hay que someterse al rigor del método científico, a la lección permanente de la experiencia. Lo Real es el maestro de todos, lo Real objetivo, que tiene fuerza de ley. Si llamamos a lo Real “materia”, todo hombre de ciencia concede que, desde el punto de vista del método, se somete a la enseñanza de la “materia”. Ningún hombre de ciencia pretende reconstruir lo Real partiendo del “yo”. Si se llama “materia” a la realidad objetiva, todo hombre de ciencia desde el punto de vista del método científico es “materialista”, es decir, en otros términos, “es realista”, y no es idealista. Así, pues, respecto al hecho de la Evolución Cósmica y Biológica para leer codo con codo el sentido del Fenómeno en evolución que se puede interpretar diciendo: el hecho de la Evolución significa que se está instalado en un Cosmos eternamente consumado, sino que se está preso de un proceso de cosmogénesis continuada o, dicho de otro modo, que se nace en un Universo en el que todo nace, progresivamente, a la existencia.
¿ Uno- Multiple?.- El concepto científico de Evolución se opone y recusa primeramente una cierta metafísica de la identidad, en la que todo está eternamente dado, todo preexiste, nada empieza a ser, nada llega a ser, nada nace. Este tipo de metafísica se halla expresado, por ejemplo, en los Upanishad y en Empédocles. Nada nace, nada empieza a existir. Todo está dado, desde toda la eternidad, en lo Absoluto. El nacimiento no es más que una emergencia, en el plano de las apariencias, de un fragmento, de una parcela de lo Absoluto Pero a la vez es una decadencia, una caída. El mundo de la experiencia no es más que una apariencia, o peor, una desgracia, una alienación de lo Absoluto en la naturaleza, en la materia. Para el científico, la salvación consiste en reabsorber y superar, tanto como le sea posible, tanto como dependa de él, este exilio, esta alienación de lo Absoluto, del que él es una parcela, y en hacer que ese fragmento exiliado de lo Absoluto se remonte a su fuente original y que lo múltiple retorne al seno de lo Uno.
Movimiento Cíclico.- Esta metafísica es esencialmente cíclica, puesto que el proceso que representa la vida de lo Absoluto puede representarse por un movimiento de salida, de alienación (de lo Uno a lo múltiple), y de retorno (de lo múltiple a lo Uno). Semejante visión del mundo, que la hallamos en la India y en Plotino, es exactamente opuesta a la visión moderna de un Universo en evolución. La metafísica de lo Uno y de la Identidad niega el tiempo: el tiempo, en la metafísica de los Upanishad como en la de Plotino mide precisamente la caída, el descenso, la degradación de lo Uno. Y la salvación, la sabiduría, consisten en reconocer que esa procesión, que es una alienación, es ilusoria, en aniquilar tanto el tiempo como el espacio.
Creación.-
Una visión de la Evolución significa, por el contrario, que los seres empiezan realmente a existir en un momento del tiempo, y que unos radicalmente nuevos, que no preexistían de ningún modo, surgen y nacen. Al haberse renunciado a la idea india y plotiana de la preexistencia de las almas...Por tanto se está de acuerdo en reconocer que una visión como la que impone el conjunto de las Ciencias contemporáneas, de un Universo es génesis evolutiva, significa que todo nace, que todo se crea constantemente, continuamente. El hecho de la creación es el hecho más universal, más común, más constante. Cada niño que es concebido, cada hierba que brota, cada idea que nace, señalan un momento de esta creación universal y continuada. Se está en un Universo en régimen de creación, y también creador.
Conclusión Común.- Esto es el primer tiempo, el de la lectura científica común del Fenómeno (por un científico - independientemente de su contexto ideológico) de ese segmento del Fenómeno que está al alcance de la Ciencia experimental.
Agregado Materialista Uno: El científico marxista va aún más lejos. A la lectura científica del hecho de la evolución cósmica y biológica, añade una afirmación metafísica, que rebasa los datos de la experiencia: afirma que la materia es increada, eterna e infinita en el espacio y en el tiempo, que el proceso de la Evolución cósmica es eterno, indefinido, y tiene en sí mismo con que justificar su existencia y su desarrollo evolutivo infinito.
Comentario Uno.-
1) A una lectura positiva y científica de la experiencia, que efectivamente nos descubre un Universo en régimen de evolución, el marxismo añade esta tesis, que trasciende los datos de toda experiencia, y de toda ciencia, no solamente actual, sino posible, a saber, que la Evolución cósmica es eterna y ontológicamente suficiente.
2) Esta tesis no es una tesis científica, sino una tesis metafísica, y una tesis metafísica que ninguna experiencia funda ni justifica. El marxismo atribuye la aseidad a este proceso cósmico en devenir. En eso, establece una afirmación que no está contenida en lo dado, sino que lo trasciende: establece una afirmación metafísica, por no decir mística.
3) Constatar el hecho de la materia y de su evolución, estudiar esa evolución y esas leyes, es una cosa. Afirmar que esa evolución es infinita, eterna, ontológicamente suficiente; en otros términos: conferirle los predicados reservados en la teología a lo Absoluto, es otra cosa enteramente distinta.
4) Afirmar la eternidad de la materia, la eternidad del Universo, afirmar que la materia no ha tenido comienzo ni tendrá fin, es una tesis lícita, siempre que al sostenerla se reconozca que es una tesis metafísica, la cual, además, no descansa en ninguna experiencia científica, de lo eterno ni de lo infinito.
5) De hecho, hoy conocemos un Universo sobre una porción de tiempo de algunos miles de millones de años. Nada nos permite afirmar que el Universo, es decir, que el Tiempo, sea eterno. Es una afirmación metafísica que excede los datos de la experiencia científica.
6) Pero hay algo más grave que esta afirmación de la eternidad del Universo (tesis aristotélica y averroísta); es la tesis de la suficiencia ontológica de la aseidad del proceso cósmico, tesis que equivale a decir que el Universo, la Materia, el Proceso cósmico, son lo Absoluto, la suficiencia ontológica, la aseidad, la capacidad de crear.
Agregado Materialista Dos: El científico materialista se fundamenta en este concepto: Para no recurrir al Creador, concluyo que la materia prima del Universo ha sido producida naturalmente, por transformaciones del movimiento que son inherentes por naturaleza, a la materia en movimiento y cuyas condiciones, por consiguiente, deben ser reproducidas también por la materia, aún cuando sólo sea en millones y millones de años y más o menos al azar.
Comentario Dos.-
1) La materia, no solamente es increada y por tanto eterna (primera afirmación metafísica de carácter mítico) sino que además es capaz de crear, por sí misma la vida y la conciencia. Por consiguiente, la materia relativamente simple que constituía el Universo hace sólo unos miles de millones de años es capaz de dar cuenta de su desarrollo ulterior, de su complejidad, de la síntesis de la materia viva, de la creación de la vida y de las formas conscientes y pensantes de la vida.
2) Esta segunda tesis, excede radicalmente lo que científicamente está permitido decir, y además, es radicalmente mitológica: es una tesis que equivale a divinizar la materia, a concederle una “potencia”, unas “virtudes”, unos “recursos” tan ocultos y mitológicos como las divinizaciones de los elementos en las arcaicas religiones naturistas, en las que se adoraba a las Fuerzas naturales y se divinizaba la materia, la energía, la fecundidad.
3) La eternidad de la materia, y la aseidad, son dos tesis que no están fundadas en el plano científico; dos tesis que, desde el punto de vista metafísico, resultan más de la mitología panteísta que de una filosofía que pretende ser científica y racional.
Agregado Materialista Tres: El científico materialista se fundamenta en estos puntos:
1) Un ser no es suficiente... más que si debe su existencia únicamente a sí mismo. Un hombre que no vive sino por la merced de otro, debe considerarse como un ser dependiente.
2) La creación del mundo ha recibido un terrible golpe con la Geognosia, es decir, con la Ciencia, que presenta la formación de la Tierra, el devenir de la Tierra, como un proceso, como una auto - formación” (también se podría traducir: auto - evolución).
Comentario tres.- Este texto merece reflexión por varias razones.
1) Expresa el horror a la idea de dependencia ontológica. Pero guste o no , el hecho es ése: no nos hemos creado a nosotros mismos. La vida no es mi propia creación. Ese es el hecho.
2) Conviene no confundir la idea de creación u la idea de fabricación; la idea de fabricación referida a Dios es un antropomorfismo. Aquí no podemos extendernos acerca de este punto. Pero anotemos solamente que la crítica del antropofismo “Dios - fabricante” sólo se dirige a una concepción antropomórfica y demiúrgica de la idea de creación.
Conclusiones: En consecuencia frente a lo “real” el científico actúa así:
a) El materialista diviniza la materia y la Evolución y hace pasar por ciencia esta tesis mitológica, siendo así que es una afirmación gratuita no fundamentada por ninguna ciencia;
b) El agnóstico se contenta con estudiar el fenómeno), tal como éste se presenta, por lo mismo que se presenta, sin establecer ninguna afirmación metafísica acerca de la suficiencia o la insuficiencia ontológica, la aseidad, a lo Real empírico;
c) El judeo cristiano, se contentará con describir, el fenómeno (sea por estricto, apego al método científico, o por miedo a admitir su fe frente a otros, salvo en privado en escritos de divulgación); luego, en un segundo momento , y distinto, de su reflexión, hará una afirmación metafísica que le llevará a reconocer que, lo Real en gestación no es ontológicamente suficiente sino que se funda en Otro, que es Creador (e increado, a su vez).
Consecuencias:
1) El concepto científico de Evolución no se opone, pues, de ninguna manera, al concepto metafísico de creación. Por el contrario, el concepto científico de evolución representa, para el científico creyente, el anverso experimental del concepto teológico de creación: la evolución es la creación que está haciéndose ante nuestros ojos y en la que participamos, si queremos.
2) El concepto de evolución se ha opuesto, en el siglo pasado, y aún hoy en algunos espíritus anacrónicos, a una concepción infantil de la creación (creación - fabricación, discontinua, instantánea, etc.) tomada de la imaginería del autor de las primeras páginas del Génesis. La idea de creación no está ligada a esa imaginería. La idea de creación significa esencialmente que el Mundo no es lo Absoluto, que lo Absoluto no es el mundo, que nosotros no somos parcelas ni fragmentos de lo Absoluto, sino que la creación del mundo representa un don del Creador, que trata de elevar hasta su Vida a otros seres, llamados a convertirse, como El, a su imagen, en creadores.
3) La creación del hombre tampoco constituye problema en la perspectiva de la Evolución. El texto bíblico que abre el libro del Génesis expresa, como es normal, la idea de que Dios ha creado al hombre, según los términos de que disponía un narrador de la época, con la imagen del alfarero que modela una estatuilla. Apoyarse en la imagen a expensas del sentido es dar prueba de tosquedad al autor de ese texto por un primitivo que no sabe distinguir lo que quiere decir de la manera como lo dice.
Lo que importa, el sentido, de ese texto es que, el hombre no se ha creado él solo, sino que Dios lo ha creado. La imaginaría utilizada para expresar esta idea no está ligada a la idea. Hoy sabemos cómo apareció el hombre: por una mutación brusca de una especie anterior. No hay dificultad real, si se reconoce, como hace el científico cristiano, y Theilhard en particular, que la creación es coexistente a la Evolución entera, es decir, una vez más, que la Evolución manifiesta - mediante una sucesión de epifemómenos - la creación que se hace.
LA CIENCIA SUPERNATURAL
A finales de la década de los ochenta, el británico David Foster, profesor de filosofía de la ciencia en el King College de Londres da a conocer su obra “ The Philophical Scientist” en la que plantea el desarrollo de una forma de pensar el Universo que se inicia en lo que el denomina “ El Club de Cambridge”, que estaría integrado por cuatro investigadores de renombre que coincidieron en un punto: la materia del Universo es el resultado del pensamiento y ese pensamiento es de carácter sobrenatural. Estos cuatro investigadores fueron el astrónomo Arthur Eddington, el cosmólogo James Jeans, el filósofo Bertrand Russell y el matemático Arnold M. Whitehead, quienes trabajaron -desde el ángulo de la filosofía de la ciencia- sobre cuatro descubrimientos revolucionarios:
1) La Ley de la Relatividad Especial de Einstein que estatuiría matemáticamente que un objeto moviéndose a velocidad de la luz tendría infinita energía e infinito peso, lo que luego se confirmó en laboratorios.
2) La Ley de la Relatividad General de Einstein, que planteaba ya no la acción a distancia de la atracción gravitacional, sino que la masa distorsionaba el espacio - tiempo, curvándolo de tal manera que ésta parecía ser atraída por una fuerza gravitacional distante. En el laboratorio no se podía observar esta hipótesis, pero en las ecuaciones matemáticas se confirmaría más tarde en las observaciones astronómicas, que permitieron observar durante los eclipses solares que los rayos de luz procedentes de estrellas distantes se “doblaban” al pasar cerca del Sol.
3) La Teoría cuántica planteada por Max Plank quien planteaba que la radiación es emitida en “paquetes de energía” de magnitudes mesurables e invariables y esta teoría fue ratificada por planteamientos y las demostraciones matemáticas posteriores.
4) El Principio de Incertidumbre postulado por Werner Heisemberg para demostrar que en micro eventos físicos si se tienen dos parámetros dados, por ejemplo posición y velocidad, es posible obtener el valor exacto de un parámetro, pero sólo a expensas del segundo y viceversa. Este planteamiento venía a señalar la imposibilidad de relacionar mecánicamente causas y efectos en tales niveles y pudo demostrarse posteriormente por probabilidades matemáticas.
Para el Club de Cambridge todos estos puntos eran oscuros, pero en todas las matemáticas permitían aclararlos. De allí infiere Foster una serie de hipótesis derivadas para ir creando - paso a paso - planteamientos fundamentados en demostraciones matemáticas y en demostraciones empíricas tomadas de la biología molecular y de la segunda ley de la termodinámica y concluye con sus propias deducciones, todas, sin embargo enraizadas en las líneas capitales de los ideas de los cuatro ya citados:
• Eddington :La materia del Universo es el Pensamiento;
• Jean :El pensamiento del Universo es obra de un Ente Superior Matemático;
• Russell : La Matemática y la Lógica son idénticas) obsérvese que el término lógica en inglés alude a LOGOS y éste a Verbo y a su vez Verbo alude a Dios;
• Whitehead : El pensamiento (que es la materia del Universo) está ordenado en jerarquías y éstas, a su vez interactúan por leyes.
Estas ideas fueron -en buena parte- precursoras unas y contemporáneas otras- con la concepción de la nueva cultura que preconizaba Snow.
Los planteamientos para su propia aportación en lo que Foster denomina” La Ciencia Supernatural” son relativamente simples y van siendo tejidos paso a paso a partir de verdades demostradas. En lo que interesa bajo el título : Espacio - Logos y Creación plantea estas conclusiones:
1) La Teoría de la Relatividad de Einstein interpreta que la masa - energía es un equivalente a la distorsión del espacio - tiempo (esto es conocido en física como el tensor - materia de Einstein T ) el que hizo equivalente a una interpretación geométrica equivalente a masa, energía y “momento”, en que la densidad de la masa y la energía pueden ser concebidas en términos de la curvatura de una cuarta dimensión en la métrica de la Geometría de Riemann.
2) Esa curvatura es particularmente alta en las porciones del espacio - tiempo en las que hay materia presente y se desvanece en los sitios en donde no hay materia, lo que significa que la masa puede hacerse equivalente matemáticamente a la curvatura del espacio. (Ley de Equivalencia de la Masa - Espacio).
3) Esta situación puede interpretarse de dos formas:
a) Si se asume la presencia de masa, el espacio se curva a su alrededor, o bien; b) Si existe un espacio curvado, éste se puede llenar de materia; c) Esto hace surgir la pregunta:¿ Cuál es la verdad primordial?, o bien plantearse si se está frente a un clásico: ¿Qué es primero, el huevo o la gallina....? Si por la acción de un agente externo el espacio debe curvarse, entonces éste crearía materia en el foco de la curvatura. Esa situación se resuelve si el Universo es un acto obra del pensamiento y por lo tanto la creación (materia) es un acto de pensamiento.
4) La idea de que el pensamiento es una forma del espacio es antigua: puede sustraerse en Platón, fue desarrollada por Kant y más modernamente por Hinton y Ouspesky y parte de esta lógica simple:
a) el pensamiento es forma;
b) el espacio (real o imaginario) es el medio para la forma.
c) el pensamiento es la forma del espacio;
d) si el Universo puede crearse por darle forma al espacio y hay un agente externo capaz de hacerlo, éste es sobrenatural;
e) una vez generado el acto el agente externo (Foster lo denomina LOGOS y más tarde lo identifica con el concepto Dios), desaparece.
5) El agente externo sobrenatural no requiere gastar energía pues actúa simplemente como catalizador (Foster acude a la representación de una especie de energía pues gira a la vez como las manecillas de un reloj y en sentido contrario y se auto anula, desapareciendo y la asemeja al principio de la materia - antimateria que ya no es ninguna idea extraña, pues ha sido pensada matemáticamente y comprobada en el laboratorio).
6) Para comprobar este planteamiento Foster dice que si se toman dos energías que rotan en sentido contrario se desvanecen y si se toma, por ejemplo “NADA” y se causa una polaridad complementaria se obtiene Energía - y en este caso bajo consideración - esta complementariedad ha sido observada en el laboratorio aplicada en la microfísica al electrón, al protón y al neutrino y sus opuestos polares. Y es que la realidad en el mundo físico consiste en el establecimiento de opuestos complementarios y este sistema básico se da entre la masa y el espacio curvado (como en la dualidad de la luz que se comparta como partícula (el fotón) o como onda ( la forma del espacio - tiempo).
También Foster se preocupa por aliviar la tensión entre Fe y Ciencia y propone que si se desea incorporar la ciencia supernatural en el modelo religioso es posible hacerlo dentro de la teoría cibernética moderna, para lo cual se requiere únicamente entender tres niveles de organización del pensamiento creador:
• El primero sería: Dios como Programador Cósmico: omniscente; omnipotente; pensamiento invisible, que sería con libertad para: programar o no programar; o para programar selectivamente de acuerdo a su propia conciencia.
• El segundo sería: Logos como un Programa Maestro (La Palabra o el Verbo) actuando como “Interfase” entre Dios y la Naturaleza para suministrar la especificación de todas las constantes cósmicas.
• Y el tercero que estaría constituido por la Naturaleza (La Creación) que sería visible, sistematizable y analizable por: a) materia ordenada en niveles; b) materia jerarquizada.
La analogía con una Computadora sería, entonces:
a) Programador Cósmico: Dios;
b) Programa: Logos;
c) Procesamiento visible (o “Print - Out”): Naturaleza.
Por último Foster expresa que la religión, como el hecho más visible de la fe comenzó a declinar por varias razones históricas en que distingue cuatro hitos:
a) Los grandes errores de la Iglesia en el Medioevo (particularmente con Galileo);
b) La aparición de los planteamientos de Darvin que atribuyeron la evolución al azar, lo que demuestra es erróneo, porque tienen una causa;
c) La aplicación de la Segunda Ley de la Termodinámica bajo la idea de que el Universo está en proceso de destrucción hasta llegar a su muerte;
d) La aparición de modelos positivistas deterministas, ausentes de valores superiores.
A los planteamientos de Foster se pueden agregar las ideas expresadas por tres autores muy recientes cuya formación y disciplinas académicas son muy disímiles; así como también son muy diferentes los contextos espirituales o materialistas en que ubican sus propuestas:
1.- Propuesta de Remy Chauvin, Profesor de Biología de la Soborna, en 1990:
Tras decenios de anquilosis darwiniana no es fácil pretender pensar de nuevo, plantear la naturaleza tal y como es; pero es preciso entender que los científicos fueron maltratados por los teólogos autosuficientes que pretendían hablar en nombre de Dios y cuando hubo la oportunidad los científicos respondieron con orgullo semejante y aunque en el origen Iglesia y Ciencia no fueron enemigos,' la ruptura fue progresivamente consumada: con rabia los científicos dijeron que no había Dios; que un azar ciego regía la Naturaleza; que la Humanidad estaba vacía de sentido. Pero ahora todo ha cambiado:
a) Los cosmólogos nos han revelado la existencia de un comienzo de todas las cosas, que los religiosos habían dicho siempre;
b) Los biogenéticos han demostrado que la vida tenía que aparecer por fuerza (dadas las condiciones precisas) y no por azar;
c) Ahora nos hemos vuelto menos orgullosos, a medida que nos hacíamos más sabios y que sabemos que existe una dirección que el Universo está ordenado conforme al principio antrópico, no tanto conforme al hombre, sino a su conciencia: ¿Nos conducirá hasta el Ingeniero Supremo y Sutil?
d) Ahora somos conscientes de que estamos ordenados conforme a tres infinitos: lo infinitamente pequeño; lo infinitamente grande y el infinito de la complejidad que planteó Theilhard de Chardin y ese infinito reside en el cerebro humano;
e) El cerebro y la conciencia están en el Universo y representan la evidencia del Universo pensándose a sí mismo. La posición de la conciencia es, pues, absolutamente decisiva;
f) Como señalan las preguntas del cosmólogo Wheler, podría suceder que el Universo no pueda aparecer más que a condición de garantizar la producción de un acto de observación en cualquier lugar y en cualquier momento de su vida futura....; o bien que el papel del observador de la mecánica cuántica representa la piedra de apoyo de las leyes de la física y por lo tanto de las propias leyes del tiempo y del espacio. (8)
2.- Propuesta de Jean Guitton , Profesor de Filosofía de la Soborna, en 1990:
En la obra “ Dios y la Ciencia” del filósofo francés Jean Guitton, quién auxiliado por los físicos Igor y Gritchka Bogdanov, proponen en 1991 una síntesis que busca precisamente el alivio de la tensión entre los escarceos de la ciencia y las inquietudes del creyente, recurriendo en este caso a los últimas teorizaciones debidas a físicos cuánticos, así como al fenómeno de la integración Cosmos - conciencia en donde la tarea del cosmólogo consiste en descifrar el código en que está escrito el mensaje del Universo .
3.- Propuesta de William Lane Craig, Profesor de Teología de Oxford, en 1996:
El ser humano, en ese Universo, no es un ser extraño, implantado, producto del azar, sino, todo lo contrario, pues está precisamente regulado a partir de grandes constantes, de normas, leyes absolutas que se descomponen en materia, luego en energía y finalmente en información, y esa información está calculada para dar cabida al fenómeno humano, como lo denominaba Theilhard de Chardin o principio antrópico, como lo denomina el cosmólogo Brandon Carter, compañero de Stephen Hawking y aunque sea a la distancia, sin haberse conocido ni hablar la misma lengua dos seres privilegiados Theilhard y Hawking, pueden, con buena voluntad de nosotros - observadores - darse fraternalmente la mano, aunque sea en la realidad virtual, que para el caso equivale a la llamada realidad.
El materialismo plantea que el Universo es eterno, incausado, indestructible e incorruptible, lo cual no ha sido demostrado y - además - a esa posición se le puede oponer el argumento cosmológico cristiano, que si bien es de antigua data y ha tratado de ser refutado en muchas oportunidades sigue teniendo valor. Este puede plantearse - bajo la forma de una argumentación “KALAM” ( término tomado de una tesis teologal islámica del Medioevo) - según esta secuencia de pasos lógicos:
Postulado: Cualquier cosa que comienza a existir, tiene una causa detrás de ello. El Universo comenzó a existir.
Demostraciones:
Primer argumento (basado en la imposibilidad de un infinito actual):
a) Un infinito actual no puede existir.
b) Un infinito temporal regresivo de eventos es un infinito actual.
Primera conclusión: En consecuencia, un infinito temporal regresivo de eventos no puede existir.
Segundo: Argumento basado en la imposibilidad de la formación de un actual infinito, por adición sucesiva.
a) Una colección integrada por adiciones sucesivas no puede ser infinito actual.
b) Las series temporales de eventos pasados es una colección formada por adición sucesiva.
Segunda conclusión: En consecuencia la serie temporal de eventos pasados no pueden ser infinito actual.
Demostración: Por lo tanto, el Universo tiene una causa que origina su existencia,
Luego de una extensa argumentación para fortalecer los criterios de Popper -en quien se apoya- o para refutar las argumentaciones de Mackie, y Sorabiji, (entre otros filósofos citados) -y a quienes refuta- Craig busca la confirmación de su planteamiento en dos propuestas con fundamento científico y en una refutación con fuerza argumentativa.
• Primera Confirmación Científica: Se basa en el proceso de expansión observado por Hubble y confirmado en diversas circunstancias; así como en el hecho que el nacimiento del Universo es un evento único - esto es no se trata de una expansión - contracción cíclica - y que, por otra parte, de acuerdo a las conclusiones de los astrónomos Sandage y Tanmann: “...parece inevitable que el Universo se expandirá por siempre..., de lo que se deduce que éste ha aparecido una sola vez”.
• Segunda Confirmación Científica: Se basa en la segunda ley de la termodinámica y en el hecho que tomando el Universo como un sistema cerrado, este tiende a aumentar su entropía y a disiparse en radiación y partículas elementales en el remoto futuro. Además si el Universo hubiese sido infinito habría ya llegado a ese punto de muerte térmica. Para este punto cita a los astrónomos Zeldovich y Novikow: “de existir un ciclo expansión-contracción, el modelo multicíclico tiene un futuro infinito; pero solo un pasado finito” ... porque ... “ cada ciclo genera menos entropía, tiene un ciclo de duración menor y el ciclo expansivo es también cada vez menor que el que le hubiese antecedido”.
Refutación Argumentativa: Para Craig las afirmaciones de los cosmólogos Hoyle y Davies acerca de la creación proveniente de la nada (aplicada al Universo como una extensión de la creación de partículas subatómicas, como resultado de una “transición cuántica”) no es demostrativa de la carencia de causación. Por lo contrario, el que no pueda medirse la causa ni afirmarse nada respecto de ella, no implica su inexistencia.
Consecuencia: Craig - una vez que demuestra con los argumentos científicos citados - la causación del Universo y hace la refutación argumentativa, concluye con estas propuestas:
• El Universo tiene una causa que le ha hecho existir, esto es, ser creado;
• Si la causa fuera simplemente mecánica (por ejemplo una serie de leyes físicas existentes desde la eternidad), el efecto, esto es, el Universo, habría también existido desde siempre;
• La única forma de que un agente causal pueda crear un efecto temporal (el Universo), es que elija, por sí mismo la creación de un efecto en el tiempo, sin que por eso la causa sea afectada; 4) La causa no afectada debe ser no causada, eterna, no cambiable, fuera del tiempo e inmaterial;
• Por lo tanto sobre la base del argumento cosmológico Kalam, se concluye que es racional (y no solo un acto de fe, anclado en la voluntad) la creencia en la existencia de Dios Creador.
Adicional es necesario señalar que si bien los argumentos de Craig son correctos según la lógica argumentativa (al igual que mucho autor teológico), de que las citas bibliográficas las hace con base en publicaciones de divulgación científica , como sucede en nuestro caso que lo que buscamos es nada más que hacer divulgación del acontecer en el campo de la cosmología y las disciplinas conexas envueltas en este esfuerzo.
Una crítica que se hace a Craig de parte de sus detractores es que no fundamenta sus planteos sobre los argumentos científicos propiamente dichos. Por lo tanto, la fuerza de los planteamientos filosófico-teológicos se debilita innecesariamente y pone de manifiesto la necesidad de que los teólogos profundicen en los escritos científicos originales - esto es en las hipótesis y teorías de primera línea- para que el debate se establezca en el mismo nivel, aunque luego, por métodos divulgativos, se vulgarice la argumentación.
¿POR QUE ES EL UNIVERSO TAN ORGANIZADO?
Para el físico-norteamericano Doyme la segunda mitad del siglo XX ha surgido la opinión de que la vida y la conciencia son resultados naturales e inexorables de las propiedades emergentes y de autoorganización del mundo físico. Gracias a la física la ciencia exhibe muchos logros, pero ha dejado también grandes vacíos. Expresa Doyme que este cambio fundamental en nuestra visión de la conciencia y la vida nos ofrece una nueva perspectiva de nosotros mismos, de nuestras creencias y de nuestra comprensión de cómo encajamos en el universo. En esta reseña hemos divido en cuatro partes el pensamiento de Kauffman ,que es de suma importancia para entender cómo es que nos insertamos en este Universo,aunque obviamente queda abierta la respuesta a otra interrogante vital: ¿Para qué estamos en este Universo?. Veamos que nos dice Doyme
PROPUESTA GENERAL.- Nuestro conocimiento está todavía muy fragmentado, y aguardamos grandes progresos en lo que concierne a las teorías integradoras. Ha habido pocas discusiones serias sobre el impacto de esta nueva perspectiva en la filosofía o la sociología. Pero se está enraizado rápidamente, y el cambio es profundo. Más que nunca, se está haciendo imposible contemplar seriamente cualquier cuestión filosófica o social sin tener en cuenta los recientes avances de la ciencia.
Tradicionalmente la física, en su atención a los problemas simples, se ha centrado enteramente en los aspectos inmediatos y directos de la materia y la energía. Lo que hace que las cosas se muevan, que se calienten o se enfríen. Y se ha centrado en fenómenos como la atracción, repulsión, colisiones y ondas. El aspecto material del mundo, que desemboca en ideas fundamentales como la curvatura del espacio-tiempo, la naturaleza cuántica de la realidad, el principio de incertidumbre. Todo relevante para las grandes cuestiones.
Las grandes cuestiones inevitablemente giran en torno a la naturaleza de la vida y la inteligencia. Mientras que la física moderna puede decir que la ciencia contiene necesariamente un elemento subjetivo, no dice nada de la naturaleza o los orígenes de la conciencia. Parece que la física fundamental está bloqueada. Los físicos de partículas se dedican a hacer colisionar partículas cada vez con más fuerza, intentando descubrir cuántos quarks pueden bailar en la punta de una aguja. Los cosmólogos trabajan con muy pocos hechos, debatiendo acerca de la esencia del universo sobre fundamentos que a mí me parecían esencialmente religiosos. Y la mayoría de físicos todavía se centran en atracciones y repulsiones, en las propiedades informáticas. Por propiedades informáticas se entiende todo lo relativo al orden y el desorden. El desorden se comprende bastante bien; el orden, en cambio, no. Lo fascinante del caos es que explica una parte del desorden del mundo, cómo pequeños cambios en un momento dado tienen un enorme efecto en el futuro. Y demuestra que leyes matemáticas simples pueden dar lugar a comportamientos complejos. Explica por qué cosas muy simples pueden ser difíciles de predecir -tanto que parecen comportarse de manera aleatoria, pero por otra parte hay que tomar nota de que la teoría del caos no se encuentra aun lo bastante desarrollada como para resolver problemas que no son nada fáciles de abordar.
¿ AUTOORGANIZACION ?.- La meta es hallar lo que podría llamarse “la segunda ley de la autoorganización”. Lo de “segunda ley” hace referencia a la segunda ley de la termodinámica, que afirma que existe una tendencia inexorable hacia el aumento de entropía -en otras palabras, que los sistemas físicos tienden a desordenarse-. La paradoja que inmediatamente le choca a cualquiera que sabe de la existencia de la segunda ley es ésta: si los sistema tienden a hacerse más desordenados, ¿por qué entonces vemos tanto orden a nuestro alrededor?
Si en vez de desorden tenemos orden, es obvio que debe haber algo más que las leyes fisicas estudiadas. . En particular, el orden del Universo parece entrar en conflicto con nuestro “mito de la creación”: “En el principio hubo una gran explosión. Súbitamente se creó una enorme cantidad de energía y el universo se expandió para formar partículas. al principio las cosas eran totalmente caóticas, pero con el tiempo comenzaron a formarse estructuras complejas: moléculas complicadas, nubes de gas, estrellas, galaxias, planetas, formaciones geológicas, océanos, metabolismos autocatalíticos, vida, inteligencia, sociedades...”. Si nos quedamos con una cualquiera de las etapas de este relato, con suficiente información podemos comprenderla sin invocar ningún principio general, Pero si damos un paso atrás, vemos que hay una tendencia general a que las cosas se hagan más organizadas con independencia de los detalles particulares. Quizá no en todas partes, solo en ciertos lugares y en ciertos momentos. Y es importante subrayar que nadie está diciendo que la segunda ley de la termodinámica no sea cierta, sino que hay un proceso que sirve de contrapunto y que organiza las cosas a un nivel superior.
A este orden que exhibe el Universo se le suele aplicar como explicación que es que todo depende de una serie de “accidentes cósmicos” desconectados. En otras palabras:
a) la emergencia de la organización en el universo depende de una serie de detalles altamente improbables e independientes.
b) la emergencia de la vida es un accidente sin ninguna relación con la emergencia de todas las otras formas de orden que vemos en el universo.
c) la vida sólo puede darse si las leyes físicas son exactamente tal como son en nuestro universo, y cuando las condiciones son casi exactamente las que hay en nuestro planeta.
Para muchos de nosotros esta explicación no es plausible. Y nos preguntamos:
¿Por qué tiene que haber tantos tipos diferentes de orden? , ¿Por qué tiene que ser nuestra situación tan especial? Parece más plausible asumir que “los accidentes tienden a suceder”.
De acuerdo: un accidente automovilístico individual puede parecer cosa de mala suerte -de hecho, la mayoría de accidentes automovilísticos pueden parecer cosa de mala suerte- pero esperamos un número promedio de ellos al año. Pero tenemos otra visión: nuestra impresión es que la progresión de estados de organización creciente en la evolución desde las nubes de gas hasta la vida no es un accidente.
Surge una necesidad vital: lo que queremos es comprender lo que tienen en común, la fuerza motriz universal que hace que la materia se organice espontáneamente. Este punto de vista no es nuevo. Ya fue expuesto en el siglo XIX por Herbert Spencer, que escribió sobre evolución antes que Darwin y acuñó las expresiones “supervivencia del más apto” y “evolución”. Spencer defendió la manera muy expresiva la ubicuidad de estos procesos de autoorganización, y se basó en esas ideas para componer una teoría sociológica. sin embargo, no fue capaz de formular matemáticamente estas ideas o fundamentarlas en primeros principios. Y nadie más ha sido capaz, tampoco. Este es quizás el problema central en el estudio de los sistemas complejos.
Muchos de nosotros creemos que la autoorganización es una propiedad general -del universo desde luego, y de modo aún más general de los sistemas abstractos que podemos llamar “sistemas complejos adaptativos”. Los sistemas complejos adaptativos tienen la propiedad de que si hacemos que evolucionen -para lo cual no hay más que dejar que la variable “tiempo” avance-, progresarán de modo natural desde estados caóticos, desorganizados, indiferenciados e independientes hasta estados organizados, altamente diferenciados e interdependientes.
Las estructuras organizadas emergen espontáneamente, sólo hay que dejar que el sistema se ponga en marcha.
Naturalmente, algunos sistemas se organizan más que otros, o a un nivel más alto, y en todo esto habrá una cierta cantidad de azar. La progresión del desorden a la organización procederá a rachas, e incluso puede revertir de vez en cuando, como en la evolución natural. Pero en un sistema complejo adaptativo la tendencia general será hacia la autoorganización.
Los sistemas complejos adaptativos son algo especiales, pero no extremadamente especiales: el hecho de que puedan verse formas simples de autoorganización en muchas simulaciones informáticas diferentes sugiere que hay muchos sistemas complejos adaptativos “débiles”.
Un sistema débil da lugar sólo a las formas de autoorganización más simples; uno fuerte da lugar a formas más complejas como la vida. La distinción entre débil y fuerte puede también depender de la escala: aunque algo como la máquina colectiva de Danny Hillis es grande, no es nada comparado con el número de Avogadro de procesadores que la naturaleza tiene a su disposición.
¿ QUE ES LA ORGANIZACIÓN? .- Para Doyme que se plantea la pregunta y concibe sus propias respuestas, que no necesariamente han de ser compartidas por otros científicos que abordan el asunto resulta que:
a) No sabemos lo que es la “organización”, no sabemos por qué algunos sistemas son adaptativos y otros no, no sabemos de antemano si un sistema es débil o fuertemente adaptativo, o si hay un grado de complejidad mínimo que debe tener un sistema para ser adaptativo. Solo sabemos que los sistemas complejos adaptativos tienen que ser no lineales y capaces de almacenar información. También sabemos las partes tienen que ser capaces de intercambiar información, pero no demasiada. Y sabemos si, que el mundo físico, esto equivale a decir que tienen que estar a la temperatura adecuada: ni demasiado calor ni demasiado frío. Muchas simulaciones en los ordenadores muestran esto -de hecho, encontrar la temperatura adecuada fue uno de los progresos en nuestra simulación de metabolismos autocatalíticos.
b) Conocemos algo de lo que distingue un sistema complejo adaptativo de in sistema complejo no adaptativo, como un fluido turbulento, pero la mayor parte es ciencia popular, evidencia anecdótica basada en unas pocas observaciones registradas en términos vagos e indefinidos. Si se acepta la tesis básica de que la vida y la inteligencia son el resultado de una tendencia natural del universo a organizarse a sí mismo, entonces nosotros no somos más que una fase transitoria, un paso en esta progresión.
c) Uno de los factores de la pérdida de popularidad de las ideas de Spencer fue el darwinismo social -la idea de que quienes eran saludables y poderosos lo eran porque de alguna manera eran “aptos” por naturaleza, mientras que los oprimidos no lo eran- que no era sino una pobre extensión de la biología a la evolución social, basada en una escasa comprensión del funcionamiento real de la evolución. La evolución social es diferente de la evolución biológica: es más rápida, es lamarckiana, y hace aún más fácil el altruismo y la cooperación que la evolución biológica. Nada de esto fue bien comprendido en su momento.
d) Otra consecuencia lógica de la perspectiva evolutiva es que los seres humanos no son el punto final del proceso. Todo está evolucionando constantemente. En este momento, sucede que somos el único organismo con un grado de inteligencia lo bastante alto como para tener la capacidad de ejercer un control máximo sobre nuestro medio ambiente. Eso nos faculta para realizar algo notable: cambiar la evolución misma. Si queremos, podemos usar la ingeniería genética para alterar el carácter de nuestra descendencia.
e) A medida que conozcamos mejor los detalles del genoma humano, es casi seguro que la utilizaremos para prevenir enfermedades. Y estaremos tentados de ir más allá de eso, quizás incrementando la inteligencia. Habrá un intenso debate, pero con la superpoblación, una menor necesidad de trabajo no cualificado y manual, y la presión de las inteligencias cibernéticas, la motivación para hacer esto acabará siendo abrumadora.
f) Las inteligencias cibernéticas son una consecuencia de la idea de que la autoorganización y la vida son los resultados naturales de la evolución en un sistema complejo adaptativo. Estamos creando rápidamente una extraordinaria Cápsula de Petri de Silicio para la evolución de la inteligencia. Hacia el año 2025, si el progreso de la tecnología informática continúa al ritmo actual, probablemente tendremos ordenadores cuyo poder de procesamiento excederá el del cerebro humano. También es probable que haya más ordenadores que personas. Es difícil imaginar de forma realista un mundo de ciberinteligencias y seres humanoides superinteligentes. Pero un mundo así es la consecuencia natural de los sistemas complejos adaptativos, ya que una de las propiedades sorprendentes de la evolución es que transcurre cada vez más rápido. Donde se ve esto de manera más vívida es en la evolución de las sociedades y una vez podamos manipular nuestro propio genoma de manera lamarckiana, la tasa de cambio será pasmosa.
g) La física nos demuestra que podemos construir una imagen coherente del universo partiendo de principios básicos a menudo muy simples. Nos basta con la mecánica de Newton para entender el movimiento de los cometas y predecir sus trayectorias. Se trata de leyes deterministas, en las que dadas ciertas condiciones iniciales, si nos referimos al cometa serían la posición y velocidad, el futuro del sistema está ya definido. Determinismo y predicción parecen indisociables. Pero el determinismo newtoniano se tambaleó con la llegada de la mecánica cuántica. Esta nos hizo ver que el mundo microscópico de los átomos y las partículas elementales posee un límite más allá del cual las certidumbres se convierten en probabilidades.
h) Ya entrada la segunda mitad del siglo XX, un nuevo marco conceptual vendría a introducir nuevos elementos en el cuerpo teórico de la ciencia. Gracias a los trabajos de Illya Prigogine y sus colaboradores, de la Universidad Libre de Bruselas, comenzaron a aplicarse herramientas de la física al estudio de sistemas complejos alejados del equilibrio, fueran éstos químicos o biológicos. Habíase observado que, en determinadas reacciones químicas y bajo condiciones adecuadas, un sistema que de suyo debería tender hacia un estado de equilibrio homogéneo mostraba oscilaciones periódicas macroscópicas y adquiría unas sorprendentes estructuras espaciales en forma de ondas espirales. Semejante resultado no parecía compatible con la interpretación estricta de la segunda ley de la termodinámica, que nos dice que la entropía y, por tanto, el desorden aumentan siempre. Nada tiene, pues de especial que la información relativa a esos fenómenos se recibiera con escepticismo, si no con incredulidad.
i) Con el descubrimiento del caos determinista en sistemas dinámicos simples, se demostró que, tras fenómenos manifiestamente complicados, subyacía un orden oculto. Una sola ecuación determinista podía generar dinámicas aparentemente aleatorias o erráticas que jamás se repetían. Y lo que era aún más sorprendente: los fenómenos caóticos eran, pese a su carácter determinista, impredecibles. Bastaba una imprecisión mínima en nuestro conocimiento de las condiciones iniciales (por ejemplo, en las variables climáticas locales en un instante dado) para que aquella se propagara exponencialmente hasta convertir la predicción en pura entelequia, alejada de la evolución real. Se había puesto la primera piedra de una futura teoría de la complejidad.
COMPLEJIDAD.- Según Doyme, complejidad no es- necesariamente- sinónimo de complicación. Lo que sí se exigía era abandonar la intuición lineal de los fenómenos y reemplazarla por una visión del mundo basada en la no linealidad. A finales de los ochenta, el empleo de ordenadores cada vez más potentes, sumado al desarrollo de nuevas herramientas matemáticas, permitía comprobar que tanto la geometría como la dinámica de muchos sistemas naturales podían abordarse desde enfoques simples. Por tanto:
a) Se fue aceptando la existencia de propiedades emergentes, que aparecen en un sistema no lineal como resultado de la interacción entre sus partes y que no pueden explicarse a partir de las propiedades de sus elementos componentes.Se trata, en definitiva, de sistemas complejos, y como tales sus propiedades emergen de las interacciones entre sus elementos componentes. Muy pronto se comprendió que los sistemas complejos aparecen a medio camino entre el orden y el desorden. Por un lado, el orden es necesario para almacenar información y mantener la estabilidad de las estructuras. Pero también se precisa flexibilidad en la transmisión de información.
b) Recientemente, y desde enfoques distintos, se ha propuesto una hipótesis general acerca del origen de la complejidad. La han elaborado, entre otros, Jim Crutchfield, de la Universidad de California en Berkerly, Stuart Kauffman, del Instituto de Sistemas Complejos de Santa Fe, Chris Langton, del Centro de Estudios No Lineales en Los Álamos, y Per Bak, del Laboratorio Nacional de Brookhaven. La hipótesis de la frontera del caos, como se la denomina, establece que la complejidad aparece en unas condiciones muy especiales, conocidas desde antaño por la física: los puntos críticos en los que tienen lugar las transiciones de fase. Los sistemas complejos serían el resultado de una evolución hacia dichos puntos.
CAOS.- Un punto interesante y nuevo para Doyme es que : el papel de las propiedades emergentes y su aparición en las proximidades de puntos críticos han movido a algunos a pensar que la evolución biológica a gran escala, la macroevolución, se desarrolla en la frontera del caos y señala que varias líneas de prueba respaldan esta idea. Por un lado, la fluctuación temporal del número de familias de algunos grupos biológicos es compatible con lo que cabría esperar de un sistema crítico. Por otro, el proceso evolutivo origina una filogenia que podemos representar en forma de árbol que va ramificándose conforme van apareciendo nuevas especies (u otros taxones). Esta estructura dendriforme es fractal. Lo ha demostrado Bruno Burlando, de la Universidad de Génova, quien ha analizado las relaciones existentes entre distintos niveles taxonómicos (especie-género, género-orden, etc.) y ha descubierto que las regularidades que aparecen en las relaciones entre grupos taxonómicos revelan la existencia de leyes invariantes, aun cuando se cambie la escala taxonómica. Así, un resumen de la situación mostraría estos hechos:
a) Si contamos el número de géneros que contienen una, dos o más especies, vemos que aparecen ordenados siguiendo una distribución potencial, característica de las estructuras fractales. Disponemos, además, de una información valiosa acerca de la dinámica de la evolución: los espectros de extinción de especies en el tiempo y el alcance de tales episodios.
El 99,99 por ciento de las formas vivientes que han aparecido sobre la Tierra se han extinguido. Los procesos de adaptación de las especies al medio y de extinción aparecen íntimamente imbricados en la teoría darwinista de la selección natural.
b) Existen varios tipos de transición de fase, observables en sistemas físicos químicos y biológicos. Las transiciones de segundo orden están asociadas a sistemas que, al alcanzar el punto crítico, pierden algún tipo de simetría. El cambio de un estado a otro se produce entonces de forma suave, continua. Hemos supuesto que se ajusta externamente un parámetro, la temperatura, con el fin de acceder al punto crítico.
c) Pero, ¿puede un sistema complejo alcanzar espontáneamente dicho punto? Esta pregunta - nos dice- ha sido resuelta de forma muy satisfactoria por el físico danés Per Bak, quien introdujo en 1988 la noción de criticalidad autoorganizada. Frente a un medio cambiante, las especies capaces de adaptarse, en las que se supone cierta variabilidad en el seno de la población, dejan descendencia, mientras que las menos aptas desaparecen. Si la adaptación confiere ventaja a la especie, cabe entonces presumir que los grupos más persistentes serán los menos propensos a desaparecer, dado que se hallan mejor adaptados al ambiente. Pero del análisis de los patrones de extinción se desprende, por contra, algo muy distinto. La probabilidad de extinción de un grupo cualquier se muestra constante a lo largo del tiempo, y no depende de cuánto llevara existiendo en el planeta. ¿Cómo resolver esta paradoja?
d) A principios de los setenta Leigh Van Valen, de la Universidad de Chicago, propuso un enfoque alternativo de la evolución. En su teoría, Van Valen considera las interacciones entre especies como una carrera de armamentos, en la que cada componente, cada especie, intenta mejorar su posición dentro del ecosistema. Ello significa que, además de interaccionar con el medio físico, interacciona con el ambiente biótico, entendiendo por tal las restantes especies. Un cambio en la situación de una especie inducirá cambios en las demás; la alteración operada en estas influirá, a su vez, en la primera, que, por consiguiente, deberá experimentar otro cambio, y así en idas y venidas sin fin.
e) Ese proceso de mutua interferencia admite una formalización en el marco de la teoría de juegos. En el marco de ésta, llegamos a la conclusión de que la especie cambia solo para persistir; la selección natural no mejora la adaptación de la especie: sólo la mantiene.
Las especies incapaces de cambiar con la celeridad necesaria se extinguen.
Por consiguiente, lo que vemos en el curso de la evolución de las especies son los elementos de un sistema complejo, en el que lo único importante es seguir jugando.
f) De ahí que a esta argumentación de Van Valen se la reconozca por hipótesis de la Reina Roja (en referencia al célebre personaje de Lewis Carroll, que le explica a Alicia cómo, para permanecer en el sitio, no hay que dejar de correr). Una consecuencia a la que llega el modelo matemático es, justamente, que las tasas de extinción son constantes. Bajo esa equiprobabilidad de duración de las especies que aflora en la piel de la macroevolución podría ocultarse una dinámica intrínseca. Stuart Kauffman ,un biólogo teórico que trabaja en el Instituto de Santa Fe, California, ha elaborado un modelo de evolución que intenta sacarla a la luz ese concepto que determina la macroevolucion El modelo considera un conjunto de especies relacionadas entre sí y que poseen la capacidad de evolucionar. Cada especie puede cambiar para mejorar su posición en el ecosistema. Al hacerlo, las especies con las que se encuentra relacionada se resienten en su adaptación y deben, a su vez, cambiar para reforzarla. Todas las especies que intervienen en ese juego siguen, pues, una regla fundamental: han de potenciar su adaptación en el grado en que les sea posible. Cada cambio de una especie obliga a las demás participantes a cambiar, y así el sistema evoluciona hacia un punto crítico. Una vez alcanzado dicho estado crítico, se aprecia que ciertas partes del sistema permanecen inalteradas durante largo tiempo (no evolucionan) mientras que otras se modifican con rapidez. Ambas situaciones obtenidas en la teorización se dan en la naturaleza.
g) Este modelo de Kauffman proporciona un marco teórico donde adquieren sentido los datos relativos a las extinciones de especies ya mencionados. Del modelo se desprende que las propiedades globales de la evolución biológica nacerían de un fenómeno de tipo dinámico que algunos autores han denominado “atractor evolutivo”. Esta definición pone de manifiesto la existencia de un estado final que atrae el sistema hacia el punto crítico. Una vez alcanzado, la propia búsqueda de una mejor adaptación por parte de los elementos genera inestabilidades que se propagan a todas las escalas. Las inestabilidades, por su parte, pueden arrastrar consigo a las especies que las generaron, razón por la cual las extinciones, incluidas algunas de las principales, vinieron causadas por una inexorable dinámica crítica.
CEREBRO HUMANO.- Para Doyme el funcionamiento del cerebro humano constituye otro ejemplo de un sistema complejo cercano a un punto crítico. La aplicación de la teoría del caos al estudio de las ondas cerebrales indica la existencia de caos determinista dado que se ha observado también que los estados patológicos de la actividad cerebral mostraban ondas muy ordenadas y ondas muy desordenadas. En estado de normalidad cerebral convergen ambos aspectos: las ondas son periódicas pero permiten, al propagarse por la corteza, sincronizar miles de millones de neuronas de forma ordenada.
Investigaciones recientes han permitido comprobar que las transiciones de fase pueden desempeñar un papel muy importante en la dinámica del cerebro.
Por ejemplo : el grupo de Hermann Haken, del Instituto Max Planck en Stuttgart, en colaboración con Scott Kelso, del Instituto de Sistemas Complejos de Florida, ha demostrado que los cambios en la actividad cerebral macroscópica bajo ciertas circunstancias responde a una estructura de transiciones de fase. Mediante técnicas de magneto encefalografía, se exploró el tipo de transición que presentaba la actividad cerebral en un sujeto experimental bajo ciertas condiciones controladas: éste recibe un estímulo cuya frecuencia va variando lentamente a lo largo del tiempo.
Mientras persiste el estímulo externo, y sincronizado con él, el sujeto realiza una actividad física. Para ciertos valores dados del estímulo, la actividad cerebral macroscópica presenta una súbita transición dinámica. El estudio cuantitativo de dicha transición revela un fenómeno crítico. Estos investigadores han sugerido la posibilidad de que el cerebro opere normalmente cerca de estos puntos críticos y han desarrollado un modelo teórico que da cuenta de los resultados obtenidos. Cerca de dichos puntos, el cerebro poseería la capacidad óptima de manejar y procesar información. De ser así, tal vez el sistema más complejo que conocemos se encuentre también en la frontera del caos.
A grandes rasgos, un sistema vivo -un organismo- consiste en una relación simbiótica entre un metabolismo y un replicador. El metabolismo, compuesto por proteínas y demás, extrae energía del entorno, y el replicador contiene la impronta del organismo, con la información necesaria para crecer, hacer reparaciones y reproducirse. Ambos se necesitan: el replicador contiene la información necesaria para producir las proteínas, el ARN y las otras moléculas que constituyen el metabolismo y proporcionan la fuerza motriz del organismo, y el metabolismo suministra la energía y materias primas necesarias para la construcción y función del replicador.
La cuestión es cómo empieza esta relación intrínseca: ¿Quién fue primero, el metabolismo o el replicador? ¿O es que no pueden existir el uno sin el otro, de manera que tuvieron que evolucionar juntos?
En los años cincuenta del siglo XX el químico Harold Urey y el biólogo Stanley Miller demostraron que los sillares de las proteínas -los aminoácidos- se forman espontáneamente a partir de “tierra, fuego y agua”. Sin embargo, la síntesis de moléculas más complicadas requería replicadores, de manera que el origen de los metabolismos estaba mucho menos claro. En experimentos posteriores se pretende demostrar que los metabolismos podían emerger espontáneamente a partir de moléculas básicas y evolucionan sin la presencia de un replicador. Esto es, los replicadores serían ellos mismos, y la información estaría almacenada simplemente en la llamada “sopa primordial”.
La idea es que, partiendo de componentes simples -aminoácidos, por ejemplo- se desea obtener proteínas complejas, esto es, cadenas de aminoácidos largas y de alta diversidad. El principio básico de una red auto catalítica es que, aunque ninguno de sus componentes puede producirse por sí solo, cada uno es producido por al menos una reacción entre algunos de los otros ingredientes del caldo. Se trata de un sistema simbiótico, en el que todo coopera para que el metabolismo funcione -el todo es más que la suma de sus partes ( porque si la replicación normal es como la monogamia, la reproducción auto catalítica es como una orgía).
SEGUNDA LEY DE LA ORGANIZACIÓN.- Para muchos investigadores, refiere Doyme, la meta es hallar lo que podría llamarse “la segunda ley de la auto organización”. Lo de “segunda ley” hace referencia a la segunda ley de la termodinámica, que afirma que existe una tendencia inexorable hacia el aumento de entropía -en otras palabras, que los sistemas físicos tienden a desordenarse-. La paradoja que inmediatamente le choca a cualquiera que sabe de la existencia de la segunda ley es ésta: si los sistema tienden a hacerse más desordenados, ¿por qué entonces vemos tanto orden a nuestro alrededor? Si hay tando orden en el Universo y opera la Segunda Ley de la Termodinamica, obviamente debe haber algo más.
En particular, ese “algo mas” , parece entrar en conflicto con nuestro “mito de la creación” o Teoria del Big Bang que dice: “En el principio hubo una gran explosión. Súbitamente se creó una enorme cantidad de energía y el universo se expandió para formar partículas. al principio las cosas eran totalmente caóticas, pero con el tiempo comenzaron a formarse estructuras complejas: moléculas complicadas, nubes de gas, estrellas, galaxias, planetas, formaciones geológicas, océanos, metabolismos autocatalíticos, vida, inteligencia, sociedades...”.
Si nos quedamos con una cualquiera de las etapas de este relato, con suficiente información podemos comprenderla sin invocar ningún principio general. Pero si damos un paso atrás, vemos que hay una tendencia general a que las cosas se hagan más organizadas con independencia de los detalles particulares. Quizá no en todas partes, solo en ciertos lugares y en ciertos momentos. Y es importante subrayar que nadie está diciendo que la segunda ley de la termodinámica no sea cierta, sino que hay un proceso que sirve de contrapunto y que organiza las cosas a un nivel superior. Y por tanto la idea de los que afirman “que todo está organizado” porque ha habido una “serie de accidentes cósmicos”…suena tan infantil, justo por su alta improbabilidad.
NECESIDAD DE TEORIAS NUEVAS Y ORDENADORES ELECTRONICOS DIFERENTES
Con los planteamientos que hemos incluido hasta esta parte de la obra , tal parece que estamos estancados cuando se inicia el Tercer Milenio, pero al mismo tiempo de frente a una gran cantidad de corrientes en curso de investigación que apuntan hacia distintos nortes, aunque en realidad todos están unidos y apuntando hacia el mismo Norte , aunque – a priori- nos dé la impresión de que no es así.
Para el físico e informático norteamericano, especialista en “sistemas paralelos”, Daniel Hillis, del Grupo del Instituto de Santa Fe, California la búsqueda del “El Santo Grial” de la Ingeniería en los últimos milenios ha sido la construcción de un dispositivo que hable con uno y que aprenda, razone y cree: el primer paso para conseguirlo requiere una clase de ordenador muy diferente de los sencillos ordenadores secuenciales que manejamos todos los días, porque su potencia dista mucho de la necesaria, porque cuanto más saben, los ordenadores, más lentos se vuelven (todo lo contrario que la mente humana). La mayoría de ordenadores, está diseñada para hacer una sola cosa cada vez, al contrario de la mente humana que consigue verlo todo de golpe y después, de algún modo, extrae la información relevante.
Un ordenador paralelo.- Señala Hillis al respecto: Es claro que empleando la tecnología de circuitos integrados podíamos construir un ordenador con una estructura más cercana a la del cerebro humano: constaría de muchos elementos simples trabajando simultáneamente, en paralelo, en vez de ejecutar rápidamente una secuencia de cosas. Este principio se aplica sin duda a la mente, porque la mente trabaja con la maquinaria del cerebro, que es realmente lenta comparada con la de un ordenador digital.
En algunos sentidos, un gran ordenador paralelo es la cosa más complicada que hemos construido nunca los humanos. Un ordenador paralelo tiene unos cuantos cientos de miles de millones de partes activas, todas trabajando juntas, pero su interacción en realidad no se comprende, ni siquiera por parte de sus diseñadores La única manera de diseñar un objeto de tanta complejidad es dividirlo en partes: primero: decidir lo que va a tener cada módulo, segundo: encargar la construcción de cada uno a un equipo humano , tercero : los equipos tienen que ponerse de acuerdo en la manera de acoplarlas antes de diseñarlas.Pero al lado de la aproximación estrictamente técnica, hay otra que puede producir algo de mayor complejidad: la aproximación evolutiva. Los seres humanos hemos sido generados por un proceso que no tiene nada que ver con la ingeniería. Ahora mismo tenemos computadores lo bastante rápidos para simular el proceso de la evolución. Así que podemos disponer las cosas para que, de manera espontánea, evolucionen programas inteligentes dentro del ordenador bajo estas ideas primordiales:
Vida cibernética nacida de la Nada.- Los informáticos especializados en el tema conocen programas que han evolucionado de la nada y que hacen cosas francamente aleatorias y se deja que estos programas compitan e interactúen entre sí, se apareen y produzcan nuevas generaciones de programas. El principio s el siguiente:
1) Si se colocan en un mundo donde su supervivencia dependa de la solución de un problema, entonces las generaciones sucesivas irán resolviendo el problema cada vez mejor, y al cabo de unos cientos de miles de generaciones resolverán el problema muy bien y esta aproximación podría ser la adecuada para producir la “máquina pensante”.
2) Una de las cuestiones más apasionantes es cómo emergen cosas de orden superior a partir de la interacción de cosas de orden inferior. Por ejemplo: Imaginemos cómo vería un organismo unicelular a un organismo pluricelular. El organismo pluricelular está en un nivel incomprensible para el organismo unicelular (es posible que la parte de nuestra mente que procesa información sea en gran parte un artefacto cultural).
3) Un humano que no haya crecido entre otros humanos es de hecho una máquina bastante poco inteligente. Parte de lo que nos hace inteligentes es nuestra cultura y nuestra interacción con los demás. Y eso mismo sería también en parte lo que haría inteligente a una máquina. (Tendría que interaccionar con seres humanos e integrarse en nuestra cultura).
4) Desde el punto de vista biológico, ¿cómo se organiza este simple proceso evolutivo en organismos biológicos complicados?; y desde el punto de vista técnico, ¿cómo hacer que conmutadores simples como los transmisores, cuyas propiedades conocemos, hagan una cosa compleja que no comprendemos?
El Fenómeno de la Emergencia.- Desde el punto de vista físico, lo que se estudia es el fenómeno general de la emergencia, de cómo cosas simples se convierten en cosas complejas. En lo esencial, todas estas disciplinas aspiran, desde ángulos diferentes, a responder la misma pregunta: ¿cómo puede el funcionamiento conjunto de unos elementos simples e insulsos producir algo complejo que trasciende a ellos?
1) En eso consiste esencialmente la teoría de la “sociedad de la mente” de Marvin Minsky; en eso consiste la “vida artificial” de Chris Langton; así concibe la evolución Richard Dawkins; eso es fundamentalmente lo que estudian los físicos que se fijan en las propiedades emergentes; en eso consiste el trabajo de Murray Gell-Mann sobre los quarks, ese es el hilo conductor de todas esas ideas. Apasiona la idea de que podamos encontrar la forma de explotar determinados principios generales de organización para producir algo que va más allá de nosotros mismos. Si retrocedemos muchos miles de millones de años, podemos ver que la historia de la Tierra se ajusta a este modelo.
2) En primer lugar, las partículas fundamentales se organizan para crear la química. Luego la química se organiza para crear la vida autor reproductiva. Después la vida se organiza en organismos pluricelulares y los organismos pluricelulares en sociedades unidas por el lenguaje.
Las sociedades están ahora organizándose a sí mismas en unidades mayores y produciendo algo que las conecta tecnológicamente, produciendo algo que va más allá de ellas mismas. Todo esto son eslabones de una cadena, y el siguiente paso es la construcción de máquinas pensantes.
3) Lo más interesante de este mundo es cómo un cúmulo de cosas simples y anodinas se organizan en algo mucho más complicado cuyo comportamiento tiene lugar a otro nivel. Todo -ya sea el cerebro, los ordenadores paralelos, las transiciones de fase o la evolución- se ajusta a este modelo. Se intenta reproducir dentro del ordenador el proceso de la evolución con objeto de conseguir máquinas que se comporten de manera inteligente.
4) Lo que hacemos es poner en marcha un proceso evolutivo que tiene lugar a la escala del microsegundo. Por ejemplo, en los casos más extremos, podemos desarrollar un programa partiendo de secuencias aleatorias de instrucciones. Por ejemplo, “ordenador produce cien millones de secuencias aleatorias de instrucciones, ejecútalas todas y escoge las que más se acerquen a lo que yo quiero”. En otras palabras, se define lo que se desea, pero no cómo conseguirlo.
5) Cada una de estas generaciones dura unos pocos milisegundos, así que puede simular en el ordenador el equivalente a millones de años de evolución en unos pocos minutos (o en unas pocas horas, en los casos complicados). Al final se acaba teniendo un programa de ordenación alfabética absolutamente perfecto y mucho más eficiente que cualquier programa que pudiera haberse escrito a mano. Pero si se da un vistazo al programa no se puede decir cómo funciona, será un programa oscuro, estrafalario, pero hará bien su trabajo, porque desciende de una línea de cientos de miles de programas que hacían eso mismo. De hecho, las vidas de esos programas dependían de ello.
6) Pero la ingeniería deja de funcionar bien cuando se hace muy complicada; por ello estamos comenzando a hacer uso de ordenadores que se valen de un proceso muy diferente, capaz de producir cosas de complejidad muy superior. Pero de hecho no conocemos, ni mucho menos, las posibilidades de ese proceso, así que en cierto sentido nos está superando. En la actualidad estamos empleando esos programas para construir ordenadores mucho más rápidos, de manera que podremos acelerar aún más el proceso. Se puede decir que el proceso se alimenta a sí mismo. Se está haciendo cada vez más rápido. Es autocatalítico y escapa a nuestro nivel de comprensión.
7) De frente a este hecho los seres humanos nos parecemos a los organismos unicelulares en el momento en que se estaban transformando en organismos pluricelulares. Somos amebas que no podemos hacernos idea de qué estamos creando. (Estamos justo en esa fase de transición) Por eso, pensar que somos el “producto final de la evolución” es un acto de soberbia. Todos somos parte del proceso de producción de lo que vendrá después. Estamos en un momento apasionante: Nos encontramos cerca de la singularidad y es como volver a aquella “letanía de la química que conduce a los organismos uniceculares que conducen a la inteligencia”.
8) El primer paso necesitó mil millones de años, el siguiente sólo cien millones. Estamos en una fase en la que las cosas cambian cada década, y el proceso parece estar acelerándose. La tecnología tiene un efecto autocatalítico: ordenadores cada vez más rápidos nos permiten diseñar ordenadores cada vez más rápidos. Nos encaminamos hacia algo que va a ocurrir muy pronto -en el curso de nuestras vidas- y que es fundamentalmente diferente de cualquier otro acontecimiento anterior en la historia humana.
Consecuencias.- La gente ha dejado de pensar en el futuro, porque se da cuenta de que es imposible hacerse una idea de lo que vendrá. El mundo en que vivirán nuestros nietos será tan diferente que los criterios normales de planificación del futuro ya no sirven. Hace 30 ó 40 años la gente solía hablar de lo que iba a pasar en el año 2000. Ahora que hemos llegado al inicio del Milenio, la gente sigue hablando de lo que va a pasar en el año 2000. Desde nuestro nacimiento, el futuro se ha ido encogiendo a razón de un año por año; si se intenta hacer una extrapolación para entrever cómo será la tecnología a principios del próximo siglo, solo se divisa un punto en el que va a pasar algo imposible de concebir. Quizá sea la creación de máquinas inteligentes; o “quizá sea nuestra fusión en un organismo global, mediada por la telecomunicación. Todo esto puede sonar a mística, pero muy realista: Pienso que estamos siendo testigos -y continuaremos siéndolo en las próximas décadas- de algo que no podemos comprender, algo que resulta tan inquietante como apasionante”.
CONCIENCIA CUÁNTICA
Según el matemático y físico británico Roger Penrose hay una conexión entre la mecánica cuántica y la conciencia, pero es un tanto indirecta; los argumentos son negativos. Si queremos llegar a explicar los efectos de la conciencia tendremos que encontrar algún proceso físico no computable. Pero no detecto nada de eso en ninguna de las teorías existentes. El único sitio donde puede tener cabida la no computabilidad es en lo que se denomina “medida cuántica”. Pero necesitamos una nueva teoría cuántica de la medida. Tiene que ser una teoría nueva no computable. Hay un lugar para ella, siempre y cuando la nueva teoría implique cambios en la misma estructura de la teoría cuántica (cambios que podrían surgir de su unificación con la relatividad general) Pero esto pertenece al futuro lejano; mientras tanto: ¿Por qué Penrose cree que la conciencia incluye ingredientes no computables? La razón es el teorema de Gödel y explica:
1) La indemostrabilidad formal de una cierta proposición era señal de que de hecho era verdadera. Según Gödel, podemos producir enunciados que no podemos demostrar a partir de cualquier sistema de reglas que hayamos fijado de antemano. Pero si uno cree en los postulados de partida también debe creer en la certeza de la proposición cuya verdad está más allá de esos postulados. Esto evidencia que la comprensión matemática es algo que no puede formularse en términos de reglas. (Esta es la idea que, mucho después, defendí con vigor en mi libro La nueva mente del emperador).
2) Se pueden hacer objeciones a este uso del teorema de Gödel, y de hecho se hacen. La mayoría de estos contraargumentos son producto de una mala interpretación. Dennett sí hace objeciones genuinas, y su análisis es un poco más difícil de rebatir. Las objeciones de Dennett se fundan en la pretensión de que nuestro pensamiento -aquí pensamiento matemático- hace uso de algoritmos “ascendentes” más que “descendentes”.
3) Un algoritmo descendente es específico para la solución de algún problema concreto, y proporciona un procedimiento definido para la resolución de ese problema. Un algoritmo ascendente no es específico de ningún problema en particular, sino que está organizado más libremente, de manera que aprende de la experiencia y mejora progresivamente, dando al final una buena solución del problema que se tiene entre manos. (Muchos gente comparten la idea de que el cerebro funciona a través de algoritmos ascendentes más que descendentes). En la obra “Shadows of the Mind”, se aplica el argumento de Gödel también a los sistemas ascendentes, y se presentan argumentos convincentes que demuestran que hay algo en nuestra conciencia que, simplemente, no es computable: es algo distinto.
4) Gran parte de lo que el cerebro hace lo puede hacer también un ordenador. No se afirma que el funcionamiento del cerebro en su totalidad sea completamente diferente del de los ordenadores, pero se sostiene que la función consciente es algo distinto. Tampoco se dice que la conciencia esté más allá de la física; pero sí que está más allá de la física que conocemos. La argumentación consta básicamente de dos partes:
La primera muestra que el pensamiento consciente es algo diferente de la computación (Se prueba con todo el rigor).
La segunda parte es más exploratoria, y en ella se intenta descubrir qué pasa realmente.
5) Tiene que haber “algo en la física” que aún no comprendemos, algo muy importante y de carácter no computable. No es algo específico de nuestros cerebros; está ahí fuera, en el mundo físico. Pero su papel suele ser insignificante. Tendría que residir en el puente entre el mundo cuántico y el mundo de la física clásica (esto es, en el terreno de la medida cuántica). La teoría física moderna es un poco extraña, porque tenemos dos niveles de actividad. Uno es el nivel cuántico, referido a los fenómenos microscópicos; aquí lo relevante son las pequeñas diferencias de energía.
6) El otro es el nivel clásico, donde tenemos los fenómenos macroscópicos regidos por las leyes de la física clásica -Newton, Maxwell, Einstein-. La gente tiende a pensar que la física cuántica, al ser más moderna, tiene que ser por fuerza más precisa que la física clásica, y por lo tanto -si supiéramos cómo- la segunda tendría que explicarse en función de la primera. No parece que esto sea cierto. tenemos dos escalas de fenómenos, y el comportamiento clásico no puede deducirse del comportamiento cuántico más que el cuántico del clásico.
7) No tenemos una teoría cuántica definitiva. Nos queda todavía un largo camino por recorrer para lograrla: lo que tenemos es una teoría provisional. Y es incompleta también en lo que afecta a los fenómenos macroscópicos, no sólo a la escala microscópica de la partículas. Las ideas físicas vigentes sobreviven como casos límite, en el mismo sentido en que la mecánica newtoniana ha sobrevivido a la relatividad. La relatividad modifica la mecánica newtoniana, pero en realidad no la suplanta. La mecánica newtoniana sigue existiendo como caso límite. Igualmente, la teoría cuántica en su versión actual y la física clásica, con la inclusión de la teoría de la relatividad general de Einstein, son casos límite de alguna teoría que aún no tenemos. Lo que puede afirmarse es que esa teoría hipotética incluirá ingredientes no computables. Este hecho tendría su importancia en la ampliación de algo del nivel cuántico al clásico, lo cual es la esencia de la “medida”.
8) Para tratar este problema, en la teoría cuántica estándar se introduce el azar. Por esto se dice que la teoría cuántica es una teoría probabilística. Pero el azar sólo surge cuando se pasa del nivel cuántico al clásico. Si permanecemos en el nivel cuántico no hay aleatoriedad; ésta surge cuando se amplifica algo, es decir, cuando efectuamos lo que la gente entiende por “hacer una medida”. Esto consiste en tomar un efecto cuántico microscópico y magnificarlo hasta un nivel en que se hace observable. Las probabilidades sólo aparecen en ese proceso de amplificación. Lo que se afirma es que, sea lo que sea lo que en verdad ocurre en ese proceso de amplificación, está más allá de nuestra comprensión actual de la física, y es más que aleatorio: es no computable. Se trata de algo esencialmente diferente.
9) De igual manera no parece haber lugar para los fenómenos conscientes en la ciencia tal como la entendemos hoy. Por otro lado, hoy día mucha gente parece creer que si algo no se puede meter en un ordenador no es ciencia, porque en los tiempos que corren buena parte de la ciencia se hace mediante simulaciones informáticas de procesos físicos (La gente no se da cuenta de que el hecho de que algo no sea computable no impide que sea perfectamente científico, perfectamente describible en términos matemáticos).
10) Cuando se dice “no computable” no se quiere decir “aleatorio”. Ni tampoco incomprensible. En matemáticas hay cosas que son meridianamente claras y que no son computables. El ejemplo más famoso es el décimo problema de Hilbert, que tiene que ver con la resolución de ecuaciones algebraicas en enteros. Nos dan una familia de ecuaciones algebraicas y nos preguntan si se pueden resolver en enteros, es decir, si tienen soluciones enteras. Esta cuestión no puede ser resuelta por un ordenador en un tiempo finito. Hay un famoso teorema, de Yuri Matiyasevich, que demuestra que no hay forma computable de responder a esta cuestión de manera general. En casos particulares se podría responder por medio de algún procedimiento algorítmico del que sabemos que no da respuestas equivocadas, siempre podemos encontrar una ecuación algebraica sobre la cual el procedimiento no podrá decidir, pero de la que sabemos con toda certeza que no tiene soluciones enteras.
11) Sea cual sea el dominio de lo que es accesible a la comprensión humana, hay cosas que no pueden encapsularse en forma computable. Podemos imaginar un universo de juguete que de algún modo hubiese evolucionado según el décimo problema de Hilbert. Esta evolución podría ser completamente determinista aunque no fuera computable. En este universo de juguete el futuro estaría matemáticamente fijado; sin embargo, un ordenador no podría adivinar el futuro. Se afirma que las leyes físicas se comporten así a algún nivel, pero el ejemplo demuestra que es una posibilidad, y puede asegurarse de que el universo real es mucho más sutil que todo eso.
12) Cuando se argumenta que la actividad del cerebro consciente es no computable no se está hablando de computadores cuánticos. El computador cuántico es un concepto perfectamente bien definido, que no representa ninguna revolución en la física; ni siquiera ejecuta operaciones no computables. Los computadores cuánticos por sí solos no explican lo que pasa en la actividad consciente del cerebro. Para el filósofo Dan Dennett el computador cuántico es un “castillo en el aire” (su manera de decir que es un milagro. Sin embargo, es una cosa perfectamente razonable. De todas maneras, no se estima que pueda explicar el funcionamiento del cerebro (lo que no quita Eso no quita que pueda haber algún elemento de computación cuántica en la actividad cerebral).
13) Uno de los rasgos esenciales del nivel cuántico es que hay que considerar la coexistencia de diferentes sucesos alternativos. En mecánica cuántica esto es fundamental. Si puede ocurrir X y también puede ocurrir Y, entonces puede darse cualquier combinación de X e Y, ponderados con coeficientes complejos. De acuerdo con la mecánica cuántica, una partícula puede tener estados en los que ocupa varias posiciones a la vez. (Cuando tratamos un sistema de acuerdo con la mecánica cuántica, tenemos que tener en cuenta esta superposición de alternativas).
14) La idea de un ordenador cuántico, tal como ha sido adelantada por David Deutsch, Richard Feynman y otros, es que los cálculos son las cosas que se superponen. Más que hacer un cálculo, nuestro ordenador hace multitud de ellos a la vez. En ciertas circunstancias esto puede ser muy eficiente. El problema viene al final, cuando hay que extraer información de la superposición de todos esos cálculos diferentes. Es extremadamente difícil conseguir un sistema que haga esto de manera fructífera; por ello, decir que el cerebro trabaja de esta manera es bastante radical. El cerebro no es exactamente un computador cuántico. Los efectos cuánticos son importantes para el funcionamiento del cerebro, pero los procesos no computables tienen lugar en el puente entre el nivel cuántico y el clásico, y ese puente está más allá de nuestra actual comprensión de la mecánica cuántica.
15) Con mucho, el terreno más prometedor para buscar esta frontera cuántico-clásica está en el reciente trabajo sobre microtúbulos de Stuart Hameroff y sus colegas de la Universidad de Arizona. Las cédulas eurocarióticas tienen lo que se denomina un citoesqueleto, compuesto por estos microtúbulos. Las neuronas, en particular, contienen microtúbulos. También son responsables del control de animales unicelulares, como paramecios y ambas, que no tienen neuronas de ninguna clase. Estos animales nadan y hacen cosas muy complicadas. Aparentemente aprenden de la experiencia, pero no están controlados por ningún sistema nervioso; el control lo ejerce otra clase de estructura, que probablemente es el citoesqueleto y su sistema de microtúbulos.
16) Los microtúbulos son tubos largos de unos pocos nanómetros de diámetro. Los microtúbulos neuronales se prolongan también por los axones y dendritas. Parecen encargarse del control de la fuerza de las conexiones entre neuronas. Aunque en cualquier momento la actividad de las neuronas podría parecerse a la de un ordenador, este ordenador estaría sujeto a un cambio continuo en su “circuitería”, bajo el control de un nivel estructural más profundo. Este nivel más profundo es, muy probablemente, el sistema de microtúbulos neuronales. Su actividad tiene mucho que ver con el transporte de neurotransmisores químicos a lo largo de los axones, y con el crecimiento de las dendritas. Las moléculas neurotransmisoras son transportadas a lo largo de los microtúbulos.
17) Lo que interesa destacar sobre los microtúbulos es que son tubos, y de acuerdo con Hameroff y sus colegas hay una actividad computacional a lo largo de los tubos mismos, por su parte exterior. Una sustancia proteínica llamada tubulina forma estructuras espirales que constituyen los tubos. Cada molécula de tubulina puede tener dos estados de polarización eléctrica, que podemos etiquetar como 1 y 0, como si de ordenadores electrónicos se tratara. Esto genera patrones variables a lo largo de los microtúbulos, que pueden propagarse en alguna forma de actividad computacional.
18) Por sí mismo, un microtúbulo sería un ordenador, pero a un nivel más profundo que el neuronal. Todavía tenemos actividad computacional, pero está mucho más allá de lo que se piensa. El número de estas tubulinas es mucho mayor que el de neuronas. Lo que también interesa es que el interior de los microtúbulos es un sitio plausible para una actividad oscilatoria cuántica aislada del exterior. El problema cuando se pretende aplicar la mecánica cuántica a la acción cerebral es que, si las señales nerviosas fuesen de carácter cuántico, entonces perturbarían el resto del material cerebral, hasta tal punto que la coherencia cuántica se perdería muy rápidamente.
19) Por tal razón la construcción de un ordenador cuántico a partir de señales nerviosas ordinarias ni siquiera podría intentarse, porque son demasiado grandes y se propagan en un medio demasiado desorganizado. Las señales nerviosas ordinarias requieren un tratamiento clásico. Pero si se desciende al nivel de los microtúbulos, entonces las posibilidades de conseguir actividad a nivel cuántico dentro de ellos son enormes.
En conclusión: Para una descripción coherente de esta teoría se requiere de esta actividad a nivel cuántico en los microtúbulos; pero además tiene que haber “algo a gran escala” que vaya no sólo de un microtúbulo al siguiente, sino de una cédula nerviosa a la siguiente, cubriendo grandes áreas del cerebro. Necesitamos alguna clase de actividad coherente de naturaleza cuántica que esté levemente acoplada con la actividad computacional que según Hameroff tiene lugar a lo largo de los microtúbulos, y para ese cometido hay dos vías de ataque al problema: una es directamente física: la teoría cuántica requiere modificarse por la parte biológica se tendrían que llevar a cabo experimentos para ver si hay alguna posibilidad de que los microtúbulos sean el soporte de alguno de estos “efectos cuánticos” coherentes a gran escala. del estilo de los superconductividad o la superfluidez), donde tenemos sistemas cuánticos a una escala grande.
El hombre en su afán permanente de conocimiento no quiere dejar intacto, ni siquiera su ser. Precisamente si algo ha distinguido el proceso de conocimiento es que no está, en manera alguna consolidado y ultimado, sino siempre abierto y moldeable. Pero siempre el hombre debe insistir en el acabamiento y consolidación del conocimiento y las ideas y conceptos con los que trata de concebir y enmarcar su propia existencia pueden, por tanto ejercer una fuerza decisiva en la autorealización de esta existencia que supone, desde luego, el plantearse las clásicas preguntas del ¿Cómo? y el ¿Por qué?.
Las respuestas, en cada caso, se convierten en ideales por los cuales el hombre se rige y modela su conducta personal y comunitaria y con ésto a la vez se revela el sentido que debe darle a la vida.
REVISION DEL ESTADO DE SITUACION
Cuando se ingresa al Tercer Milenio en el área del conocimiento que nos interesa observamos varios hechos de los que es necesario dejar constancia: uno es la realidad de que el conocimiento ha crecido de manera exponencial y el acceso a libros y a revistas especializadas que eran nuestro alimento para pergeñar estas ideas que exponemos a los lectores, son además de muy costosos, lentos en acoger y divulgar tales ideas. El crecimiento rapidísimo de los sitios en la Red que nos enlaza cibernéticamente: Internet, ha sobrepasado los cálculos ingenuos de su propulsor más connotado el ingeniero británico de la Universidad de Oxford Timothy "Tim" John Berners-Lee , a quien se considera el padre de la “Web” ( World Wide Web) . La Internet que trabaja sobre la red y la conforma además, es a su vez una idea nacida en el seno de los sectores de Inteligencia norteamericanos, cuando deciden poner la información estratégica a salvo de una eventual catástrofe nuclear y la dividen en sectores que se encontraban en las universidades norteamericanas. Ese primer sistema es conocido como Arpanet.
El lenguaje utilizado en aquellas fechas ( años 80) tenían el inconveniente de la dificultad de su acceso y vulgarización. Berners-Lee lo logra mediante la invención de un sistema que nos rige hoy día: el lenguaje HTML ( Hyper Text Markup Language) ,una modalidad de soporte y distribución estructurado bajo el HTTP ( Hypert Text Transfer Protocol) y una forma universal de localización denominado URL ( Uniform Resource Locator) , que entran en operación sucesivamente a partir de 1980,trabajando para CERN, MIT, ERCIM, Universidad de Kyoto y finalmente con MIT ,donde en el año 1990, se decide que el acceso a la Web sea libre y gratuito.
Debemos a los esfuerzos de muchas personas y en especial a Berners-Lee ,el “padre de la Web” que primero lentamente y luego con gran fuerza cuando aparecen las primeras computadoras de uso personal ( Personal Computers ) ,denominadas ahora P.C. el conocimiento almacenado en libros y revistas comience a pasarse a información digital.
Este libro lo comienzo a redactar en 1984 a petición del Dr. Eric Mora , en aquel momento Presidente del Colegio de Médicos ,quien lo utilizaría para los cursos de postgrado de los profesionales que pasaban por las aulas del CENDEISS ( institución mixta de la Caja Costarricense de Seguro Social y de la Universidad de Costa Rica) , luego lo logro publicar en 1992 bajo el titulo : Teorías Cosmológicas ” ,en donde es protegido por el ISBN respectivo ,y en el año 2002 lo retomo para mejorarlo, incluirle nuevas teorías y sale a la luz pública como Universos: los Rastros de Dios .
Después, por razones de salud dejo olvidado, hasta que mi amigo el físico-matemático belga Jacques Chauveheid ( alumno del Abate Lemaitre, autor de la teoría del Big Bang ) me anima a colocarlo en la Red ,cosa que hago hasta el año 2007, en un Blog de Google y le cambio de nuevo el titulo a : Universos: los Rostros de Dios, por parecerme más apropiado.
Ahora bien, este ultimo capitulo lo redacto justamente entre los años 2000 ( en realidad el ultimo del siglo XX) y el año 2001 ( el primero del Tercer Milenio),que fue un tema de mucha discusión en todo Occidente, pues los judíos, los chinos, los hindúes y de seguro muchas culturas aisladas o lejanas siguen teniendo su propio computo del tiempo.
Retomo el hilo: al ingresar en el Tercer Milenio hay respuestas, pero hay mucho más preguntas generadas por las mismas respuestas. Como en la Tocata y Fuga de Bach,una nota tras otra ,va abriendo el camino a la siguiente en un loco frenesí inacabable. Y al mismo tiempo tales respuestas que deben acompañar al hombre de manera permanente para volver a replantearlas como preguntas , dan idea de que el hombre no es solamente un simple ser que existe, sino que se pregunta y se interpreta a sí mismo no por una simple divagación teórica que le lleve tranquilidad sino que sus preguntas brotan de la más profunda necesidad de quien ha de construirse a sí mismo y por eso requiere de una imagen rectora sobre la cual deba hacerlo.
Ahora bien ambas se enlazan una a la otra: la imperfección del hombre es la que, en compensación empuja a la auto comprensión que le dice como puede perfeccionarse. A su vez la interpretación que se da de sí mismo no queda precisamente desligada sino que debe engranarse a la vez con el todo del Cosmos y a la vez con la imagen rectora superior.
La auto interpretación del hombre es un principio de responsabilidad intrínseco y que le trasciende, a la vez. Esta responsabilidad debe ser siempre consciente. Por eso nunca se cerrarán las preguntas: ¿Quién soy y para que estoy en el Universo?. Las respuestas pueden cambiar y llevarle ora tranquilidad, ora desasosiego. El esfuerzo de disciplinas para convergir en la búsqueda de las verdaderas respuestas se convierte entonces en una necesidad ética insoslayable porque aunque las respuestas cambien la inquietud permanecerá: ese es el destino ineluctable del hombre.
Desde los albores de la Humanidad en su relación con el contexto que le rodea, el ser humano - que tiene la capacidad de conocer e interpretar lo que conoce - ha pasado por diversos estadios y así el Universo se le antojaría al principio tétrico o placentero, según fuese su ventura; era la época del Universo Utilitario.
Luego con el transcurrir de sus primeros intentos por descifrarlo sería un Universo Rutinario, en el que el pasar del día a la noche y así en interminables períodos, si acaso las estrellas fugaces y los súbitos cometas interrumpían la placidez de la contemplación indagatoria.
Con el proceso de entendimiento y explicación - pero también de incomprensibilidad, devendría un largo período de ahondamiento en los misterios Tierra - Cosmos para asentar una época en que el ser humano se desenvuelve dentro del Universo Estático;
Después, y aunque subsisten áreas de explicaciones no del todo satisfactorias, el ingenio humano se encargará - como siempre ha sido - de buscar esquemas físicos y formulaciones matemáticas para ajustar lo que intuye racionalmente, con lo que observa físicamente para llegar a postular el Universo Mecánico
A inicios del siglo XX Einstein de desacomodar la visión estática y se encargará de convertirlo en un Universo Relativista pero - a la vez - en un Universo Comprensible y los físicos atomistas de la Escuela de Copenhague lo verán más bien - por extrapolación a lo macro - como un Universo Indeterminado
Ahora resulta que, a comienzos del Tercer Milenio, de nuevo los físico-matemáticos relativistas-cuánticos, nos asombrarán afirmando que el Universo es Determinable por nuestra acción (¿co-creadora...?) para dejarnos de frente con el Universo Consciente ,con la paradoja de que ni siquiera sabemos cómo funciona nuestra mente y de que es la conciencia.
Junto a esas visiones de Universo irán apareciendo otras mas y mas distantes al lego: aparecerán el Universo Topológico, luego los físicos nos propondrán un Universo Inflacionista
Más tarde tendremos con nosotros las ideas más revolucionarias: el Universo Múltiple, el Universo integrado por Universos Diversos (meta Universo) , o el Universo Paralelo, el Universo previo a la época de Plank visualizado como Universo de la Teoría de las Membranas ( Teoría M) o cuando se inicien esfuerzos de cuantizacion de la relatividad , el Universo de la Gravedad Cuántica o bien el Universo Autocontenido. Y en este esfuerzo perenne de explicación el Universo de todos los días, el que contemplamos con pasión o romanticismo, con nostalgia o con alegría en la noche estrellada se irá pululando de teorías tan lejanas a nuestra comprensión humana que terminaremos pensando en un Universo más simple: el que nos cobija, junto con el Planeta Tierra, en donde vivimos con nuestra familia y amigos, en donde nuestros países hacen la guerra-igual que desde los albores de la humanidad y en donde surgen las preocupaciones del siglo XXI que aun no sabemos ni donde comienzan ni cómo van a terminar, salvo que abracemos las ideas de los cosmólogos acerca del fin del Universo y nos avizoremos achicharrados o congelados, aunque eso –se nos dice ocurrirá muchos miles de millones hacia delante.
La lentitud del proceso diacrónico que llevó de la primera concepción (desde el siglo XII a.C. hasta las dos primeras décadas del siglo XX), permitieron, que, a la vez los modelos de Universo corriente y mayoritariamente postulados y aceptados se fuesen oficializando y al tiempo sacralizando, dejando al margen otras concepciones que - por extravagantes y por ello minoritarias - se convirtieron en explicaciones oscuras, misteriosas, esotéricas, desacralizadas y sólo entendidas y accesibles por los pocos iniciados en esa visiones y explicaciones cosmogónicas.
A partir de las siguientes décadas del siglo actual (30 al 80 inclusive) la ciencia oficial debe cambiar tan rápidamente de modelos, que emergen cada vez con más fuerza las explicaciones esotéricas para ir compatibilizando lo que la moderna tecnología va dejando al descubierto, pero sin encontrarle explicaciones satisfactorias.
Así conforme el Universo se va haciendo más conspicuo, sin embargo las explicaciones científicas se van tornando más complejas y áridas, primero para el lego y después aún para los astrónomos, quedando reducidos los iniciados a unos pocos cosmólogos. Surgen entonces explicaciones para ir acomodando la formulación matemática a la comprobación experimental, o bien el hallazgo físico a la teoría que lo acomode dentro de esquemas comprensibles de acuerdo a los cánones clásicos de la racionalidad y a las reglas del quehacer científico estructuradas en torno a estos lineamientos.
La observación de la recesión de los grandes conglomerados visibles de materia hará que se postule en los años veinte el Universo Expansionista, que servirá de campo de batalla para la confrontación de teorías rivales.
Desde los años cuarenta hasta casi los sesenta la batalla se dará entre la concepción de un Universo Eterno (teorías del Estado Estacionario y la Creación Continúa) y un Universo Temporal (Teorías del Big Bang); pero al obtenerse la primera prueba en favor de la segunda teoría se consolida la concepción del Universo Evolucionista que mezcla elementos de diversas fuentes para asegurar que se ha llegado al fin a una comprensión cabal del Universo.
En la década de los setenta - ochenta es necesario postular el Universo Inflacionario, para entender los sucesos inmediatamente posteriores al punto de inicio ó Big Bang; pero la teoría deja aún dudas sobre el futuro del proceso de evolución y será la materia aún no observada la que obligue a grandes e ingeniosos esfuerzos observacionales para teorizar si el Universo se expanderá para siempre o se mantendrá la expansión.
La existencia de materia oscura como la causante que determina los procesos de evolución permite llegar en los noventa, a la afirmación de que lo observable es apenas entre el 10% - 20% de lo físicamente existente y nace así el concepto de Universo Oscuro en el que, los fenómenos de evolución son causados por la presencia y comportamiento aún no conocido - de la materia oscura y en que lo observable son apenas epifenómenos de la materia visible, por lo que hay aún “baches” en el conocimiento del proceso evolutivo universal.
Paralelamente a las modificaciones que deben irse introduciendo al modelo estándar del Big Bang, desde el mundo de la microfísica en el campo de la biología molecular y desde la esfera de la psicología del conocimiento, en la década que va desde la segunda mitad de los años ochenta y la primera mitad de los noventa, comienzan a aflorar nuevas concepciones para entender el Universo, porque ya los planteamientos que arrancan con la concepción einsteniana de la Relatividad no son suficientes para entender el Universo, de frente a las revelaciones que afloran de el Universo Cuántico, que a principios de los noventa origina el Universo de Simetría Quebrada.
En este ir y venir de modelos racionalistas, sin embargo algunas mentes tratan de ir más allá – mediante las permanentes incursiones metafísicas - y comienzan a hacerse más y más incursiones intelectuales para buscar en el Universo no ya satisfacción al ¿Cómo?, sino la respuesta al ¿Por Qué?.
En esta búsqueda que difiere de la pesquisa científica normal, aparecen concepciones en que el concepto Universo Único, compite, pero se complementa con el concepto Universo Múltiple y el paso entre uno y otro obliga a asimilar planteamientos como Universos Paralelos, o bien Universo Fantasma, o Universo Ilusorio, o Universo Probable, o Universo Divergente; pero todos ubicados en el Universo Pensado, ya que se llega a determinar que la modelación es el resultado de la imaginación y ésta - a su vez - el resultado de modelación, por lo que Universo - Mente - Universo constituye una unidad única.
En tales circunstancias cabe preguntarse: son necesarias a estas alturas de nuestra historia las ideas que se pergeñan alrededor del Universo. Como mi respuesta es sí, prosigo en la tarea.
EJE COSMICO
Cuando Theilhard planteaba la existencia de un “eje cósmico”, las tesis científicas post-modernas no eran siquiera oscuras ideas: simplemente no existían; pero sin forzar las similitudes estas reflexiones apuntalan la tesis Theilhardiana. No es mi intención colidir con las decisiones de la Iglesia Católica en lo tocante a aquellos aspectos doctrinarios que el jesuita francés habría violado, desobedeciendo lineamientos de la Fe. Lo único es que las ideas de Chardin encuentran eco, sustento, arraigo, apoyo, fuerza en muchas de las inquietudes científicas postmodernas que hemos mencionado en distintos capítulos de esta obra y deseamos reafirmar nuevamente, y eso no puede desconocerse ante el acercamiento Ciencia-Fe que impulsa la Iglesia. Veamos, repasemos las ideas de dos científicos: Uno Doyme , con sus concepciones de auto organización finalista ,el otro Hillis ,con sus planteamientos alrededor de la emergencia de un orden superior a partir de elementos simples y combinemos ambos pensamientos:
RETOMANDO LAS IDEAS DE DOYME
1) La física nos demuestra que podemos construir una imagen coherente del universo partiendo de principios básicos a menudo muy simples. No basta con la mecánica de Newton para entender el movimiento de los cometas y predecir sus trayectorias. Se trata de leyes deterministas, en las que dadas ciertas condiciones iniciales, si nos referimos al cometa serían la posición y velocidad, el futuro del sistema está ya definido. Determinismo y predicción parecen indisociables.
2) El determinismo newtoniano se tambaleó con la llegada de la mecánica cuántica. Esta nos hizo ver que el mundo microscópico de los átomos y las partículas elementales posee un límite más allá del cual las certidumbres se convierten en probabilidades. Ya entrada la segunda mitad del siglo XX, un nuevo marco conceptual vendría a introducir nuevos elementos en el cuerpo teórico de la ciencia. Gracias a los trabajos de Illya Prigogine y sus colaboradores, de la Universidad Libre de Bruselas, comenzaron a aplicarse herramientas de la física al estudio de sistemas complejos alejados del equilibrio, fueran éstos químicos o biológicos.
3) Se había observado que, en determinadas reacciones químicas y bajo condiciones adecuadas, un sistema que por sí mismo debería tender hacia un estado de equilibrio homogéneo mostraba oscilaciones periódicas macroscópicas y adquiría unas sorprendentes estructuras espaciales en forma de ondas espirales. Semejante resultado no parecía compatible con la interpretación estricta de la segunda ley de la termodinámica, que nos dice que la entropía y, por tanto, el desorden aumentan siempre. Nada tiene, pues de especial que la información relativa a esos fenómenos se recibiera con escepticismo, si no con incredulidad.
4) Con el descubrimiento del caos determinista en sistemas dinámicos simples, se demostró que, tras fenómenos manifiestamente complicados, subyacía un “orden oculto”. Una sola ecuación determinista podía generar dinámicas aparentemente aleatorias o erráticas que jamás se repetían. Y lo que era aún más sorprendente: los fenómenos caóticos eran, pese a su carácter determinista, impredecibles. Bastaba una imprecisión mínima en nuestro conocimiento de las condiciones iniciales (por ejemplo, en las variables climáticas locales en un instante dado) para que aquella se propagara exponencialmente hasta convertir la predicción en pura entelequia, alejada de la evolución real. Se había puesto la primera piedra de una futura teoría de la complejidad.
5) Pero complejidad no era, necesariamente, sinónimo de complicación. Lo que sí se exigía era abandonar nuestra intuición lineal de los fenómenos y reemplazarla por una visión del mundo basada en la no linealidad. A finales de los ochenta, el empleo de ordenadores cada vez más potentes, sumado al desarrollo de nuevas herramientas matemáticas, permitía comprobar que tanto la geometría como la dinámica de muchos sistemas naturales podían abordarse desde enfoques simples.
6) Se fue aceptando la existencia de “propiedades emergentes”, que aparecen en un sistema no lineal como resultado de la interacción entre sus partes y que no pueden explicarse a partir de las propiedades de sus elementos componentes. Se trata, en definitiva, de sistemas complejos, y como tales sus propiedades emergen de las interacciones entre sus elementos componentes. Muy pronto se comprendió que los sistemas complejos aparecen a medio camino entre el orden y el desorden. Por un lado, el orden es necesario para almacenar información y mantener la estabilidad de las estructuras.
7) Pero también se precisa flexibilidad en la transmisión de información. Recientemente, y desde enfoques distintos, se ha propuesto una hipótesis general acerca del origen de la complejidad. La han elaborado, entre otros, Jim Crutchfield, de la Universidad de California en Berkerly, Stuart Kauffman, del Instituto de Sistemas Complejos de Santa Fe, Chris Langton, del Centro de Estudios No Lineales en Los Álamos, y Per Bak, del Laboratorio Nacional de Brookhaven. La hipótesis de la frontera del caos, como se la denomina, establece que la complejidad aparece en unas condiciones muy especiales, conocidas desde antaño por la física: los puntos críticos en los que tienen lugar las transiciones de fase. Los sistemas complejos serían el resultado de una evolución hacia dichos puntos.
8) A principios de los setenta Leigh Van Valen, de la Universidad de Chicago, propuso un enfoque alternativo de la evolución. En su teoría, Van Valen considera las interacciones entre especies como una “carrera de armamentos”, en la que cada componente, cada especie, intenta mejorar su posición dentro del ecosistema. Ello significa que, además de interaccionar con el medio físico, interacciona con el ambiente biótico, entendiendo por tal las restantes especies. Un cambio en la situación de una especie inducirá cambios en las demás; la alteración operada en estas influirá, a su vez, en la primera, que, por consiguiente, deberá experimentar otro cambio, y así en idas y venidas sin fin. Ese proceso de mutua interferencia admite una formalización en el marco de la teoría de juegos para llegar a la conclusión de que la especie cambia solo para persistir.
9) Lo que vemos en el curso de la evolución de las especies son los elementos de un sistema complejo, en el que lo único importante es seguir existiendo. De ahí que a esta argumentación de Van Valen se la reconozca por hipótesis de la Reina Roja (en referencia al célebre personaje de Lewis Carroll, que le explica a Alicia en el País de las Maravillas cómo para permanecer en el sitio, no hay que dejar de correr). Una consecuencia a la que llega el modelo matemático es, justamente, que las tasas de extinción son constantes. Bajo esa equiprobabilidad de duración de las especies que aflora en la piel de la macroevolución opera bajo una dinámica intrínseca.
10) Sobre esta base, Stuart Kauffman ha elaborado un modelo de evolución que intenta sacarla a la luz. El modelo considera un conjunto de especies relacionadas entre sí y que poseen la capacidad de evolucionar. Cada especie puede cambiar para mejorar su posición en el ecosistema. Al hacerlo, las especies con las que se encuentra relacionada se resienten en su adaptación y deben, a su vez, cambiar para reforzarla. Todas las especies que intervienen en ese juego siguen, pues, una regla fundamental: han de potenciar su adaptación en el grado en que les sea posible. Cada cambio de una especie obliga a las demás participantes a cambiar, y así el sistema evoluciona hacia un punto crítico.
11) Del modelo de Kauffman se desprende que las propiedades globales de la evolución biológica nacerían de un fenómeno de tipo dinámico que algunos autores han denominado “atractor evolutivo”. Esta definición pone de manifiesto la existencia de un estado final que atrae el sistema hacia el punto crítico. Una vez alcanzado, la propia búsqueda de una mejor adaptación por parte de los elementos genera inestabilidades que se propagan a todas las escalas. Las inestabilidades, por su parte, pueden arrastrar consigo a las especies que las generaron, razón por la cual las extinciones, incluidas algunas de las principales, vinieron causadas por una inexorable dinámica crítica.
RETOMANDO LAS IDEAS DE HILLIS
1) Una de las cuestiones más apasionantes es cómo emergen cosas de orden superior a partir de la interacción de cosas de orden inferior. Por ejemplo: Imaginemos cómo vería un organismo unicelular a un organismo pluricelular. El organismo pluricelular está en un nivel incomprensible para el organismo unicelular (es posible que la parte de nuestra mente que procesa información sea en gran parte un artefacto cultural). Un humano que no haya crecido entre otros humanos es de hecho una máquina bastante poco inteligente. Parte de lo que nos hace inteligentes es nuestra cultura y nuestra interacción con los demás. Y eso mismo sería también en parte lo que haría inteligente a una máquina. (Tendría que interaccionar con seres humanos e integrarse en nuestra cultura).
2) Desde el punto de vista biológico, ¿cómo se organiza este simple proceso evolutivo en organismos biológicos complicados?; y desde el punto de vista técnico, ¿cómo hacer que conmutadores simples como los transmisores, cuyas propiedades conocemos, hagan una cosa compleja que no comprendemos? Desde el punto de vista físico, lo que se estudia es el fenómeno general de la emergencia, de cómo cosas simples se convierten en cosas complejas. En lo esencial, todas estas disciplinas aspiran, desde ángulos diferentes, a responder la misma pregunta: ¿cómo puede el funcionamiento conjunto de unos elementos simples e insulsos producir algo complejo que trasciende a ellos?
3) En eso consiste esencialmente la teoría de la “sociedad de la mente” de Marvin Minsky; en eso consiste la “vida artificial” de Chris Langton; así concibe la evolución Richard Dawkins; eso es fundamentalmente lo que estudian los físicos que se fijan en las propiedades emergentes; en eso consiste el trabajo de Murray Gell-Mann sobre los quarks, ese es el hilo conductor de todas esas ideas.
4) Apasiona la idea de que podamos encontrar la forma de explotar determinados principios generales de organización para producir algo que va más allá de nosotros mismos. Si retrocedemos muchos miles de millones de años, podemos ver que la historia de la Tierra se ajusta a este modelo. En primer lugar, las partículas fundamentales se organizan para crear la química. Luego la química se organiza para crear la vida autorreproductiva. Después la vida se organiza en organismos pluricelulares y los organismos pluricelulares en sociedades unidas por el lenguaje. Las sociedades están ahora organizándose a sí mismas en unidades mayores y produciendo algo que las conecta tecnológicamente, produciendo algo que va más allá de ellas mismas. Todo esto son eslabones de una cadena, y el siguiente paso es la construcción de máquinas pensantes.
5) Lo más interesante de este mundo es cómo un cúmulo de cosas simples y anodinas se organizan en algo mucho más complicado cuyo comportamiento tiene lugar a otro nivel. Todo -ya sea el cerebro, los ordenadores paralelos, las transiciones de fase o la evolución- se ajusta a este modelo. Se intenta reproducir dentro del ordenador el proceso de la evolución con objeto de conseguir máquinas que se comporten de manera inteligente.
6) Lo que hacemos es poner en marcha un proceso evolutivo que tiene lugar a la escala del microsegundo. Por ejemplo, en los casos más extremos, podemos desarrollar un programa partiendo de secuencias aleatorias de instrucciones. Por ejemplo, “ordenador produce cien millones de secuencias aleatorias de instrucciones, ejecútalas todas y escoge las que más se acerquen a lo que yo quiero”. En otras palabras, se define lo que se desea, pero no cómo conseguirlo.
7) Cada una de estas generaciones dura unos pocos milisegundos, así que puede simular en el ordenador el equivalente a millones de años de evolución en unos pocos minutos (o en unas pocas horas, en los casos complicados). Al final se acaba teniendo un programa de ordenación alfabética absolutamente perfecto y mucho más eficiente que cualquier programa que pudiera haberse escrito a mano. Pero si se da un vistazo al programa no se puede decir cómo funciona, será un programa oscuro, estrafalario, pero hará bien su trabajo, porque desciende de una línea de cientos de miles de programas que hacían eso mismo. De hecho, las vidas de esos programas dependían de ello.
8) Pero la ingeniería deja de funcionar bien cuando se hace muy complicada; por ello estamos comenzando a hacer uso de ordenadores que se valen de un proceso muy diferente, capaz de producir cosas de complejidad muy superior. Pero de hecho no conocemos, ni mucho menos, las posibilidades de ese proceso, así que en cierto sentido nos está superando. En la actualidad estamos empleando esos programas para construir ordenadores mucho más rápidos, de manera que podremos acelerar aún más el proceso. Se puede decir que el proceso se alimenta a sí mismo. Se está haciendo cada vez más rápido. Es autocatalítico y escapa a nuestro nivel de comprensión.
9) De frente a este hecho los seres humanos nos parecemos a los organismos unicelulares en el momento en que se estaban transformando en organismos pluricelulares. Somos amebas que no podemos hacernos idea de qué estamos creando. (Estamos justo en esa fase de transición)Por eso, pensar que somos el “producto final de la evolución” es un acto de soberbia. Todos somos parte del proceso de producción de lo que vendrá después. Estamos en un momento apasionante: Nos encontramos cerca de la singularidad y es como volver a aquella “letanía de la química que conduce a los organismos uniceculares que conducen a la inteligencia”.
10) El primer paso necesitó mil millones de años, el siguiente sólo cien millones. Estamos en una fase en la que las cosas cambian cada década, y el proceso parece estar acelerándose. La tecnología tiene un efecto autocatalítico: ordenadores cada vez más rápidos nos permiten diseñar ordenadores cada vez más rápidos. Nos encaminamos hacia algo que va a ocurrir muy pronto -en el curso de nuestras vidas- y que es fundamentalmente diferente de cualquier otro acontecimiento anterior en la historia humana.
11) La gente ha dejado de pensar en el futuro, porque se da cuenta de que es imposible hacerse una idea de lo que vendrá. El mundo en que vivirán nuestros nietos será tan diferente que los criterios normales de planificación del futuro ya no sirven. Hace 30 ó 40 años la gente solía hablar de lo que iba a pasar en el año 2000. Ahora que se acerca el fin de siglo, la gente sigue hablando de lo que va a pasar en el año 2000. Desde nuestro nacimiento, el futuro se ha ido encogiendo a razón de un año por año; si se intenta hacer una extrapolación para entrever cómo será la tecnología a principios del próximo siglo, solo se divisa un punto en el que va a pasar algo imposible de concebir. Quizá sea la creación de máquinas inteligentes; o “quizá sea nuestra fusión en un organismo global, mediada por la telecomunicación. Todo esto puede sonar a mística, pero muy realista: Pienso que estamos siendo testigos –y continuaremos siéndolo en las próximas décadas- de algo que no podemos comprender, algo que resulta tan inquietante como apasionante”.
RECAPITULACION
Los postulados de Chardin comenzaron a hacerse en 1916 y cesaron en 1955. Es lógico que muchas ideas en boga en el seno de la ciencia lo impactaran, pues él era –además de sacerdote científico antropólogo. Los libros publicados a posteriori lo fueron como un esfuerzo de quienes buscando una correlación entre los hallazgos de la ciencia y los postulados de la fe, persistieron bajo su influjo en la idea. Por tanto no hay relación alguna entre los postulados recién señalados y los que hiciera Chardin. Pero cambiemos el concepto “atractor” que utiliza Doyme y sustituyámoslo por Omega y tenemos el mismo sistema avizorado por Chardin. Y tomemos el concepto “emergencia” que utlizaba Chardin y sustituyámoslo por el de “emergencia” que también usa Hillis y tendremos el mismo resultado. Pero adviértase que no son simples juegos y trasposiciones de palabras ,sino la confirmación teórico - científica postmoderna de las ideas místicas planteadas por Chardin en su intento de acercar la Ciencia y la Fe, que él –por ser científico y sacerdote debía sentir como una necesidad encarnada en su propio ser.
Las preguntas que nos hemos formulado desde el principio y las múltiples respuestas que hemos obtenido en este largo periplo históricos ,deben acompañar al hombre de manera permanente para volver a replantearlas ,porque mientras no lleguemos a tener la omniscencia de que no gozamos, el hombre es solamente un simple ser que existe preguntándose e interpretado a sí mismo , y no por una simple divagación teórica que le lleve tranquilidad sino que sus preguntas brotan de la más profunda necesidad de quien ha de construirse a sí mismo identificándose con su Creador y por ello requiere de una imagen rectora sobre la cual deba hacerlo.
Ahora bien ambas se enlazan una a la otra: la imperfección del hombre es la que, en compensación empuja a la auto comprensión que le dice como puede perfeccionarse. A su vez la interpretación que se da de sí mismo no queda precisamente desligada sino que debe engranarse a la vez con el todo del Cosmos y a la vez con la imagen rectora superior.
La auto interpretación del hombre es un principio de responsabilidad intrínseco y que le trasciende, a la vez. Esta responsabilidad debe ser siempre consciente. Por eso nunca se cerrarán las preguntas: ¿Quién soy y para que estoy en el Universo?.
Las respuestas pueden cambiar y llevarle ora tranquilidad, ora desasosiego. El esfuerzo de disciplinas para convergir en la búsqueda de las verdaderas respuestas se convierte entonces en una necesidad ética insoslayable porque aunque las respuestas cambien la inquietud permanecerá: ese es el destino ineluctable del hombre.
Con independencia de sesgos de escasa significación y breve duración, la búsqueda de conocimiento en Occidente se ha asentado a veces en lo filosófico, otras en lo científico y con alternancias en su significación intrínseca, sin embargo se puede distinguir ejes que guían la acción, para que el ser humano busque el conocimiento de lo cósmico por dos razones: la primera como una forma de enraizamiento de la existencia; la segunda como una necesidad de anclaje en la vida social y por ende en la historia, y en la escatología.
Esos procesos se afianzan - a su vez - en la filosofía o en la ciencia y en el esfuerzo de síntesis que plantea Theilhard en la conjunción de ambos, en torno a un eje que supere ambas aventuras del espíritu humano.
Hubert Reeves, ex - asesor científico de la NASA y actual Director de Investigaciones en el CNRS (Centre National de la Recherche Scientifique -Centro Nacional de Investigaciones Científicas de Francia), a propósito del concepto de “psiquismo” planteado por Theilhard, expresa que: “En vez de descender de los Dioses, somos el resultado de un largo ascenso...Este ascenso, hasta el origen del árbol genealógico nos revela nuestra inserción en el gran movimiento de organización de la materia universal y nuestro parentesco con todo lo que existe...Al mismo tiempo (ahora) comprendemos mejor como la organización y la complejidad pudieron emerger del caos primordial”.
Aunque el concepto de “psiquismo” de Theilhard ha sido interpretado y atacado por positivistas, científicos, filósofos y aún por religiosos de muy diversas maneras, es indudable que descansa su propuesta en una concepción de “Inminencia Divina” que Reeves ni siquiera considera pues como científico es agnóstico. Pero si es posible tomar en consideración el “paralelismo” del planteamiento de Theilhard (metafísico o “ultrafísico” como él se autodenominara), con las deducciones empíricas del físico de partículas , Reeves.
La razón es que la fenomenología del conocimiento la ha debido buscar el hombre, en lo personal apelando a diversas formas de acción cultural - según propias profesiones y en lo colectivo según sus posibilidades de desarrollo histórico y por ello hoy coexisten diversas formas de adquirir conocimiento.
Es útil penetrar en esa intimidad para explicarse la Naturaleza en su totalidad y lo que culturalmente el ser humano ha derivado porque todos los intentos por conocer la verdad en cualquier campo aportan al conocimiento del Cosmos y el conocimiento de éste, aclara la inserción humana en el planeta Tierra.
Un acercamiento a las formas de elaborar conocimiento permite concluir que hay básicamente dos maneras de acercarse a esas manifestaciones que son complementarias entre sí:
1) Histórica: La cual trata de investigar el origen, el desarrollo en el espacio y tiempo y sus relaciones con otras manifestaciones, y a la vez que describe características y delimita lo “real - fáctico” de lo “pensado - posible”.
2) Sistemática: La que se apoya sobre la anterior pero busca comprender las conexiones lógico-esenciales internas y externas de la realidad humana en su globalidad. Por lo tanto, tiende a buscar la coherencia y universalidad más englobantes, alejándose de lo casuístico y anecdótico.
No hay forma de “saltar” fuera de la historia, ya que ninguna época elimina pura y simplemente la anterior o desaparece en la que le sigue. “Venir después” no equivale sin más a “progreso” en su sentido evaluativo implicando des valoración absoluta de lo pasado como retrógrado o anticientífico. Así, sólo hay predominio de una u otra forma, en relación con las restantes y toda la virtualidad y eficiencia de los análisis y los proyectos buscan descubrir y/o establecer prioridades no - exclusivas.
En la actualidad se piensa que más que de “mundos”, “pensamientos”, o “ideas” se debe hablar de lenguajes en los cuales se “encarnan” y a través de los que se “transmiten” esas formas interpretativas del mundo.
El análisis por la vía del lenguaje, no prejuzga sobre grados de realidad o fantasía, pero facilita el análisis y en cosmogonía y cosmología es imprescindible para poder entender la ubicación témporo - espacial de creencias y mitos en su real dimensión, sin hacer extrapolaciones inadecuadas.
METODOS PARA INTERPRETAR LA REALIDAD
De los apuntes de las clases recibidas del filósofo y político venezolano Arístides Calvani se desprende que el hombre occidental en busca de la verdad ha utilizado - o sigue haciéndolo aún - cinco formas de conocimiento que para efectos explicativos se pueden diferenciar claramente aunque en la práctica se entremezclan entre sí, en grados diversos y en épocas diferentes. Estas formas de interpretar la “realidad” son, las siguientes:
Magia: Aunque es la más primitiva, perdura hasta hoy como “residuo” pre científico, refugio del contemporáneo sin poder y como “tentación” del que usa la ciencia o la teología o la política como formas de “poder absoluto”, tanto real como ideologizado.
Por medio de la magia, el hombre pretende dominar él mismo el mundo en virtud de una fuerza propia, que automáticamente dispone de tiempo y espacio, vida y muerte, en busca de lo positivo y para rechazar lo negativo o para usarlo en contra de otros. El poder mágico reside en todo y se transmite por la fuerza de la palabra, la escritura, el contacto.
En cuanto a su finalidad, la magia es “blanca” si la acción busca algo deseado o permitido, o “negra” si pretende originar daños a otras personas y se desarrolla como “técnicas rituales con cosas” que deben influir a las divinidades. Como fuente de conocimiento se da en tres ámbitos:
a) Sicológicamente permanece en el campo de lo “misterioso” concebido irracionalmente y no conlleva auténtica comunicación ni participación concebidas personalmente.
b) Sociológicamente se extiende (sobretodo en la época actual, cuando aumenta la inseguridad y el futuro no es claro)
c) Políticamente se afianza cuando se espera solución a males sociales y el “remedio” a las necesidades como “caídas del cielo” o bien suministradas por el Estado.
Mito: Este muestra gran vigencia hasta más o menos el siglo IV a.C. Sin embargo, por influencia de la “antropología ilustrada” y su programa de “desmitificación” queda asimilado a ser una manifestación “primitivo - irracional” pero recientemente se ha secularizado especialmente en política y renueva su vigencia. Antiguamente - y a partir de su etimología que significa “palabra definitiva” acerca del origen del todo el mito se afirmaba sin necesidad de prueba, por vía de la autoridad de la tradición mediante el relato (no escrito) de acciones de dioses, demonios, ángeles y otros seres sobrenaturales.
Actualmente, el mito se presenta como un relato tradicional sobre acontecimientos ocurridos en el origen de los tiempos, destinado a fundamentar la acción ritual de los hombres para instituir todas las formas de acción y pensamiento por las cuales el hombre comprende su inserción y su papel en el mundo y a sí mismo. Los mitos más importantes suelen darse, por ejemplo, en estos ámbitos: la explicación del origen de los dioses (Teogonía); la explicación del surgimiento del mundo y sus condiciones (Cosmogonía); la explicación de la creación de la naturaleza animada y/o inanimada (Antropogonía). ; o el fin del mundo (catástrofes apocalípticas o “profesías” escatológicas). Los mitos, pese a la irracionalidad en que se fundan, conservan, sin embargo, su función simbólica (exploratoria y comprensiva), porque quedan arraigados en el subconsciente colectivo.
Históricamente, todo pensamiento racional y/o religioso ha encontrado en el lenguaje mítico su origen y condición porque no hay nada que nazca sin presupuesto; de allí que la razón y la creencia auténticas deben emanciparse constantemente del mito - del cual sin embargo - paradójicamente se nutren. El mito se suele debatir entre una innegable relación dialéctica de “pertenencia histórica” y una necesidad de “distanciamiento crítico” en una misma historia de dominación y emancipación, que se autoinfluencian. Modernamente el mito ha resucitado en las obras de ciencia - ficción, género literario que mezcla intención, ciencia, sentimientos psicológicos y esperanza en un futuro.
Filosofía: Esta forma de conocimiento se origina hacia el siglo VI a.C. en Grecia luego recorre los siglos con épocas de esplendor. La filosofía conoce “crisis” de identidad cuando las diferentes filosofías pugnan por competir entre sí o de “pertinencia” al comparar su significado como método de conocimiento frente a la teología en el Medioevo, a las ciencias físicas en la Edad Moderna y las humanas en los siglos XIX y XX.
Preocupada preferentemente al inicio (Grecia) por la razón última y las características de la realidad en general (Ontología y Metafísica) y del mundo físico y sus variaciones (Cosmología) sufre una mutación profunda en el Medioevo Cristiano, debiendo pensar las relaciones Dios - Hombre (Teología y Antropología Cristiana). En los albores de la Edad Moderna se amplía su referencia al pasado (Renacimiento) y luego el Hombre se define como sujeto consciente (Descartes) y por lo tanto responsable de su mundo por el conocimiento (originando el nacimiento de la ciencia moderna como “dominación de la materia”) y por la actividad (estableciendo el comercio y la industria).
En el siglo XIX conoce una doble transformación decisiva por la progresiva autonomía y constitución de las ciencias humanas: a) En la primera, el hombre se ve como centro de la realidad y por el impacto de la concepción filosófica de Marx de la “praxis” como matriz de la filosofía se orienta hacia líneas de trabajo: la primera busca una representación sistemática en la realidad, esto es una “cosmovisión”, una herencia hegeliana y marxista; otra la filosofía católica heredada del Tomismo (simbolizada por el Socialcristianismo) y una tercera basada en la sistematización de la libertad preconizada por un liberalismo pragmático; b) La segunda es una filosofía exclusivamente del lenguaje donde sólo la ciencia da una imagen de la realidad (lógica simbólica: filosofía del lenguaje ordinario en la tradición anglo - sajona); c) La tercera es profundizando la variedad de expresiones de la subjetividad tomada como una actividad central (fenomenología, hermenéuticas, existencialismo); d) La cuarta emerge como opuesta al humanismo y subjetivismo como “últimas ilusiones metafísicas”: el estructuralismo francés: Levi - Strauss, Althusser, Foucault, Lacan, que son las que dominan el panorama actual; y por ahora, luchando por ser tomados en consideración surgen los “naturalistas del descontructivismo”, liderados por Derrida y sus muchos discípulos que buscan rehacer el quehacer humano, sin sujetarse a nada .
Ciencia: Tal como se conoce hoy día, la ciencia adquiere un primer gran desarrollo hacia el siglo XVI en el ámbito de las ciencias físicas y naturales como una progresiva emancipación de la filosofía. El desarrollo de las “ciencias humanas” (historia, sociología, etnología, lingüística, sicología, antropología, política, comunicación) en los siglos XIX y XX se afecta siguiendo el mismo patrón pero debiendo reivindicar su estatuto científico por la semejanza o la diferencia con el modelo imperante en las ciencias físicas y naturales. Las contiendas metodológicas y la relación de las ciencias con la filosofía y demás formas de conocimiento (ideologías y utopías) constituye un gran debate cultural que aunque se ha enfriado debido al retiro de la filosofía de la contienda, permanece.
a) La ciencia se constituye a partir del conocimiento de la experiencia, pero no se contenta con descripciones sino que busca elaborar un saber sintético y explicativo. La búsqueda de causas y la posibilidad de prever pueden pretender tener valor universal por el desarrollo de métodos de verificación bastante precisos, capaces de generar un acuerdo entre investigadores.
b) El instrumento central de la ciencia y el eje de su metodología es la elaboración de un lenguaje teórico apropiado, el cual es esencialmente de naturaleza lógica y sirviéndose en gran medida de las matemáticas En general lo que la teoría dice en forma abstracta, debe ser realizado concretamente y en ella intervienen los modelos que son “intermediarios” entre la teoría y la realidad, pues facilitan la imaginación.
c) Toda ciencia es una actividad humana. Como tal, ella viene de alguna parte: el mundo del hombre (historia, valores, normas, instituciones, clase, carácter, educación y se dirige a alguna parte para buscar la transformación de ese mismo mundo por el conocimiento y la acción, lo cual pone en juego fines y objetivos tanto como medios e intereses, dando como consecuencia que no exista ciencia “neutra”, aunque el momento teórico si tiene su “relativa autonomía”.
Arte: Aunque en Occidente el arte no se conceptúa normalmente como una forma de conocimiento sino que se le clasifica como un entretenimiento , el filósofo Benedetto Croce la incluye como un método de mayor libertad para acercarce a otras formas de descifrar lo desconocido. Esta aproximación la reafirma el criterio del historiador del arte, el británico Ernst Gormbrich, para quien: “ lo que el arte delinea siempre son verdades absolutas porque lo hermoso y lo feo, por ejemplo, son conceptos absolutos y universales. Las imágenes que recrea el arte son modos de conocimiento de realidades conocidas y reproducidas por medio de otros cánones, que se asemejan a la llamada “intuición fulgurante”, cuya descripción es útil a estas alturas del siglo porque en occidente o se le conoce pobremente o se la práctica por esnobismo”.
CONOCIMIENTO Y VERDAD
Sacamos como conclusión de las distintas formas de llegar al conocimiento, que La “no - neutralidad” o presencia de valores no quiere decir subjetivismo o falta de objetividad, sino reconocimiento de la presencia de intereses, valores y fines. Y estos son los que hay que precisar pues si bien no tienen por qué ser excluyentes tampoco son equivalentes y en todo caso hay que estar conscientes de su presencia.
Esto implica que el conocimiento no se puede plantear en forma disyuntiva: a) dejarle el “explicar” a la “ciencia” o b) el dejarle “comprender” a la filosofía, la ideología, la utopía o la religión.
Hay una relación mutua que nace del hecho intrínseco que el científico es un hombre no “in abstracto”, sino un “hombre situado” en relación con sus semejantes, en un país con intereses determinados y en una causa que se constituye en su propio fin, lo cual propicia la ideologización del quehacer científico (lo que no implica necesariamente -salvo en casos extremos- su “politización”, como ocurrió en el pasado con suma frecuencia, o como se repite -más recientemente- en el caso de la “oficialización” del conocimiento en la extinta U.R.S.S. que hasta 1989 , cuando se abole la enseñanza obligatoria del marxismo-leninismo y se desarticula su altar en la Universidad de Lomosov , era obligada referencia ,sin importar la carencia de articulación entre el conocimiento y la ideología.
Ahora bien, la inmensa mayoría de las convicciones o certidumbres que el hombre posee, sea cualquiera su seguridad, afectan a un contenido parcial de la vida en la que son distinguibles estas circunstancias:
Por su propia parcialidad, funcionan como elementos de su circunstancia, que requieren a su vez ser interpretados desde una certidumbre superior. Esto remite a la exigencia de una certidumbre radical, es decir, en la cual encuentre su raíz toda otra certidumbre; este carácter confiere a esa certidumbre postulada cierta universalidad, no en el sentido de que abarque o comprenda las demás, sino en el que todas se ordenen y articulen en función de ella.
Estos requisitos excluyen el que la ciencia, aun supuesta su verdad y la validez de su jurisdicción interna, pueda desempeñar la función de esa certeza radical. Las ciencias están definidas por su parcialidad y por su carácter positivo; es decir, por su acotamiento de una zona de la realidad, por ejemplo: el mundo físico, el de los objetos matemáticos, el de los seres vivos, el de la realidad psíquica, respecto a la cual pretenden lograr un conocimiento que se funda formalmente en supuestos o principios ajenos como tales a la ciencia misma, y de los cuales esta no puede ni necesita dar razón.
Aunque las ciencias sean suficientes para sí mismas, y no pueden ser sustituidas por ningún otro tipo de saber, no son suficientes como conocimiento al hombre actual. Incluso la religión, que en su sentido muy concreto es una certidumbre radical, carece de vigencia social suficiente en el mundo. Aún las personas para quienes la religión tiene plena validez personal, en la medida en que están condicionados por su circunstancia histórica necesitan poner de acuerdo esa vigencia personal con el tiempo cosmológico para insertar su fe en el Eje Cósmico que propone Theilhard (aunque esa es una opción personalísima y libre).
La vida humana requiere, para ser vivida, la posesión de una certeza radical y decisiva; radical, porque en ella han de radicar las verdades parciales; decisiva, porque solo ella podrá decidir la discordia entre unas y otras y construir con ellas una perspectiva justa y clara. Nuestro tiempo no posee una certeza, en el sentido concretísimo de que ninguna creencia vigente cumple esos requisitos; de ahí la hondura de la crisis que afecta a nuestra situación. Para poder vivir, el hombre actual necesita, pues, una verdad radical.
¿Podrá hallarla? No es probable que la mayoría de los hombres sean capaces de descubrirla por sí mismos; pero no es menester: Podrán recibirla como vivencia, cuando sea descubierta justificada y evidenciada por algunos. Pero ¿dónde encontrarla? ¿en la ciencia, o en la filosofía, o en la religión, o bien en el arte (que a juicio de Benedetto Croce es otra forma de conocimiento más libre) ?. La opción es personal, obviamente pero por ello es sugerente la propuesta de Theilhard.
OBJETIVIDAD CIENTÍFICA
Según el criterio de los especialistas en lógica de las ciencias, para hacer ciencia objetiva se requiere la configuración de varios elementos:
1) El conocimiento científico, que es distinto del conocimiento vulgar o empírico, el que se encuentra sólo por la experiencia sensible, al azar de los acontecimientos de cada día y se limita, casi siempre, a comprobar fenómenos particulares. El conocimiento científico es explicativo muestra el orden determinado en que se encadenan los hechos, buscando alcanzar un grado de generalidad y de unidad cada vez más elevado; clasifica y define tipos generales, enuncia leyes, relaciones constantes entre los elementos simples y abstractos e intenta unificar esas mismas leyes con ayuda de principios y de teorías para llegar al conocimiento objetivo, es decir, impersonal y universal.
2) El espíritu científico, elemento esencial de la ciencia que es, ante todo, espíritu de libre examen, espíritu crítico. Su regla fundamental es no admitir como verdadero nada que no se conozca evidentemente como tal por lo que es evidente que la “no sumisión a la autoridad” (como decía Claude Bernard) es, pues, la norma fundamental del método. Las únicas autoridades válidas para el hombre de ciencia son la razón y la experiencia.
3) Es necesario hacer buen uso de la libertad, de la independencia intelectual. La experiencia es de difícil interpretación, pues muchas veces hay inclinación a admitir como evidente la primera idea que se presenta al espíritu, o a tomar por evidencia lo que no es sino resultado de la familiaridad con ciertos hechos o ideas y aún el amor propio por mantenerlas sin haber.
4) Además de la independencia, que constituye la base de todo espíritu científico, el hombre de ciencia debe poseer el respeto a la verdad científica, tener el criterio de que los hechos no pueden explicarse mediante voluntades sobrenaturales o cualidades ocultas, así como tampoco por cerrar las puertas a toda manifestación que parezca venida del “espíritu”, para refugiarse en la comodidad engañosa del materialismo.
5) La fiel observancia a la objetividad es a su vez “el fiel de la balanza” lo que implica en el hombre de ciencia, ciertas cualidades morales, tales como la probidad intelectual, la sinceridad, el valor.
USO DE LA LOGICA
Mientras en Occidente no cambien las reglas del juego que son parte de una herencia cultural, unilineal, para explorar otros cánones, para llegar a una verdad, el científico debe recurrir a la Lógica que es en sí una ciencia de orden normativo. Los teoremas y las leyes científicas deben ser demostrados y comprobados por medio de métodos rigurosos, cuyo empleo explica el desenvolvimiento prodigioso de las ciencias desde el siglo XVI. Importa, pues, conocer esos métodos, buscar cuáles son las condiciones de la verdad, cómo las operaciones de la inteligencia deben realizarse para llegar a conocimientos verdaderos.
Durante mucho tiempo se creyó que la inteligencia, observando sus propias actividades, sus propias exigencias, era capaz de determinar, por sí misma, las reglas que la ciencias debían seguir. De ahí una concepción tradicional que se remonta a Aristóteles en que una lógica “puramente formal” dejaba de lado la materia, contenido de los juicios y de los raciocinios, para no considerar más que su forma, es decir, la manera como una idea se une a otra idea.
De hecho, las ciencias se han constituido con ayuda de métodos ajenos, y a veces hostiles, a la lógica tradicional, métodos descubiertos y aplicados espontáneamente por matemáticos, astrónomos, físicos que los han ido perfeccionando poco a poco. Dado que la lógica requiere poner en marcha un proceso reflexivo éste se da, a su vez en dos formas: por la intuición y el razonamiento.
INTUICIÓN
La intuición, mediante la cual se puede conocer un objeto, ya de una sola vez, ya indirectamente, después de una serie de procesos del pensamiento, es una visión directa, inmediata, por medio de la cual, según dice Pascal “se conoce la cosa por una sola mirada” es la intuición (del Latin intuire: ver). La intuición, por su parte, se da en cuatro formas:
a) La intuición psicológica, que es el conocimiento inmediato de ciertos hechos psíquicos tengo conciencia de una emoción, de un sentimiento.
b) La intuición sensible, que es el punto de partida de los razonamientos construidos por los físicos, los biólogos y hasta por los matemáticos, sobre el mundo material.
c) La intuición de evidencia, a base de la cual trabajan principalmente los matemáticos.
d) La intuición inventiva, que es una especie de súbita iluminación fulgurante , mediante la cual el espíritu adivina o descubre el camino que debe seguirse en la resolución de un problema, una impresión o un esfuerzo mental conectado o desconectado del tema.
RAZONAMIENTO
El razonamiento es un conocimiento discursivo (del latín discurrere, correr de acá a allá); es una progresiva concatenación de juicios para arribar a una conclusión. En el caso del razonamiento se conocen tres formas de producirse:
a) Por analogía, que consiste en pasar de unas analogías comprobadas a otras no comprobadas;
b) por inducción, que consiste en pasar de los hechos observados a la ley;
c) Por deducción que consiste en pasar de la ley a las consecuencias.
El proceso de razonamiento, a su vez puede seguir dos vías: la del análisis o la de la síntesis así:
a) El análisis es el proceso del espíritu mediante el cual se descompone un todo en sus elementos; mientras
b) la síntesis consiste en reponer un todo partiendo de sus elementos (no ya en remontarse a los principios, sino en descender a las consecuencias, más o menos complejas).
VERDAD ASTRONÓMICA
La astronomía es fundamentalmente una ciencia de observación y de experimentación y todavía más recientemente de simulación con el uso de ordenadores electrónicos. Por su parte, la ciencia física, que constituye la rama madre que cobija a la astronomía y sus especializaciones - entre ellas la Cosmología - exige seguir estas reglas de juego, según plantean los propios astrónomos:
1.- Observar correctamente es saber discernir lo que es fundamental y lo que es accesorio, o hasta lo que es sin relación con el hecho observado.
Pero en la observación, en la que estas variaciones son naturales, es con frecuencia ardua labor la de distinguir claramente lo que es importante de lo que no lo es verdaderamente. Cuando eso ocurre (y siempre que sea posible), se apela a la experimentación.
Si es cierto que nuestros los deben ser nuestros primeros medios de información, también es verdad que por sí solos son insuficientes, y por ello se interpreta por el razonamiento aquello que se observa. Existen, por tanto, al margen de los hechos observados, que son siempre verdaderos, interpretaciones que pueden variar merced a los progresos de la ciencia.
2.- Estas interpretaciones tratan de inquirir, ante todo, las causas de los fenómenos, y conducen a agrupar los hechos que pueden ser atribuidos a una causa común. En el más frecuente de los casos esta causa permanece algún tiempo desconocida y se hace preciso reemplazar su conocimiento por una hipótesis.
La explicación de varios hechos por una misma hipótesis permite reemplazar los hechos dispersos por una teoría. Gracias a esta teoría, es posible, por medio del razonamiento y del cálculo, deducir consecuencias que se expresan en hechos del mismo orden.
3.- Si estos hechos se manifiestan conformes a la experiencia, verifican la teoría a posteriori, justifican su empleo y legitiman las hipótesis sobre las cuales la teoría se funda.
Cuando una teoría permite interpretar todo lo observado, se considerada como válida; pero si sobreviene un hecho nuevo que la teoría no puede explicar, es necesario reemplazarla o modificar las hipótesis sobre las cuales descansa.
Entre las teorías hay algunas de tal importancia, por el conjunto de los hechos que coordinan, por los descubrimientos que han suscitado, que toman puesto definitivamente en la exposición clásica de las ciencias físicas y adquieren la categoría de verdades científicas .
4.- Algunas hipótesis, cuyo enunciado es muy general y muy sencillo, nunca desmentidas por la observación corriente o por la experiencia, son de importancia capital. No pueden comprobarse experimentalmente más que en algunos casos particulares.
Estas hipótesis, emitidas por generalización de hechos comprobados, aunque sea groseramente, pero de las que se postula la absoluta generalidad, la validez en todas las circunstancias, adquieren la categoría de Principios.
Una vez admitido un Principio, la estricta obediencia lógica permite deducir de él ciertas consecuencias. De este modo aparecen las verdades contenidas en el principio de que se trata y de las cuales se procura obtener la significación explícita. Estas verdades son los Teoremas, y sólo un abuso de lenguaje hace que a menudo sean bautizadas con el nombre de Principios.
5.- Al vocablo Principio se opone hasta cierto punto el de Ley. La ley física es la expresión de una verdad científica; expresada por una relación cuantitativa de las conexiones que la naturaleza impone a los valores numéricos de los parámetros que rigen la realización de un fenómeno. La ley es, pues, de origen estrictamente experimental, diferenciándose en esto del Principio, y se aplica en un dominio restringido.
Las leyes se establecen por la experiencia. Su validez es comprobada por ella. Los resultados experimentales, por su propia naturaleza, adolecen de una incertidumbre cuyo límite superior es posible apreciar.
Extrapolando los datos de la experiencia se enuncia la ley que expresa los resultados de las medidas, si estos resultados difieren del que proclama el enunciado de cantidades más pequeñas que el error posible.
6.- La expresión de una ley no puede ser definitiva. Es posible que ocurra que nuevas medidas, más precisas, hagan aparecer diferencias sistemáticas y ciertas entre los resultados experimentales y la expresión del enunciado.
A medida que la ciencia progresa, el número de las hipótesis sobre las cuales descansan las teorías va reduciéndose. Algunas de ellas, tales como la hipótesis atómica, se hacen accesibles a la experiencia, que las verifica. Otras se ven condensadas en una hipótesis única de alcance más general; así ocurre con la atracción universal, que explica a la vez la gravedad y el movimiento de los planetas.
7.- Una teoría es tanto más perfecta cuanto mayor número de hechos explica por medio del menor número de hipótesis. En este respecto, la física moderna ha hecho progresos considerables (Mientras que en otro tiempo los fenómenos de calor, luz y electricidad eran atribuidos a otros tantos agentes, dotados de acciones que les eran exclusivamente propias, han podido dárseles después una interpretación común, gracias al conocimiento de la estructura del átomo).
Una vez establecidas las teorías, deben intervenir las matemáticas. Descartes pedía para todas las ciencias un método análogo al de las matemáticas, a fin de llegar a una certeza universal. Pero toda ciencia, incluso las matemáticas, está obligada a pasar, ante todo, por una fase experimental, y la aplicación del método matemático, en sus diversos grados, no es posible sino cuando la ciencia ha alcanzado un grado suficiente de análisis y de abstracción.
8.- Las matemáticas pueden aplicarse a las ciencias de la naturaleza (ciencias fisicoquímicas) merced a la noción de función: todos los fenómenos se consideran como variables entre las cuales existen relaciones tales, que a todo valor de una, corresponde un valor determinado de otra.
Los fenómenos naturales son función unos de otros, y la forma precisa mediante la cual el hombre de ciencia tiende a expresar toda ley física es la fórmula matemática que puede además representarse gráficamente con diversas modalidades.
9.- La expresión en forma matemática permite aplicaciones adaptadas y rápidas. Por otra parte, satisface al espíritu, dándole, ante todo, precisión absoluta, y permitiéndole, además, sistematizar las leyes de tal manera que puedan organizarse conjuntamente en un amplio sistema deductivo. (Es además, fuente de descubrimientos, ya porque el estudio de la función expresada por la ley permita revelar fenómenos todavía no observados, ya porque la simple analogía de las fórmulas conduzca a semejanzas sugestivas).
10.- A causa de su carácter abstracto, se tiende a creer que las matemáticas pueden resolver cualquier problema práctico. En primer lugar se olvida que las matemáticas tienen una base experimental, y luego que muchos problemas se resuelven muy fácilmente de una manera empírica, mientras que se necesitarían cálculos complicados para darles una solución matemática.
Las matemáticas no crean hechos nuevos, pero constituyen un lenguaje cómodo que permite enunciar las leyes con precisión, por medio de funciones, de traducir los datos de los problemas por ecuaciones, cuya solución de fórmulas que, interpretadas en el caso particular al cual se aplican, suministran las soluciones del problema, y finalmente la posibilidad de comprobar las hipótesis, de provocar otras nuevas y de sugerir observaciones, experiencias o simulaciones, según sea lo aplicable.
CONTORNOS DE LA VERDAD COSMOLOGICA
La cosmología moderna utiliza fundamental y preferentemente el conocimiento científico de la manera en que se ha explicado, pero no están exentos los cosmólogos de imprimir en sus aproximaciones, en sus interpretaciones y en sus conclusiones otras formas de conocimiento.
Estas otras formas de conocimiento que bañan la cultura en cada época y por lo tanto se imbrican en el trabajo de los cosmólogos son: la filosofía, la metafísica y en menor grado la teología, que influyen en el concepto de verdad, que matiza el pensamiento y el quehacer de los científicos. Igualmente se imbrican en el trabajo de elaboración cosmológica la ideología, las preferencias, el sentimiento, los prejuicios, las “verdades” apriorísticas, las fobias, los personalismos y otras características propias - consustanciales - al ser humano que al matizar la objetividad la perjudican.
Un breve examen a estas formas de conocimiento - sobre todo en lo que se relaciona criterios subjetivos y el concepto de verdad en que se muevan los científicos con el problema acerca del eventual “inicio” (si es que en verdad hubo alguno, o muchos o ninguno) es de gran utilidad.
A modo de ejemplo, ya en 1978 el filósofo y especialista en ética, el español Julián Marías, distinguía cuatro casos de relación del ser humano - y extrapolándolo se incluye al cosmólogo - con la verdad.
En primer lugar señala que como lo humano admite grados y pluralidad de estratos y dimensiones que se modifican con el tiempo no es posible establecer reglas fijas que relacionen al hombre con la verdad; pero gracias a una generalización de carácter moralista - objetivo es posible pensar que tal relación se da de la siguiente manera:
1) Vivir en el ámbito de la verdad: Esto acontece siempre que un individuo o una época vive apoyándose en un repertorio de verdaderas creencias, en las cuales está auténticamente encarnada su existencia. Ese repertorio puede ser angosto o amplísimo, tosco o preciso; en todo caso, el hombre descansa sobre ese supuesto, del cual es realmente solidario, y vive en rigurosa autenticidad.
2) Vivir en el horizonte de la verdad: Vivir con pretensión de verdad, buscándola en la medida en que no se la tiene o resulta deficiente. Naturalmente, la verdad que se pretende y busca será de otra índole que la anterior; no una verdad en que “se está” o creencia en sentido estricto, sino una verdad a que “se llega” . Una verdad en cuyo funcionamiento dentro de la vida va implicada la justificación, por uno u otro mecanismo. Este modo de vivir, cuyo motor es la evidencia, viene definido inicialmente por una pobreza de verdad, y no asegura la posesión de ella, sino su exigencia.
3) Vivir al margen de la verdad: Esta es una situación que es mucho más frecuente, porque son mayoría las épocas en que el sistema de creencias está, por lo menos, agrietado y trunco, y son muy pocos los individuos capaces de la violenta distensión requerida por la indagación de la verdad - esta posibilidad no tiene nunca carácter social, y ésta es una de sus peculiaridades - ; vivir al margen de la verdad; es decir, sobre un repertorio de creencias más o menos coherentes, de las cuales el hombre no se siente últimamente solidario, sino que recibe del contorno y acepta sin crítica, y que completa con ciertas “ideas” respecto a las cuales no tiene tampoco evidencias y que usa sin exigirles efectiva justificación. Podríamos llamar también a esta forma de vida - que es la de la inmensa mayoría de los hombres, incluso de los intelectuales de profesión - la vida en la verosimilidad; y, por supuesto, su raíz última es la frivolidad, que consiste en aparentar “saber a qué atenerse.”
4) Vivir contra la verdad: Esta es una situación extremadamente anormal y paradójica, pero por diversas distorsiones históricas y sociales ha dominado en buena parte este siglo. La ideologización facilita el engaño y la politización lo oficializa; en consecuencia, se afirma y quiere la falsedad a sabiendas, se la acepta tácticamente, y se admite el diálogo con ella.
En torno al tema el filósofo es tajante porque afirma: “Hay en el mundo actual múltiples temas - que están en la mente de todos y no es menester enunciar...” ¿Por qué esta voluntaria adscripción a la mentira en cuanto tal? La razón no es demasiado oculta: en el fondo, se trata simplemente del miedo a la verdad.
CEREBRO Y VERDAD
El miedo a la verdad ,ha acompañado a la humanidad con gran fidelidad y es un sentimiento y como tal subjetivo; pero también puede valorarse científicamente -es decir objetivarlo para entenderlo y encauzarlo- y al respecto el neurólogo portugués Antonio Damasio ,quien investiga y enseña sobre cognotivismo y redes neuronales ,hace algunos planteamientos que aclaran y descubren a la vez el cuadro que nos presenta el filósofo Marías:
1.- La idea de que el bastión de la lógica no debe ser invadido por las emociones y el sentimiento está firmemente establecida (se la encuentra tanto en Platón como en Kant); pero tal vez no hubiese sobrevivido nunca de no haber sido expresada tan vigorosamente como lo fue por Descartes, que separó de las emociones a la razón y apartó a ésta de sus cimientos biológicos reales. Por supuesto que la escisión cartesiana no es la causa de las patologías que hoy padece la razón, pero sí que puede achacarse a aquella lo mucho que el mundo moderno ha tardado en reconocer su raigambre emocional.
2.- Cuando se concibe a la razón como carente de ascendencia biológica, es bastante fácil pasar por alto el papel que en su funcionamiento desempeñan las emociones; no advertir que nuestras decisiones presuntamente racionales acaso sean manejadas por la emoción que se desea mantener a raya; e ignorar el efecto positivo que las emociones bien armonizadas pueden producir en la búsqueda del conocimiento.
En apoyo de esos planteamientos, que ya habían sido sintetizados por Einstein en la fase que relaciona ciencia (razón) con religión (emoción) Damasio plantea como tesis que no es probable que la razón comience a existir con el pensamiento y el lenguaje en un denso ambiente congnitivo, sino más bien que se origine de la evolución biológica de un organismo viviente empeñado en sobrevivir, porque el núcleo cerebral del ser humano es un refinadísimo aparato que capacita para tomar las decisiones relacionadas con el mantenimiento de los procesos vitales( que incluyen la regulación del medio interno y los impulsos, instintos y sensaciones). De allí que la racionalidad depende de la enérgica pasión por la razón que anima a tal aparato.
La racionalidad necesaria para que los humanos superen esos retos y perduren ha de estar imbuida de los sentimientos y emociones que brotan de lo más profundo de nuestro ser, porque la emoción es un factor integrante de todo proceso discursivo -y si así fuese- de lo que adolece hoy la humanidad no es de falta de competencia lógica, sino más bien “de una falta de emociones que informen el despliegue de la lógica.”
Como comprobación de ese aserto, Damasio señala que las "pruebas empíricas" pueden obtenerse estudiando a personas que, habiendo actuado antes racionalmente, por sufrir lesiones neurológicas en determinados sistemas del cerebro pierden la capacidad de tomar decisiones racionales y, junto con ella, la de “procesar normalmente” las emociones, porque sus instrumentos de racionalidad aún pueden recuperarse; el conocimiento del mundo en el que han de obrar sigue siendo asequible, y su capacidad para abordar la lógica de un problema permanece intactas. Sin embargo, muchas de sus decisiones personales y sociales son irracionales, por qué ocurre que el delicado mecanismo del razonamiento no es afectado ya por los influjos emocionales.
Esto ocurre por el deterioro de áreas muy precisas de las regiones cerebrales frontal, temporal y parietal derecha; aunque hay otras condiciones cuya causa neurológica todavía no ha sido identificada pero presentan características similares en muchos aspectos.
La falta de emoción es por lo menos tan perniciosa para la racionalidad como el exceso de emoción. Ciertamente no parece que la razón salga gananciosa al actuar sin el influjo de la emoción. Al contrario, es probable que ésta nos ayude a razonar bien, sobre todo en los asuntos personales y en los sociales, orientándonos a veces hacia el sector más ventajoso para nosotros dentro del campo de las decisiones posibles, pero no se requiere que las emociones sustituyan a la razón o que decidan por nosotros.
Tampoco debe negarse que la emoción excesiva pueda "generar irracionalidad"; Lo único es que nuevos datos neurológicos parecen indicar que la "absoluta carencia de emociones es un problema aún más grave", que lo primero muy probablemente, la emoción constituye el sistema de soporte sin el que el edificio de la razón no puede funcionar bien”. Es curioso comprobar que Pascal, en el mismo siglo XVII en que se introdujo el dualismo cartesiano, vislumbró ya esta idea cuando dijo: “Sobre esta sabiduría del corazón y de los instintos debe basarse la razón misma y echar los fundamentos de todo su discurso”. Nosotros estamos empezando a descubrir los pertinentes datos neurobiológicos que, a no mucho tardar, confirmarán la profunda visión pascaliana”.
Pero si efectivamente la emoción -subjetiva- y la razón -objetiva- se deben entrelazar para darnos la verdad, estamos enfrentados a un problema más profundo que el de la simple objetividad dada la necesidad de bucear la verdad en la complejidad del pensamiento post-moderno.
PENSAMIENTO POST-MODERNO
En la presentación de la obra “La Tercera Cultura”, que data de 1996, su editor el norteamericano John Brockman aborda justamente el problema de cómo el pensamiento sobre temas profundos: cosmología, evolución, cerebro, conciencia y expresa que en los últimos años se ha producido en la escena intelectual norteamericana (que está a la vanguardia planetaria) un relevo que está dejando al intelectual tradicional cada vez más al margen, porque estos, con una educación al estilo de los años cincuenta, (basada en Freud, Marx y el modernismo) no tienen un bagaje suficiente para un pensador de los noventa. Su concepción acerca de cómo deben enfrentar los intelectuales el reto de replantearse el Universo y el papel del ser humano es ácida y directa cuando señala:
1)Los intelectuales norteamericanos tradicionales son, hasta cierto punto, cada vez más reaccionarios, y con harta frecuencia arrogantemente (y tercamente) ignorantes de muchos de los logros intelectuales verdaderamente significativos de nuestro tiempo. Su cultura, que rechaza la ciencia, carece muchas veces de base empírica. Emplea una jerga propia y lava sus trapos sucios en casa. Se caracteriza principalmente por comentarios de comentarios, en una espiral que se agranda hasta que se pierde de vista el mundo real.
2) En 1959, C.P. Snow había publicado un libro titulado The Two Cultures (Las dos culturas). Para Snow de un lado estaban los intelectuales de letras; de otro los de ciencias y, advirtió -con incredulidad- que en la década de los treinta los primeros se había apropiado del término “intelectual”, como si nadie más mereciese tal calificativo. Esta nueva definición circunscrita al “hombre de letras” excluía científicos como el astrónomo Edwin Hubble, el matemático John Von Neumann, el cibernético Norbert Wiener y los físicos Albert Einstein, Niels Bohr y Werner Heisenberg.
3) Para entender esta extraña situación hay que tener en cuenta que los científicos no supieron defender la trascendencia de su trabajo. En segundo lugar, aunque muchos científicos eminentes, entre los que destacaban Arthur Eddington y James Jeans, también escribieron libros para el gran público, sus obras fueron ignoradas por los "autoproclamados intelectuales", y el valor e importancia de las ideas presentadas permanecieron invisibles como actividad intelectual porque la ciencia no gozaba del favor de los periódicos y revistas dominantes.
4) En una segunda edición de su obra en 1963, Snow añadió un nuevo ensayo, “Las dos culturas: una segunda mirada”, en el que de manera optimista sugería que una nueva cultura, una “tercera cultura”, emergería y llenaría el vacío de comunicación entre los intelectuales de letras y los científicos. En aquella tercera cultura los intelectuales de letras se entenderían con los de ciencias; pero la profecía de Snow no se cumplió: los intelectuales de letras siguen sin comunicarse con los científicos, y son estos últimos quienes están comunicándose directamente con el gran público. Así, si bien los medios intelectuales tradicionales practicaban un juego vertical: los periodistas escribían de abajo arriba y los profesores de arriba abajo, lo cierto es que hoy, los pensadores de la “tercera cultura”, tienden ahora a prescindir de intermediarios y procuran expresar sus reflexiones más profundas de una manera accesible para el público lector inteligente.
5.- Pero en el concepto de “tercera cultura” que ha emergido resulta que -precisamente- no hay canon o lista oficial de ideas aceptables. La fuerza de la tercera cultura estriba precisamente en que admite desacuerdos acerca de las ideas que merecen tomarse en serio. A diferencia de los intereses intelectuales previos, las realizaciones de la tercera cultura no son disputas marginales sino que afectarán a las vidas de todos los habitantes del Planeta, porque irremediablemente el quehacer del intelectual incluye la comunicación. Los intelectuales no son solo gente que sabe, sino gente que modela el pensamiento de su generación. Un intelectual es un “sintetizador, un publicista, un comunicador”.
6.- Las ideas emergentes de la tercera cultura son especulativas, y representan las fronteras del conocimiento en áreas como la biología evolutiva, la genética, la informática, la neurofisiología, la psicología y la física. Algunas de las cuestiones fundamentales planteadas son: ¿De dónde surgió el Universo? ¿De dónde surgió la vida? ¿De dónde surgió la mente? La emergencia de la tercera cultura es una nueva filosofía natural, fundada en la comprensión de la importancia de la complejidad, de la evolución. Los sistemas de gran complejidad -sean organismos, cerebros, la biosfera o el universo mismo- no han sido resultado de ningún proyecto, sino de la evolución. Hay un nuevo conjunto de metáforas para describirnos a nosotros mismos, nuestras mentes, el universo y todas las cosas que sabemos de él, y son los intelectuales que han concebido estas nuevas ideas e imágenes -científicos que hacen cosas y escriben sus propios libros- los que dirigen el curso de los tiempos.
Si bien Brockman incluye en su obra exclusivamente a científicos norteamericanos -que afirma- son quienes marcan la pauta en el mundo científico, a continuación se incluye una selección de las principales ideas provenientes de algunos de los nuevos pensadores en la línea de la tercera cultura, que, independientemente de su nacionalidad, aportan la riqueza de sus planteamientos en los temas fundamentales que hemos venido examinando.
Las ideas están tomadas, directamente, de las descripciones formuladas por esos autores acerca de sus labores de investigación; ya que interesa en esta parte de la obra, asomarnos brevemente a las ideas que moldearán el futuro cercano, para escudriñar, con nuevos elementos de juicio cómo da inicio todo lo que contiene el Universo.
Se advierte que el hecho de que muchos de los conceptos e ideas esbozados aquí no son de uso corriente ,lo van a ser conforme nos adentremos en el siglo.
PLÉCTICA
La pléctica , concepto acuñado por el físico norteamericano de partículas (y autor de la teoría de los “quarks”, Murray Gell Mam) es el estudio de la simplicidad y la complejidad. Se incluyen en ella la elaboración de teorías y la realización de experimentos de su comprobación -entre otras- de las diversas definiciones de complejidad propuestas: la física de la información clásica y cuántica en la historia del Universo; el estudio de la dinámica no lineal, incluye la teoría del caos, los “fractales”, los “atractores extraños” y la autosimilitud en los sistemas complejos no adaptativos de la física; y el estudio de los sistemas complejos adaptativos, (incluye la evolución química prebiótica, la evolución biológica); el comportamiento de los organismos individuales, el funcionamiento de los ecosistemas; el aprendizaje y el pensamiento; la evolución de los lenguajes humanos; el auge y caída de las culturas humanas; el funcionamiento de los ordenadores diseñado para desarrollar estrategias en la resolución de problemas.
Algunos de los estudios en estos temas se llevan a cabo en casi todas las Universidades que hacen labores de investigación; pero en E.U.A., sobresale en esa labor específica el Instituto de Santa Fe, California, que dirige Gell-Man fundado en 1984, que reúne a matemáticos, informáticos, físicos, químicos, neurobiológicos, inmunólogos , evolucionistas, ecólogos, arqueólogos, lingüistas, economistas, expertos en ciencias políticas e historiadores de planta, así como a invitados especiales; el énfasis se pone en la interacción de los pensadores sin criterios reduccionistas ni “apriorismos oficiales”.
Según las propias ideas de Gell-Mann -y no necesariamente compartidas por todos- la pléctica se expresa así:
1) La complejidad que nos rodea procede de reglas muy simples y de un orden inicial, (más la inclusión del azar) que está asociado con la indeterminación; y la fuente más fundamental de indeterminación es la mecánica cuántica, el marco básico para las leyes físicas; pero en contraste con la física clásica, la mecánica cuántica no es completamente determinista, ya que, aunque se conocieran exactamente las condiciones iniciales del universo y las leyes fundamentales de las partículas elementales y sus interacciones, la historia del universo no estaría determinada.
2) La mecánica cuántica al no ser enteramente determinista, ofrece sólo probabilidades de historias alternativas; pero así como algunas situaciones esas probabilidades son prácticamente certidumbres, y las explicaciones de la física clásica son una buena aproximación; pero en otras situaciones la indeterminación es evidente. Por ejemplo, cuando un núcleo radiactivo se desintegra para emitir una partícula alfa, la dirección que toma la partícula emitida es imposible de conocer antes de que la desintegración tenga lugar, pues todas las direcciones son igualmente probables.
3) Incluso en la aproximación clásica, aun asumiendo que se conocen exactamente las leyes fundamentales,(lo que no es estrictamente cierto), existe una indeterminación efectiva que surge de la ignorancia parcial de las circunstancias presentes las que -de hecho- en parte son resultado de accidentes anteriores y de las dificultades de cálculo. Esta clase de indeterminación resulta exacerbada por el fenómeno del caos en los sistemas no lineales, que tiene que ver con una extrema sensibilidad de los resultados a los detalles de la situación presente. La importancia de los accidentes en la historia del universo difícilmente puede ser exagerada. Cada ser humano, por ejemplo, es el producto de una secuencia enormemente larga de “accidentes”, cada uno de los cuales podría haber tenido un resultado diferente.
4) Para tener una idea de la magnitud de estos accidentes, pensemos -por ejemplo- en las fluctuaciones que dieron origen a nuestra galaxia; a los accidentes que condujeron a la formación del sistema solar, (incluyendo la condensación de polvo y gas que produjo la Tierra); a los accidentes que condicionaron el comienzo de la evolución de la vida sobre la Tierra; y los accidentes que contribuyeron a la evolución de especies concretas, incluyendo los rasgos particulares de la especie humana.
5) Cada uno de nosotros tiene genes que son el resultado de una larga secuencia de mutaciones accidentales y emparejamientos aleatorios, y de la selección natural. La mayoría de accidentes individuales condiciona muy poco el futuro, pero otros pueden tener amplias ramificaciones, muchas consecuencias diversas que se remontan a un evento aleatorio que podría haber tenido otro resultado. (Es lo que llamamos “accidentes congelados”). Un ejemplo es que muchas de las moléculas que tienen un papel importante en la vida terrestre son dixtrógiras, mientras que las que no lo tienen son levógiras. Durante mucho tiempo se intentó explicar este fenómeno invocando el carácter siniestro de la interacción débil en la materia, en oposición a la antimateria, pero al final se llegó a la conclusión de que ésta no podía ser la causa.
6) Supongamos, entonces, que el hecho de que las moléculas biológicas sean dextrógiras es puramente accidental, y lo que ocurre es que el organismo ancestral del que descienden todas las formas de vida en este planeta tenía moléculas dextrógiras; pero la vida podría perfectamente haber resultado al revés, (con moléculas levógiras desempeñando los papeles importantes) y otros ejemplos (de nunca acabar) los podemos encontrar en la historia humana: Por ejemplo, Enrique VIII se convirtió en rey de Inglaterra porque su hermano mayor Arturo murió. Este accidente originó todas las monedas, cédulas y demás registros, todas las referencias a Enrique VIII en los libros de historia, todos los acontecimientos durante su reinado, incluyendo la separación de la iglesia anglicana de la iglesia católica romana, y naturalmente la sucesión de monarcas posteriores de Inglaterra y Gran Bretaña. La acumulación de “accidentes congelados” es lo que da al mundo su “complejidad efectiva”.
7) La complejidad efectiva referida a algo en particular es la longitud de una descripción breve de sus regularidades. Esas regularidades sólo pueden provenir de dos fuentes: las leyes fundamentales, que son muy simples y se pueden describir brevemente, y los accidentes congelados. A medida que pasa el tiempo van apareciendo sistemas con una complejidad efectiva cada vez mayor. Esto vale tanto para sistemas no adaptativos del tipo de las galaxias, estrellas y planetas, como para los sistemas complejos adaptativos (entre ellos los seres humanos).
8) Por supuesto que no todo tiende hacia la complejidad, hay sistemas que se hacen más y más simples y llegan a desaparecer (caso de las civilizaciones antiguas), y en conjunto se observa que en vez de una progresión regular hacia más y más complejidad, lo que si existe en realidad es la envolvente de la “complejidad efectiva” la que se expande, porque los “accidentes congelados” se van acumulando con el transcurrir del tiempo.
9) Así el aparente orden es el resultado de observar y medir mecanismos de autoorganización funcionando en niveles locales, aunque en su conjunto el desorden del Universo aumenta de acuerdo con la segunda ley de la termodinámica; y con excepción de las llamadas “leyes fundamentales” -aun poco comprendidas unas y en proceso de elaboración o francamente desconocidas otras- lo único que puede afirmarse es que son fundamentales solamente algunas de las físicas, porque las demás se construyen sobre sus bases; pero, a la vez, las otras leyes que se derivan de estas pocas leyes físicas están acompañadas de otros rasgos propios que son el resultado de las peculiaridades de sus propios contextos e interacciones.
10) Por consecuencia puede afirmarse que las leyes físicas se aplican universalmente, pero allí donde es posible su existencia (por ejemplo en el inicio del Universo, no podría aplicarse el conocimiento derivado actualmente de la fisica nuclear, resultado de la organización de la sopa de los quarks primordiales, y es absurdo aplicar -por extensión- las leyes de la física a los aspectos biológicos y psicológicos -salvo que se adicione todo el conocimiento que se deriva de los accidentes astronómicos, geológicos, biológicos, psicológicos y otros correlacionados, con la biología y la psicología.
AZAR y COMPLEJIDAD
Para el físico francés, Bernoit Mandelbrot, la gama de fenómenos naturales y sociales es infinita pero las técnicas matemáticas susceptibles de domeñarlas, muy poco numerosas y ocurre así que fenómenos que nada tienen en común comparten -lamentablemente- una misma estructura matemática lo cual impide hacer “ciencia exacta” en el mejor sentido de la palabra; para tan solo hacer “ciencia aproximada”, esto es obtener tan solo “verdades parciales”.
1) Por ejemplo: para el profano y para el filósofo la noción de azar es una “noción unívoca”, cuya unicidad ha quedado además expresada matemáticamente de forma abstracta y muy general, e incluso con demasiada generalidad, tanto porque hace tabla rasa de diferencias fundamentales como porque la cimentación que la axiomática proporciona al cálculo de probabilidades diluye su especificidad, al punto que la “teoría de la probabilidad” constituye -de hecho- un capítulo mal diferenciado de la “teoría de la medida”.
2) Unificación, abstracción y generalidad han sido las tendencias que han dominado la investigación en el tercer cuarto de este siglo; así la matemática francesa no fijaba su interés en las “filigranas” del análisis o de la geometría, sino en sus “estructuras fundamentales”; y la física se complacía en la búsqueda de partículas fundamentales con el mismo espíritu.
3) En la práctica, para Mandelbrot no hay ciencia sino de lo general, por lo que su dilatada carrera científica ha estado marcada por la identificación y el estudio de una nueva estructura general subyacente a numerosos fenómenos de apariencia heteróclita. Esa estructura que se difunde por las matemáticas y por las ciencias físicas, biológicas y sociales, es la llamada “sibisemejanza” o, dicho de modo más general, la invariancia por reducción o dilatación y los objetos que caracteriza son los llamados “fractales”.
4) Paradójicamente, la construcción de la geometría fractal me hizo descubrir pronto y luego me confirmó que la aparente unicidad del mundo de los modelos aleatorios e incluso las del cálculo de probabilidades, son engañosas. Así desde el punto de vista que nos interesa destacar en esta obra, el cálculo de probabilidades según este físico, tiene analogías inquietantes con la teoría de la materia, porque al estudiar con atención la aplicación de leyes generales a contextos heteróclitos se revela la existencia de varios “estados” muy distintos.
5) Dos de los estados de la materia han sido conocidos desde muy antiguo siempre: las palabras “sólido” y “líquido” proceden del griego y del latín, pero “gaseoso” data apenas del siglo XVII; pero la física es a la vez una y diversa. La manifestación de su unidad es que todos estos estados (y otros posibles, pues se están identificando sin cesar estados nuevos) se deducen de unos mismos principios y utilicen unos mismos conceptos, (como los de temperatura y presión); y a la vez la manifestación de su variedad es que los estados de la materia se diferencien de forma muy clara.
6) Hay un fenómeno análogo de “diferenciación” en el caso del cálculo de probabilidades y según la geometría de los fractales, la concepción actual del azar permite adoptar diversos “estados”, tan distintos entre sí como lo es un gas de un sólido.
7) El matemático ruso Andrei Kolmogoroff aportó a la axiomática del cálculo de probabilidades los últimos toques que la hicieron aceptable para los “matemáticos puros”, pues en 1954 declaró que “todo el valor epistemológico de la teoría de probabilidades se basa en esto: los fenómenos aleatorios considerados en su acción colectiva a gran escala, crean una regularidad no aleatoria”.
8) Lo que la tesis antedicha significa para cualquier matemático es que toda acción colectiva posee al menos un aspecto que es, en el límite, regular y no aleatorio. Esto no basta para satisfacer al científico quien tiene que asegurarse de que tal regularidad colectiva y no aleatoria no se refiera a fenómenos que no le interese. Además, si existe regularidad, quiere asegurarse de que queda establecida con la rapidez suficiente para que los valores asintóticos sean reflejo de la estructura de los sistemas finitos que encontramos en la naturaleza.
9) La introducción de distinciones entre diversos estados de azar constituye una aportación a las matemáticas, pero nos las cambia; lo que modifica sobre todo es su interpretación. De igual manera la necesidad de distinguir tres estados diferentes del azar resultó una tarea indispensable para tratar de resolver problemas planteados por la naturaleza recurriendo a determinadas partes de las matemáticas existentes (haciéndolas descender de una generalidad abstracta e indiferenciada a una concreción muy estructurada.)
Tal concreción se sintetiza en tres posibilidades delineadas así:
El caso benigno: Se puede dotar de un sentido preciso a la noción de que estos teoremas “se aplican rápidamente”. Si así ocurriera en el caso de una fluctuación, se la denominará “benigna”. Se deduce, en general, que las estructuras más interesantes no son estadísticas. Las fluctuaciones benignas han sido descritas por los matemáticos; muchas han sido explicadas por los científicos; los ingenieros han aprendido a manejarlas para volverlas más tolerables. Estos últimos podían evaluar la probabilidad de un acontecimiento futuro basándose en medidas calculadas sobre un número suficientemente grande de acontecimientos pasados.
El caso lento: Puede suceder que “la acción colectiva” conduzca a los teoremas A, B y C, pero que los límites se alcancen de un modo tan lento, que no enseñen gran cosa sobre el tema “colectivo” que encontramos en los problemas científicos concretos. ¿Serán A, B y C, siempre A, B y C o no? Resultaría tranquilizador saber que siguen siendo aplicables. Pero hay que reconocer que se trata de meros espejismos, pues el mundo real es finito.
¿Cuál es, pues, la aplicabilidad práctica de los teoremas de límite? La física macroscópica estudia muestras tan inmensas (el número de Avogadro es el patrón de medida) que no existe dificultad alguna. Pero si se considera -en cambio- la variable logarítmico-normal, que es, sencillamente, la exponencial de una variable gaussiana, sus propiedades a largo plazo están presididas por el hecho de que sus momentos (media, varianza, etc.) son todos finitos y se obtienen mediante fórmulas sencillas; ésta es la razón de que la variable logarítmico-normal parezca benigna. Pero a corto o medio plazo todo se desbarata y su comportamiento parece salvaje.
El caso salvaje: Los síntomas del fracaso completo de la modalidad benigna de la convergencia de las fluctuaciones son dos y pueden actuar solos o en combinación: a) la aparición ocasional de enormes desviaciones con respecto a lo que podría considerarse como “norma” y b) el hallazgo ocasional de sucesiones muy largas de valores, cada una de las cuales se aparta poco de la norma (tomada por separado), pero cuyas desviaciones en una misma dirección son tan “persistentes” que la media no puede irse formando sino muy lentamente, o no se forma en absoluto.
Podría ser, pues, que ciertas ciencias fueran intrínsecamente más complejas que otras. Se podría temer que el “grado de exactitud” de una ciencia tuviera, en todos los casos, un límite más o menos alto. Al ir desde las más exactas a las que lo son menos, veríamos ir disminuyendo la proporción de magnitudes interesantes que son regularizadas por la acción colectiva, así como también la proporción de magnitudes regularizables que resultan ser interesantes.
COMPLEMENTARIEDAD BÁSICA
En menos de un cuarto de siglo hemos pasado de las verdades “absolutas” de la física clásica a tener aproximaciones a la verdad, con la física relativista, aunque las verdades en el microcosmos de la física cuántica suelen bordear los fenómenos que se burlan del sentido común:
1) Muchos de estos fenómenos son consecuencia del principio de complementariedad, cuya manifestación más conocida es la dualidad onda-partícula. (Un objeto microscópico -un fotón, un átomo, un electrón, por ejemplo, se comportan en unos casos como una onda en el agua, en otros como una partícula discreta). Ambas características se complementan entre sí, para proporcionar una descripción completa del objeto. La idea de la complementariedad se enunció hace más de setenta años; por eso, creen todavía muchos físicos que no se trata sino de una consecuencia de la relación de incertidumbre.
2) Según el principio de incertidumbre, dos variables complementarias, la posición y el momento, por ejemplo, no se pueden medir a la vez con una precisión que vaya más allá de un límite fundamental: La relación de incertidumbre impide normalmente que se sepa todo del comportamiento de los objetos cuánticos; por tanto, nunca vemos que al mismo tiempo hagan de partículas y de ondas.
3) Pero la verdad es que la incertidumbre no es el único factor por el que la complementariedad se impone, aunque se conciban y analicen experimentos reales y mentales que escapan a la relación de incertidumbre, para “engañar” a los objetos cuánticos bajo estudio. Sin embargo, los resultados siempre descubren que la naturaleza se pone a sí misma a salvo de esas intromisiones: la complementariedad permanece intacta, aun cuando la relación de incertidumbre no desempeñe ningún papel. La conclusión a la que debe arribarse es que la complementariedad es más profunda de lo que se apreciaba; posee un carácter más general y fundamental en la mecánica cuántica que la ley de incertidumbre.
4) Las ondas y las partículas ofrecen un comportamiento distinto en el “banco de pruebas”. El aspecto ondulatorio se evidencia en forma de patrones de interferencia. (Arrójense a la vez dos piedras a un estanque tranquilo; se refuerzan unas a otras donde las crestas se encuentran con crestas y se extinguen mutuamente cuando crestas y valles se suman). El mismo fenómeno ocurre cuando una luz atraviesa dos rendijas, que hacen las veces de dos piedras. La onda luminosa viaja por ambas rejillas, y lo hace de suerte tal que, de cada rejilla, salen dos ondas menores. Estas se interfieren y, cuando se las proyecta en una pantalla, generan una serie de franjas luminosas y oscuras.
5) El comportamiento corpuscular, por lo contrario, se manifiesta siempre en forma de fotones, (que sin excepción aparecen como entidades indivisibles.) Un detector adecuado cuenta un número discreto de fotones en vez de registrar una intensidad continua.
6) Esta naturaleza dual de ondas y partículas tan contraria a la intuición no agota la complementariedad. La mayoría de los objetos cuánticos tiene una estructura interna de la que resultan propiedades magnéticas. Las mediciones podrían hallar que los “polos” de esos “imanes” apuntan hacia arriba o hacia abajo, o a la izquierda o a la derecha. Pero nunca hallarán que apuntan “hacia arriba y a la izquierda o a la derecha”, de manera análoga a lo que acontece con el comportamiento ondulatorio y corpuscular.
7) Un aspecto más chocante -incluso misterioso- de las propiedades complementarias concierne a su predecibilidad. Encontraremos que el resultado no es predecible en absoluto: la izquierda o la derecha saldrán con una probabilidad del cincuenta por ciento cada una. ¿Es que hay algo que no sabemos y con lo que sí podríamos hacer una predicción? No, el problema es más serio: el resultado de la medición izquierda-derecha no se puede conocer de antemano.
8) Esta complementariedad es un rasgo de la realidad, y hemos de vivir con él. Nadie insistió más en ello que el físico danés Niels Bohr; a quien le cabe el mérito de que atribuyamos a la complementariedad el rango de verdad fundamental. No fue fácil, y la resistencia opuesta por físicos tan prominentes entre ellos Albert Einstein fue formidable.
9) Sin embargo, las restricciones que establece la relación de incertidumbre no son el único mecanismo por el que la naturaleza impone la complementariedad. La respuesta negativa está justificada porque desde el punto de vista teórico Richard Feymann a inicios de los 90 y luego, desde el punto de vista experimental en 1994 utilizando detectores de paso con luz láser se ha determinado que es posible construir detectores por donde pasan los objetos observados que no afectan al movimiento de éstos de manera significativa. Es decir, detectores de paso, o de camino, que eluden la relación de incertidumbre.
10) Posteriormente en 1995, el experimento que efectuó el norteamericano David J. Wineland en el Instituto Nacional de Pesos y Medidas en Boulder, Colorado, han demostrado de forma convincente que el principio de complementariedad es -sin duda alguna- más fundamental que la relación de incertidumbre.
Sin embargo -y paradójicamente-, pese a esta convicción no se espera que los resultados refuten la mecánica cuántica. El mundo cuántico se protege cuidadosamente de las contradicciones internas, y, si se produjera un hallazgo inesperado, lo más probable sería que indicase que algo había funcionado mal en los experimentos, no en la mecánica cuántica. A pesar del ingenio experimental de los seres humanos, la naturaleza, irá siempre un paso por delante. Tal parece que podemos escapar a la relación de incertidumbre de Heisenberg, pero no al principio de complementariedad de Bohr.
REALIDAD MATEMÁTICA Y COMPUTACIÓN
Señala el lógico matemático inglés John L. Casti que para quien abrigue la idea de que la capacidad de la mente humana es ilimitada en su facultad para resolver cuestiones difíciles -entre ellas el origen y destino del Universo y cuanto en él se halle inmerso, a mirada a la matemática del siglo XX le habrá de resultar desazonadora como lo muestran estos tres ejemplos:
a) En 1931, Kurt Gödel establecía su “Teorema de la Incompletitud”: que puede sinteizarse en la postulación de que, en razón del mismo, ningún sistema de inferencia deductiva permite dar respuesta a todas las preguntas concernientes a los números.
b) En 1973, Alan M. Turing demostraba una proposición equivalente para los programas de ordenador: se afirma en ella la inexistencia de un procedimiento sistemático capaz de determinar si un cierto programa acabará por detenerse cuando procesa un conjunto de datos;
c) En 1994 Gregory J. Chaitin, de IBM, ha descubierto proposiciones aritméticas cuya veracidad nunca puede quedar establecida por un sistema de reglas deductivas, cualquiera que éste sea.
Se trata de hallazgos que imponen límites a nuestra capacidad cognoscitiva en el mundo de la matemática y la lógica y cabe preguntar: ¿Existen restricciones similares para nuestra capacidad de hallar respuesta a los problemas que suscita la naturaleza?
Al afrontar esta cuestión, la tarea primera, consiste en determinar -a estas alturas del siglo- qué ha de entenderse por “conocimiento científico”. Para tajar este nudo gordiano filosófico, una de las formas científicas de dar respuesta a una cuestión adopta la forma de un sistema de reglas o, si se quiere, de un programa. Lo que se hace es, sencillamente, introducir la cuestión en el sistema de reglas, accionar después la manivela de la deducción lógica y esperar, por fin, a que aparezca la respuesta. Por otra parte, la idea según la cual el conocimiento científico viene generado por lo que en definitiva se reduce a la similitud con un programa informático, suscita el problema de los límites o capacidad de la computación
Para resaltar este punto de la interrelación hechos reales de la naturaleza , expresión matemática y capacidad computacional Casti se sirve de dos ejemplos concretos:
1.-Estabilidad del Sistema Solar. El problema más célebre de la mecánica clásica es el problema de N cuerpos. A grandes rasgos, se plantea cuál es el comportamiento de un sistema compuesto por N masas puntuales que se mueven de acuerdo con la ley de atracción gravitatoria de Newton. Una de las versiones del problema indaga si dos o más de estos cuerpos llegarán a entrar en colisión o si alguno de ellos terminará por adquirir una velocidad arbitrariamente grande en un tiempo finito. En su tesis doctoral, Zhihong Xia, de la Universidad del Noroeste ,EUA , demostró que, en ciertas hipótesis, un único cuerpo que se moviera en vaivén entre dos sistemas binarios (cinco masas en total) podría adquirir una velocidad arbitrariamente elevada y verse expulsado del sistema. Tal resultado, que se basa en una configuración geométrica especial de las posiciones de los cuerpos, nada nos dice acerca del caso concreto de nuestro Sistema Solar. Pero sí hace nacer la duda de que quizás el Sistema Solar pudiera no ser estable. Y lo que reviste todavía mayor interés: el hallazgo ofrece nuevos instrumentos con los que investigar la materia.
2.-El plegamiento de las proteínas. Las proteínas que forman parte de los seres vivos están constituidas por secuencias de muchísimos aminoácidos, enlazados a la manera de cuentas en un collar. Una vez que tales cuentas se hallan dispuestas en la sucesión correcta, la proteína se repliega rápidamente, adoptando una estructura tridimensional específica en grado sumo, determinante de su función en el organismo. Se ha estimado que un superordenador que aplicase reglas plausibles para el plegamiento proteínico tardaría unos 10-127 años en dar con la forma plegada final incluso en el caso de una secuencia muy corta, compuesta nada más por unos 100 aminoácidos. De hecho, en 1993, Aviezri S. Fraenkel, de la Universidad de Pennsylvania, demostró que la formulación matemática del problema de replegado proteínico es computacionalmente “difícil” en el mismo sentido como lo es el problema del viajante. ¿Cómo lo resuelve la naturaleza?
El examen de las dos cuestiones planteadas ha producido lo que parecen ser dos respuestas. Primera: puede que el Sistema Solar no sea estable.
Segunda: el plegamiento de las proteínas es computacionalmente difícil.
Pero lo que todas estas presuntas “respuestas” comparten con las demás es que en cada una interviene una representación matemática del problema planteado en el mundo real, y no el problema propiamente dicho. Por ejemplo, la solución dada por Xia al problema de los N cuerpos no explica de qué forma se mueven los cuerpos planetarios reales atraídos por las fuerzas gravitatorias del mundo real. De igual manera, la conclusión de Fraenkel de que el plegamiento de las proteínas constituye un problema computacionalmente difícil no entra en la cuestión de cómo se las arreglan las proteínas para llevar a cabo su trabajo en segundos, y no en miles de millones de años.
Por tanto, para deducir conclusiones sobre la incapacidad de la ciencia para habérselas con tales cuestiones tenemos que justificar, o bien que el modelo matemático constituye una representación fiel de la situación física, o bien abandonar las matemáticas por completo. “¿Qué haría falta para que el mundo de los fenómenos físicos exhibiera el tipo de insolubilidad lógica que encontramos en las matemáticas? .Al respecto Casti afirma:
1) La naturaleza tendría que ser, ora inconsistente (incoherente), ora incompleta. La consistencia (coherencia) significa que en la naturaleza no existen auténticas paradojas. En general, cuando encontramos lo que parece ser una de ellas -como los chorros de gas aparentemente emitidos a velocidades mayores que la de la luz por ciertos cuásares- las investigaciones posteriores han proporcionado una explicación: los chorros “superlumínicos” resultaron ser ilusiones ópticas provocadas por efectos relativistas).
2) La completitud de la naturaleza entraña la imposibilidad de que surja un estado físico sin razón alguna; porque siempre existe una causa para cada efecto. Puede que algunos analistas opongan que la teoría cuántica contradice el aserto de que la naturaleza es consistente y completa. Pero...en realidad, la ecuación que rige la función de onda de un fenómeno cuántico proporciona una explicación causal para cada observación (completitud) y está bien definida en cada instante temporal (consistencia). Las notables “paradojas” de la mecánica cuántica nacen de nuestro empeño en concebir el objeto cuántico como si fuera un objeto clásico. Por ello se deduce que la naturaleza es, a un tiempo, consistente y completa.
3) Por otra parte, la dependencia de la ciencia respecto de la matemática y la argumentación deductiva constituyen un obstáculo para nuestra capacidad de dar respuesta a ciertas cuestiones relativas al mundo natural”. Y lo que estos ejemplos muestran es que, si se requiere buscar en el mundo real cuestiones imposibles de responder científicamente, ha de establecerse una cuidadosa distinción entre el mundo de los fenómenos naturales y los modelos matemáticos o computacionales de tales mundos como sigue:
A.- Los objetos del mundo real consisten en magnitudes directamente observables, como el tiempo o la posición, o en magnitudes, como la energía, deducidas a partir de aquellas. Nos basamos, pues, en parámetros, ya sean las medidas de posición de los planetas o la configuración realmente observada de una proteína. Tales elementos observables constituyen, por lo general, un conjunto discreto de medidas que toma valores en cierto conjunto finito de números. Además, tales medidas no son, por lo general, exactas.
B.- En el mundo de la matemática, por otra parte, tenemos representaciones simbólicas de estos observables del mundo real, en las cuales es frecuente suponer que los símbolos pertenecen a un continuo en el espacio y en el tiempo. Los símbolos matemáticos representativos de atributos como la posición y la velocidad presentan, de ordinario, valores expresados mediante números enteros, números reales o números complejos, sistemas, todos ellos, que contienen una colección infinita de elementos. En matemáticas, la noción preferida para caracterizar la incertidumbre es la aleatoriedad.
C.- El mundo de la computación, que ocupa la curiosa posición de tener un pie apoyado en el mundo real de las herramientas físicas y otro en el mundo de los objetos matemáticos abstractos. Si concebimos la computación como la ejecución de un conjunto de reglas, es decir, de un algoritmo, tal proceso es de naturaleza puramente matemática y pertenece al mundo de los objetos simbólicos. Pero concebida como un proceso de cierre y apertura de conmutadores en la memoria de una máquina computadora real, se trataría de un proceso firmemente arraigado en el mundo de los observables físicos.
Salidas: Una vía para poner de manifiesto si una cuestión es lógicamente imposible de responder por medios científicos consiste en restringir toda la discusión y argumentación al mundo de los fenómenos naturales. Al tomar tal camino nos está prohibido traducir a enunciados matemáticos cuestiones como “¿Es estable el Sistema Solar?” Y, en consecuencia, generar respuestas con el mecanismo de demostración lógica de las matemáticas. Nos enfrentamos entonces con el problema de hallar un sustituto en el mundo real para la noción de demostración matemática.
La noción de causalidad puede constituir una candidatura adecuada. En principio, cabe considerar que una cuestión admite respuesta científica si podemos producir una cadena de argumentos causales cuyo eslabón último es la respuesta a la cuestión. Los argumentos causales no tienen por qué estar expresados en términos matemáticos. Por ejemplo, el clásico silogismo, “Todos los hombres son mortales; Sócrates es hombre; por consiguiente, Sócrates es mortal”, es una concatenación causal. En ella no se utilizan matemáticas; sólo lenguaje ordinario. Por otra parte, sin el concurso de las matemáticas, la construcción de una argumento causal convincente puede ser tarea amedrentadora. En el caso de la estabilidad del sistema solar, por ejemplo, se requiere hallar definiciones no matemáticas convincentes de los planteas y la gravitación.
En vista de semejantes dificultades, parece prudente examinar métodos que conjuguen el mundo de la naturaleza con el de las matemáticas. Si para zanjar una cuestión atinente al mundo de la realidad deseamos apelar a la maquinaria demostrativa de las matemáticas, será preciso empezar “codificando” la cuestión, plasmándola en cierta formalización matemática, como una ecuación diferencial, una gráfica o un juego N personal. Abordamos la versión matemática del problema valiéndonos de los instrumentos y técnicas de este rincón concreto del mundo matemático y, finalmente, “descodificamos” la solución (¡si la tenemos!) devolviéndola a términos del mundo real. ¿Cómo saber si los modelos matemáticos de un sistema natural y el sistema propiamente dicho guardan relación entre sí? He aquí un antiguo arcano filosófico, cuya resolución entraña el desarrollo de una teoría de modelos. Además, los argumentos matemáticos pueden estar sometidos a las restricciones que Gödel y Turing han revelado; ignoramos todavía si el mundo real sufre constricciones similares.
Solución: Tal vez exista forma de esquivar estas dificultades. Los problemas que Gödel y otros identificaron valen para sistemas numéricos con infinitos elementos, como el conjunto de los números enteros. Pero en muchos de los problemas del mundo real interviene un número finito de variables, cada una de las cuales sólo puede tomar un número finito de valores.
Análogamente, las modalidades de razonamiento no deductivo -por ejemplo, la inducción, en la cual saltamos a una conclusión general partiendo de un número finito de observaciones concretas- pueden llevarnos más allá del dominio de la incredibilidad lógica. Así pues, si restringimos nuestros formalismos matemáticos a sistemas que utilicen conjuntos finitos de números, a la lógica no deductiva o a ambas cosas, toda cuestión matemática tendría que admitir respuesta; podemos esperar, por consiguiente, que también hallará respuesta su homólogo descodificado del mundo real.
Puede que los estudios de la mente humana revelen otros métodos para circunvalar los límites impuestos por la lógica. Ciertos defensores de la inteligencia artificial han sostenido que nuestros cerebros son ordenadores, si bien extraordinariamente perfeccionados, que efectúan cálculos según el mismo proceso lógico, secuencial, que los ordenadores tradicionales (e incluso que las redes neuronales o los procesadores en paralelo). Pero diversos teóricos, y muy señaladamente el físico-matemático Roger Penrose, de la Universidad de Oxford, han aducido que la actividad cognitiva humana no se basa en reglas de deducción conocidas y no está sujeta, por consiguiente, a limitaciones gödelianas.
Tal punto de vista se ha visto recientemente reforzado por estudios realizados conjuntamente con el apoyo de la psicóloga Margaret A. Boden, de la Universidad de Sussex, el matemático Donald G. Saari, de la Universidad del Noroeste, el economista Ake E. Andersson y otras personas, amparados por el Instituto de Estudios Futuros, de Estocolmo.
El trabajo induce fuertemente a pensar que, ni en las artes, ni en las ciencias naturales, ni en las matemáticas, la capacidad creativa humana se encuentra sometida a las rígidas limitaciones de los cálculos computarizados. Penrose y otros teóricos han conjeturado que la creatividad humana proviene de ciertos mecanismos o reglas desconocidos aún, quién sabe si relacionados con la mecánica cuántica. Al desvelar tales mecanismos e incorporarlos en el método científico, puede que los científicos logren resolver problemas aparentemente inabordables.
Evidentemente, la capacidad de la ciencia para calar en los secretos de la naturaleza está limitada por multitud de consideraciones prácticas, tales como el error de las mediciones, la duración de los cómputos, los recursos materiales y económicos, la voluntad política y los valores culturales. Pero ninguna de estas consideraciones guarda relación con la existencia de barreras lógicas que impidan dar respuesta a una cierta cuestión relativa al mundo natural.
EL PROBLEMA DE LA CONSCIENCIA
Desde un punto de vista objetivo, podemos llegar a conocer bastante bien el cerebro, Cuando el lector se detiene en esta página, hay un revoloteo de procesos: los fotones inciden en su retina, las señales eléctricas remontan el nervio óptico y atraviesan áreas diferentes de su cerebro, para que, al final, responda con una sonrisa, una expresión de perplejidad o un comentario. Pero se da también un aspecto subjetivo. Cuando el lector mira la página es consciente de que lo hace; percibe imágenes y palabras como parte de su vida interior, privada, mental. Todos tenemos vivas impresiones de las flores con sus colores, del cielo estrellado, Puede que sintamos además algunas emociones y formemos determinados pensamientos. Juntas, estas experiencias constituyen la consciencia, la vida subjetiva, interior, de la mente.
Durante muchos años, quienes investigaban el cerebro y la mente eludieron la consciencia. Dominaba la idea de que la ciencia, que se apoya en la objetividad, no podía dar cabida a algo tan subjetivo como la consciencia. El movimiento behaviorista en psicología, imperante en la primera mitad del siglo, se concentró en el comportamiento externo y desdeñó todo lo que tuviese que ver con procesos mentales internos. Más tarde, el ascenso de la ciencia cognitiva centró la atención en los procesos que ocurrían dentro de la cabeza.
En los últimos años, sin embargo, un número creciente de neurólogos, psicólogos, filósofos, informáticos y físicos ha rechazado que no se pueda estudiar la consciencia e intenta desentrañar sus secretos, Como cabría esperar de un campo novedoso, hay una maraña de teorías diversas, que polemizan unas con otras; a menudo usan los conceptos básicos de forma incompatible.
La miríada de concepciones que pululan en este campo van de las teorías reduccionistas, según las cuales la consciencia se puede explicar con los métodos habituales en neurología y psicología, a la postura de los llamados mistéricos, para quienes nunca comprenderemos la consciencia en absoluto.
1) En contra el reduccionismo se puede señalar que las herramientas de la neurología no pueden proporcionar una explicación completa de la experiencia consciente, aunque tengan mucho que ofrecer. En contra el misterismo se espera que un nuevo tipo de teoría podría explicar la consciencia. Aún se nos escapan los entresijos de esa teoría, pero el razonamiento riguroso y ciertas inferencias fundamentadas descubren algo de su naturaleza general. En ese orden, la teoría en cuestión habrá de basarse en nuevas leyes fundamentales y puede que el concepto de información desempeñe un papel central. Estos tenues destellos sugieren que una teoría de la consciencia tendría quizá consecuencias sorprendentes en nuestra forma de ver el universo y a nosotros mismos.
2) Los investigadores usan la palabra “consciencia” de muchas formas diferentes. Para aclarar la cuestión, tenemos que separar primero los problemas que con frecuencia se cobijan bajo ese nombre.
A tal fin, importa distinguir entre los “problemas fáciles” y el “problema duro” de la consciencia.
Los problemas fáciles: Estos no son en absoluto triviales -encierran la complejidad propia de los problemas de la psicología y la biología-, pero el misterio central radica en el problema duro.
• Entre los problemas fáciles de la consciencia figuran los siguientes: ¿Cómo discierne el sujeto entre un estímulo sensorial y otro, y reacciona ante ellos según lo pertinente? ¿Cómo integra el cerebro la información que llega de fuentes dispares y se sirve de ella para controlar el comportamiento? ¿Por qué pueden los individuos verbalizar sus estados internos? Aunque estas preguntas están asociadas a la consciencia, todas se refieren a los mecanismos objetivos del sistema cognoscitivo.
• En consecuencia, tenemos pleno derecho para esperar que la investigación incesante en los dominios de la psicología cognitiva y la neurología hallen la respuesta.
• Dado el reciente aluvión de trabajos sobre la consciencia acometidos por neurólogos y psicólogos, pudiera pensarse que el misterio empieza a aclararse.
• Un examen más atento, por contra, nos revela que casi todas las investigaciones actuales se dirigen sólo a los problemas fáciles de la consciencia.
• La confianza en el punto de vista reduccionista viene del progreso en los problemas fáciles, que no sirve de nada por lo que se refiere al problema duro.
• Piénsese en la hipótesis propuesta por los neurobiológicos Francis Crick, del Instituto Salk de Estudios Biológicos en San Diego, y Christof Koch, del Instituto de Tecnología de California. sostienen que la consciencia podría surgir de ciertas oscilaciones de la corteza cerebral, que se sincronizan al dispararse las neuronas 40 veces por segundo.
• Crick y Koch creen que el fenómeno podría explicar de qué manera se funden en un todo coherente los distintos atributos de un solo objeto percibido (su color y su forma, por ejemplo) que se procesan en partes diferentes del cerebro. En su teoría, dos elementos de información quedan unidos precisamente cuando los representan disparos neuronales sincronizados.
• Cabe en principio que la hipótesis elucidara uno de los problemas fáciles, el de cómo el cerebro integra la información. Pero, ¿por qué van las oscilaciones sincronizadas a hacer que surja la experiencia visual, no importa cuánta integración tenga lugar? Esta pregunta lleva en sí el problema duro, acerca del cual la teoría no tiene nada que ofrecer.
• Daniel D. Dennett ha presentado una depurada teoría relativa a la manera en que se combinan numerosos procesos independientes y producen una respuesta coherente a un suceso percibido. La teoría podría servir de mucho para explicar cómo producimos comunicaciones verbales sobre nuestros estados internos, pero nos dice muy poco acerca de la razón de que haya una experiencia subjetiva tras esas comunicaciones.
• Como otras teorías reduccionistas, la de Dennett es una teoría de los problemas fáciles.
El problema duro: Este se refiere al “cómo” los procesos físicos del cerebro dan lugar a la consciencia. Se refiere al aspecto interior del pensamiento y la percepción, a la sensación que las cosas producen en el sujeto:
• Cuando vemos, por ejemplo, experimentamos sensaciones visuales, como la de un azul vivo. O piense en el inefable sonido de un oboe lejano, el sufrimiento de una gran pena, el gozo de la felicidad o la cualidad meditativa de un momento en que nos perdemos en nuestros pensamientos.
• El problema duro de la consciencia, va más allá de los problemas que se refieren a cómo se desempeñan las funciones.
• Aun cuando cada función de comportamiento o cognoscitiva relacionada con la consciencia se explicase, quedaría en pie un misterio: ¿por qué la ejecución de esas funciones va acompañada por la experiencia consciente?
• Es este quebradero de cabeza adicional el que hace que el problema duro lo sea.
• Algunos han sugerido que, para resolver el problema duro, necesitamos echar mano de los nuevos instrumentos de la explicación física, de la dinámica no lineal, por ejemplo, de nuevos descubrimientos de la neurología o de la mecánica cuántica.
• Pero estas ideas se resienten de idéntica dificultad. A este respecto se han planteado las propuestas de Stuart R. Hameroff, de la Universidad de Arizona, y Roger Penrose, de la Universidad de Oxford. Mantienen que la consciencia surge de procesos físico-cuánticos que ocurren en los microtúbulos, estructuras proteínicas del interior de las neuronas.
• Es posible (si no probable) que esta hipótesis conduzca a una explicación de cómo toma decisiones el cerebro o incluso de la manera en que demuestra teoremas matemáticos, tal y como apuntan Hameroff y Penrose.
• Pero aunque lo haga, callará acerca de cómo esos procesos pueden dar lugar a la experiencia consciente. Lo mismo le pasará a cualquier teoría de la consciencia que se base sólo en el procesamiento físico.
TEORIA DEL TODO O TEORIA DE LA CONCIENCIA …?
Es una creencia muy extendida que la física proporciona un catálogo completo de los elementos y las leyes fundamentales del universo. Como dice el físico Steven Weinberg en su libro Dreams of a Final Theory, el objetivo de la física es una “teoría del todo”, de la que se derive cualquier cosa que haya que saber del universo. Pero Weinberg reconoce un problema con la consciencia. Pese a la potencia de la teoría física, la existencia de la consciencia no parece derivarse de sus leyes. Defiende la física con el argumento de que al final podría acabar explicando lo que él llama los correlatos objetivos de la consciencia (es decir, los correlatos neuronales), pero, claro está, eso no es explicar la consciencia misma.
Si la existencia de la consciencia no se deriva de leyes físicas, una teoría de la física no constituye una verdadera teoría del todo. Una teoría final, pues, debe contener un componente fundamental extra.
Por tanto, una teoría completa tendrá dos componentes:
• leyes físicas, que nos dirán qué les pasa a los sistemas físicos, desde los infinitesimales hasta los cosmológicos,
• leyes psicológicas, que nos dirán cómo se asocian algunos de esos sistemas a la experiencia consciente.
Estos dos componentes constituirían una verdadera teoría del todo.
Admitamos que existan tales leyes psicofísicas. ¿Cómo descubrirlas? El principal obstáculo lo encontraremos en la carencia de datos. Tal y como se la describe, la consciencia es subjetiva: no hay, pues, forma de observarla en otros.
Pero hablamos de un obstáculo, no de un callejón sin salida. Para empezar, cada uno de nosotros tiene acceso a sus propias experiencias, un rico tesoro que puede servir para formular teorías.
Es verosímil que nos basemos además en informaciones indirectas, como las descripciones que hacen los sujetos de sus experiencias.
También tienen un papel que desempeñar los argumentos filosóficos y los experimentos mentales. Estos métodos, aunque limitados, son suficientes para empezar.
Al no poderse contrastar de forma concluyente, estas teorías serán más conjeturales que las teorías de las disciplinas científicas al uso. sin embargo, no hay razón por la que no deban estar sujetas a una explicación fiel de nuestras experiencias personales y las comunicadas por los otros.
Si hallamos una teoría que concuerde con los datos mejor que cualquier otra dotada de idéntica sencillez, tendremos buenas razones para aceptarla. Hasta ahora no contamos con ninguna que case con los datos. Resulta, pues, prematuro ocuparse de la contrastabilidad.
Propuestas: Podríamos empezar por buscar leyes puente de alto nivel que conectasen los procesos físicos con la experiencia en el orden cotidiano de cosas. Podría sacarse la configuración básica de una ley así de la observación de que, cuando somos conscientes de algo, por lo general tenemos la capacidad de actuar al respecto y hablar de ello, y éstas son funciones objetivas físicas. A la recíproca, cuando una información está disponible directamente para la acción y el habla, en general es consciente. Por tanto, caben dos formas de atacar el problema:
a) Coherencia estructural: La consciencia guarda una buena correlación con lo que podríamos llamar “percatarse”: el proceso gracias al cual la información del cerebro vienen a estar globalmente disponible para los procesos motores del estilo del habla o de la acción corporal. Podemos reformular la idea que está detrás de esto como un principio de coherencia estructural: la estructura de la experiencia consciente se refleja en la estructura de la información presente en la acción de percatarse, y al revés.
b) Principio de invariancia organizativa: Otro candidato a ley psicofísica es el principio de plantear que los sistemas físicos que tengan una misma organización abstracta darán lugar al mismo tipo de experiencia consciente, no importa de qué estén hechos. Por ejemplo, si las interacciones entre nuestras neuronas se pudiesen duplicar con toda precisión mediante microcircuitos de silicio, surgiría la misma experiencia consciente. La idea es un tanto polémica, pero creo que está muy respaldada por los experimentos mentales donde se reemplazan gradualmente las neuronas por microcircuitos de silicio. (Lo que entraña que algún día podría lograrse la consciencia en las máquinas).
TEORIA DE LA INFORMACION
El objetivo final de una teoría de la consciencia se cifra en un conjunto simple y elegante de leyes fundamentales, análogo a las leyes fundamentales de la física. Sin embargo, es poco probable que los principios descritos antes sean fundamentales. Más bien parecen ser leyes psicofísicas de alto nivel, análogas a principios macroscópicos e la física del estilo de los que aparecen en la termodinámica o la cinemática. ¿Cuáles podrían ser las leyes fundamentales subyacentes?
Nadie lo sabe, pero puede apuntarse que el concepto de “información” quizá desempeñe en las leyes psicofísicas primarias un papel central. Según la noción abstracta que propuso Claude E. Shannon, del Instituto de Tecnología de Massachussetts, en los años cuarenta, la información consiste en un conjunto de estados distintos que comparten una estructura básica de similaridades y diferencias entre ellos.
Una información encierra quizá dos aspectos básicos, o al menos algunas informaciones los tienen: uno físico y otro experiencial.
Esta hipótesis posee categoría de principio fundamental, un principio que podría estar tras la relación existente entre los procesos físicos y la experiencia.
Dondequiera que encontremos una experiencia consciente, existirá como uno de los aspecto de un estado de información; el otro aspecto es el que se hallará inmerso en un proceso físico del cerebro.
Hay que darle sustancia a esta propuesta para construir una teoría satisfactoria. Pero concuerda muy bien con los principios mencionados antes -que los sistemas con la misma organización incorporan la misma información, por ejemplo- y podría explicar numerosos rasgos de nuestra experiencia consciente.
La idea es, al menos, compatible con otras, como la del físico John A. Wheeler, quien sugiere que la información es fundamental en la física del universo. En última instancia, las leyes de la física podrían tal vez reformularse a partir del concepto de información; en ese caso tendríamos una congruencia satisfactoria entre las construcciones conceptuales de las leyes físicas y las de las leyes psicológicas. Hasta pudiera suceder que una teoría de la física y una teoría dela consciencia acabasen por amalgamarse en una gran teoría de la información.
La ubicuidad de la información plantea un problema potencial. Pensemos en un termostato. Incorpora cierta información, pero ¿es consciente?
Se proponen al menos dos respuestas:
1.- podríamos restringir las leyes fundamentales de manera que sólo cierta información tuviese un aspecto experiencial, dependiendo quizá de su procesamiento físico.
2.- que admitiésemos que toda información tiene un aspecto experiencial, es decir, donde hubiera un procesamiento complejo de la información habría una experiencia compleja y donde aquel fuera simple la experiencia sería simple.
En ese cuadro, hasta un termostato podría tener experiencias, pero mucho más simples incluso que una experiencia básica del color, y ciertamente no las acompañarían emociones o pensamientos. Parecerá extraño al principio, pero si la experiencia es de verdad fundamental, podríamos esperar que estuviese muy difundida.
Sea como sea, la elección entre estas posibilidades dependería de cuál se integrase en la teoría más potente.
Por supuesto que todos los problemas apuntados, que requieren mas precisión y estudio pueden ser abordados desde dos perspectivas: una estrictamente materialista y otra que se abra a que además de la materia existe una información que estructura la materia no importa de cual se trate, ni tampoco de las características que adopte, tanto en el mundo microscópico, el mundo que nos es familiar o el macroscópico.
EVOLUCIONISMO Y RELIGIÓN
El biólogo francés George Olivier, en su obra "La Evolución del Hombre" al referirse a las distintas escuelas que defienden el criterio materialista frente al espiritualista sostenía en la década de los sesenta estas ideas:
Criterio materialista.- Para el científico materialista el sector de la evolución es el azar que interviene de un modo constante en la evolución. Es así como el azar, actuando por la mutación y la selección, lo explica todo. Los nuevos tipos aparecen por mutaciones al azar; los que sobreviven son los que resultan ser viables, por casualidad, en el medio en que se encuentran, lo que corresponde finalmente a una cierta elección dentro de las posibilidades de mutaciones persistentes. No acontece lo que debía de acontecer, ya que no hay plan preestablecido. Pero lo que puede acontecer, acontece generalmente. La historia de la vida en la tierra es una interminable sucesión de casualidades, corregidas a cada instante por la selección. Una serie de pequeños cambios cuantitativos, acumulados por la selección en una misma dirección, puede finalmente provocar un gran cambio cualitativo.
El materialismo sostiene a fondo la teoría sintética (también llamada neodarwinismo) y pone en exergo la larga duración de los tiempos geológicos: de pocos millares de millones de años, durante los cuales la vida ha tenido todo el tiempo necesario para proceder a todos los ensayos posibles antes de llegar a una buena solución, la adaptación del ser a su medio ambiente. El materialismo insiste en que la ortogénesis rebasa a menudo su objetivo, precisamente porque carece de un verdadero objetivo y su orientación es aleatoria y debida únicamente a las fuerzas de la evolución. En cuanto a la intervención del factor tiempo, se trata de mutaciones que modifican el ritmo de crecimiento, total o parcial, dando así origen a nuevos seres, perfeccionados o simplificados.
Crítica del materialismo.- La dialéctica materialista rechaza las explicaciones y el hecho de ver fuerzas directrices allí donde no hay más que categorías de hechos. Pero a juicio de Olivier no se le puede hacer la misma crítica: la atribución sistemática al dios azar es tan verbal como el antiazar, es decir, la finalidad. Por otra parte, el azar no constituye una noción científica suficiente.
El materialismo se basa en hechos concretos; ahora bien, la evolución paleontológica está ordenada en una dirección que no puede ser determinada por mutaciones aleatorias. La tendencia fundamental de la evolución es el desarrollo del psiquismo; ¿cómo puede explicar esto el azar? Finalmente, a propósito de las objeciones a la teoría sintética se ha visto que la creación de los órganos complejos sigue siendo un enigma. Además, la aparición por simple azar del hombre y de la conciencia refleja es chocante para nuestra razón (y para nuestra vanidad). Parafraseando a Bernard Shaw “la evolución consistiría, no solamente en transformar progresivamente una marea de amibas en una Academia Francesa, sino que además, lo haría por pura casualidad” Para Grassé, que no defiende el finalismo, “Los partidarios de los azares dichosos y constantemente renovados hacen surgir otra finalidad, la de una suerte perpetua que convierte su teoría en irrisión”. Los materialistas reniegan de su teoría al negarse a ver la evidencia: la evolución es una fuerza que comporta un mínimo de finalidad. Rechazar una causa so pretexto de ser metafísica es anticientífico.
Sin embargo, se puede sacar en conclusión, que no se comprende por qué razón a la materia se le impondría una finalidad especial por la vida; se tiene una impresión de finalismo, de predestinación, pero al materialismo no niega esta apariencia ni tampoco cierto determinismo. Por eso el biólogo puede mantenerse dentro del estudio de los hechos y considerar la finalidad como tal, sin plantearse otros problemas que el del cómo materialista, sin tener que ir hasta el porqué del espiritualista. El método es ciertamente válido. Vista desde este ángulo, la dialéctica materialista, la investigación de las causas racionales, la objetividad, deben poner de acuerdo a todos los biólogos, pero para algunos de ellos ésta no es más que la primera etapa de la comprensión íntima de la evolución.
Criterio espiritualista.- El espiritualismo se interesa necesariamente por todo concepto científico que se refiera al hombre o que vaya a parar a él, como es el caso de la evolución. Para el espiritualismo, en efecto, el hombre es doble y está compuesto de espíritu y materia ( y ambos simultáneamente). Al espiritualismo le importa mucho defender esta posición.
A menudo, el punto de vista espiritualista no se expresa; hay muchos sabios y hombres de ciencia que son cristianos, pero guardan para sí mismos sus conceptos personales y ante un problema científico adoptan una actitud racionalista. Este pudor de sentimientos contiene una ambigüedad, al menos por lo que hace referencia a las teorías de la evolución. Si se adopta el punto de vista materialista, se reduce todo lo que se refiere al hombre a elementos materiales, alma inclusive, si es que existe. Ahora bien, un espiritualista es necesariamente dualista y tiene que refutar toda teoría que no acepte, en el hombre, un principio trascendente. El espiritualismo reviste formas muy diversas: existe un principio trascendente que domina la materia y la vida. Habiendo admitido este postulado, ya no hay ninguna dificultad en buscar el objetivo y la razón de ser de la evolución. Mientras el materialismo no admite más que las causas mecánicas, el espiritualismo busca las causas finales, ya que los factores de la evolución no son más que las causas segundas y no explican más que el determinismo mecánico de la evolución. La cuestión consiste en saber si la ciencia debe ignorar las causas trascendentes.
Para el espiritualismo, la finalidad es evidente, por ejemplo, el ojo está hecho para ver, tiene un objetivo, una finalidad, igual que el martillo está hecho para golpear y para la mano del obrero. Todo esto es la finalidad interna, la coordinación anatómica; pero también hay una finalidad externa, una relación entre los seres y las cosas, un equilibrio biológico: la “cadena alimentaria”. La finalidad, concebida en su sentido lato admite los tanteos, los errores y los fracasos de la naturaleza. De todos modos, la mayoría de los organismos, las correlaciones funcionales y la misma naturaleza de la vida necesitan un principio original: hay un mínimo de finalidad en la naturaleza y todo ocurre como si la naturaleza quisiera la perpetuación de la vida.
A decir verdad, es la evolución humana la que provoca la interpretación finalista que parece resultar del brote de psiquismo, del “ascenso de la conciencia” que se comprueba en el reino animal cuando se va desde los seres inferiores hasta nosotros. Ahora bien, el hombre no se caracteriza únicamente por una mayor inteligencia, sino por la emergencia del espíritu fuera de la materia, por la conciencia moral, nociones todas ellas que desafían el análisis científico habitual. La evolución ha tenido al hombre por fin (tal vez por fin temporal), pero no hay duda de que la evolución ha sido dirigida, impuesta por la voluntad así: “La evolución es la obra de un pensamiento creador sobrenatural, de Dios, que ha hecho nacer la vida en un universo dispuesto a recibirla”.
Crítica del espiritualismo.- Es difícil discutir los conceptos finalistas presentados en esta forma, ya que están basados principalmente en nociones metafísica e implican el postulado dualista señalado al principio. La argumentación científica sobre ello suele ser muy pobre, incluso cuando emana de hombres de ciencia indiscutidos. Las afirmaciones no son pruebas.
Las interpretaciones finalistas son antropocéntricas; somos nosotros, los hombres, los que vemos una intención, una finalidad en la evolución. Un solo concepto de la evolución halló gracia ante el finalismo, que de él ha sacado un argumento: la teoría de Lamarck (la adaptación, según este autor, está provocada por la reacción del ser, como si éste tuviese una personalidad, una conciencia). Dentro de la óptica lamarckiana se dice: “La función crea el órgano”; por consiguiente, el órgano está hecho para la función y todo, en la naturaleza, halla su razón de ser, su objetivo, su finalidad.
¿HAY UN EJE CÓSMICO?
Sustentada en la necesidad de clarificar conceptos para tratar de “vivir en el ámbito de la verdad”, como aconseja Julián Marías; pero, al tiempo, conociendo la imposibilidad de apartar la razón del subjetivismo -como explica Antonio Damasio- es conveniente retomar la propuesta de Theilhard para analizarla - someramente, frente a la actitud del científico que trata de explicar - elaborando modelos del Universo - lo que éste es, fue y puede ser.
En el marco referencial utilizado en el concepto Occidental, los científicos (haciendo una simplificación) se suelen mover en uno de los siguientes contornos:
a) es agnóstico,
b) es creyente o
c) es materialista y cada una de estas posiciones apriorísticas, bañan - como un todo su quehacer cosmológico (cuando el científico no logra superar esas visiones), por ende sus explicaciones suelen teñirse de esos marcos contextuales extra - científicos. Conviene, pues, asomarse a los parámetros que contextualizan estos modelos, ya que conociendo el “punto de salida” puede intuirse el “punto de llegada”.
Demostración.- Para facilitar la comprensión de este punto , se utiliza un extracto del modo de razonamiento que emplea el jesuita francés Jean Chavaux, en su obra “Dios Demostrable”, que se publicó en la década de los setenta, cuando analiza el hecho de la Evolución Cósmica. El ejemplo muestra gran consistencia lógica. Veamos:
Evolución.- Un hombre de ciencia en Occidente (sea creyente, materialista o agnóstico) está de acuerdo en constatar unánimemente un hecho: el de la Evolución cósmica y biológica y humana. Este hecho lo constata por las vías normales de las ciencias experimentales, puede leerlo de la misma manera, e interpretarlo en el plano científico de la misma manera: la materia se orienta en el curso del tiempo hacia estados cada vez más altamente complejificados.
La materia viva, la vida se orienta en el curso del tiempo hacia formas cada vez más cefalizadas. La ley de asociación, de síntesis y de complejificación se verifica desde las síntesis puramente físicas, situadas al nivel atómico y molecular, hasta el plano humano, en el que un proceso análogo de asociación y de síntesis entre los elementos humanos se efectúa ante sus ojos. Tal es el esquema de la lectura que ha propuesto Theilhard, y , sin perjuicio de tal o cual precisión, el conjunto de los hombres de ciencia puede aceptar esta “ley de recurrencia”. De hecho, esta “lectura” del fenómeno está en vías de pasar a la enseñanza común.
Método Cientifico.- Los hombres de ciencia están de acuerdo en admitir que hay que someterse al rigor del método científico, a la lección permanente de la experiencia. Lo Real es el maestro de todos, lo Real objetivo, que tiene fuerza de ley. Si llamamos a lo Real “materia”, todo hombre de ciencia concede que, desde el punto de vista del método, se somete a la enseñanza de la “materia”. Ningún hombre de ciencia pretende reconstruir lo Real partiendo del “yo”. Si se llama “materia” a la realidad objetiva, todo hombre de ciencia desde el punto de vista del método científico es “materialista”, es decir, en otros términos, “es realista”, y no es idealista. Así, pues, respecto al hecho de la Evolución Cósmica y Biológica para leer codo con codo el sentido del Fenómeno en evolución que se puede interpretar diciendo: el hecho de la Evolución significa que se está instalado en un Cosmos eternamente consumado, sino que se está preso de un proceso de cosmogénesis continuada o, dicho de otro modo, que se nace en un Universo en el que todo nace, progresivamente, a la existencia.
¿ Uno- Multiple?.- El concepto científico de Evolución se opone y recusa primeramente una cierta metafísica de la identidad, en la que todo está eternamente dado, todo preexiste, nada empieza a ser, nada llega a ser, nada nace. Este tipo de metafísica se halla expresado, por ejemplo, en los Upanishad y en Empédocles. Nada nace, nada empieza a existir. Todo está dado, desde toda la eternidad, en lo Absoluto. El nacimiento no es más que una emergencia, en el plano de las apariencias, de un fragmento, de una parcela de lo Absoluto Pero a la vez es una decadencia, una caída. El mundo de la experiencia no es más que una apariencia, o peor, una desgracia, una alienación de lo Absoluto en la naturaleza, en la materia. Para el científico, la salvación consiste en reabsorber y superar, tanto como le sea posible, tanto como dependa de él, este exilio, esta alienación de lo Absoluto, del que él es una parcela, y en hacer que ese fragmento exiliado de lo Absoluto se remonte a su fuente original y que lo múltiple retorne al seno de lo Uno.
Movimiento Cíclico.- Esta metafísica es esencialmente cíclica, puesto que el proceso que representa la vida de lo Absoluto puede representarse por un movimiento de salida, de alienación (de lo Uno a lo múltiple), y de retorno (de lo múltiple a lo Uno). Semejante visión del mundo, que la hallamos en la India y en Plotino, es exactamente opuesta a la visión moderna de un Universo en evolución. La metafísica de lo Uno y de la Identidad niega el tiempo: el tiempo, en la metafísica de los Upanishad como en la de Plotino mide precisamente la caída, el descenso, la degradación de lo Uno. Y la salvación, la sabiduría, consisten en reconocer que esa procesión, que es una alienación, es ilusoria, en aniquilar tanto el tiempo como el espacio.
Creación.-
Una visión de la Evolución significa, por el contrario, que los seres empiezan realmente a existir en un momento del tiempo, y que unos radicalmente nuevos, que no preexistían de ningún modo, surgen y nacen. Al haberse renunciado a la idea india y plotiana de la preexistencia de las almas...Por tanto se está de acuerdo en reconocer que una visión como la que impone el conjunto de las Ciencias contemporáneas, de un Universo es génesis evolutiva, significa que todo nace, que todo se crea constantemente, continuamente. El hecho de la creación es el hecho más universal, más común, más constante. Cada niño que es concebido, cada hierba que brota, cada idea que nace, señalan un momento de esta creación universal y continuada. Se está en un Universo en régimen de creación, y también creador.
Conclusión Común.- Esto es el primer tiempo, el de la lectura científica común del Fenómeno (por un científico - independientemente de su contexto ideológico) de ese segmento del Fenómeno que está al alcance de la Ciencia experimental.
Agregado Materialista Uno: El científico marxista va aún más lejos. A la lectura científica del hecho de la evolución cósmica y biológica, añade una afirmación metafísica, que rebasa los datos de la experiencia: afirma que la materia es increada, eterna e infinita en el espacio y en el tiempo, que el proceso de la Evolución cósmica es eterno, indefinido, y tiene en sí mismo con que justificar su existencia y su desarrollo evolutivo infinito.
Comentario Uno.-
1) A una lectura positiva y científica de la experiencia, que efectivamente nos descubre un Universo en régimen de evolución, el marxismo añade esta tesis, que trasciende los datos de toda experiencia, y de toda ciencia, no solamente actual, sino posible, a saber, que la Evolución cósmica es eterna y ontológicamente suficiente.
2) Esta tesis no es una tesis científica, sino una tesis metafísica, y una tesis metafísica que ninguna experiencia funda ni justifica. El marxismo atribuye la aseidad a este proceso cósmico en devenir. En eso, establece una afirmación que no está contenida en lo dado, sino que lo trasciende: establece una afirmación metafísica, por no decir mística.
3) Constatar el hecho de la materia y de su evolución, estudiar esa evolución y esas leyes, es una cosa. Afirmar que esa evolución es infinita, eterna, ontológicamente suficiente; en otros términos: conferirle los predicados reservados en la teología a lo Absoluto, es otra cosa enteramente distinta.
4) Afirmar la eternidad de la materia, la eternidad del Universo, afirmar que la materia no ha tenido comienzo ni tendrá fin, es una tesis lícita, siempre que al sostenerla se reconozca que es una tesis metafísica, la cual, además, no descansa en ninguna experiencia científica, de lo eterno ni de lo infinito.
5) De hecho, hoy conocemos un Universo sobre una porción de tiempo de algunos miles de millones de años. Nada nos permite afirmar que el Universo, es decir, que el Tiempo, sea eterno. Es una afirmación metafísica que excede los datos de la experiencia científica.
6) Pero hay algo más grave que esta afirmación de la eternidad del Universo (tesis aristotélica y averroísta); es la tesis de la suficiencia ontológica de la aseidad del proceso cósmico, tesis que equivale a decir que el Universo, la Materia, el Proceso cósmico, son lo Absoluto, la suficiencia ontológica, la aseidad, la capacidad de crear.
Agregado Materialista Dos: El científico materialista se fundamenta en este concepto: Para no recurrir al Creador, concluyo que la materia prima del Universo ha sido producida naturalmente, por transformaciones del movimiento que son inherentes por naturaleza, a la materia en movimiento y cuyas condiciones, por consiguiente, deben ser reproducidas también por la materia, aún cuando sólo sea en millones y millones de años y más o menos al azar.
Comentario Dos.-
1) La materia, no solamente es increada y por tanto eterna (primera afirmación metafísica de carácter mítico) sino que además es capaz de crear, por sí misma la vida y la conciencia. Por consiguiente, la materia relativamente simple que constituía el Universo hace sólo unos miles de millones de años es capaz de dar cuenta de su desarrollo ulterior, de su complejidad, de la síntesis de la materia viva, de la creación de la vida y de las formas conscientes y pensantes de la vida.
2) Esta segunda tesis, excede radicalmente lo que científicamente está permitido decir, y además, es radicalmente mitológica: es una tesis que equivale a divinizar la materia, a concederle una “potencia”, unas “virtudes”, unos “recursos” tan ocultos y mitológicos como las divinizaciones de los elementos en las arcaicas religiones naturistas, en las que se adoraba a las Fuerzas naturales y se divinizaba la materia, la energía, la fecundidad.
3) La eternidad de la materia, y la aseidad, son dos tesis que no están fundadas en el plano científico; dos tesis que, desde el punto de vista metafísico, resultan más de la mitología panteísta que de una filosofía que pretende ser científica y racional.
Agregado Materialista Tres: El científico materialista se fundamenta en estos puntos:
1) Un ser no es suficiente... más que si debe su existencia únicamente a sí mismo. Un hombre que no vive sino por la merced de otro, debe considerarse como un ser dependiente.
2) La creación del mundo ha recibido un terrible golpe con la Geognosia, es decir, con la Ciencia, que presenta la formación de la Tierra, el devenir de la Tierra, como un proceso, como una auto - formación” (también se podría traducir: auto - evolución).
Comentario tres.- Este texto merece reflexión por varias razones.
1) Expresa el horror a la idea de dependencia ontológica. Pero guste o no , el hecho es ése: no nos hemos creado a nosotros mismos. La vida no es mi propia creación. Ese es el hecho.
2) Conviene no confundir la idea de creación u la idea de fabricación; la idea de fabricación referida a Dios es un antropomorfismo. Aquí no podemos extendernos acerca de este punto. Pero anotemos solamente que la crítica del antropofismo “Dios - fabricante” sólo se dirige a una concepción antropomórfica y demiúrgica de la idea de creación.
Conclusiones: En consecuencia frente a lo “real” el científico actúa así:
a) El materialista diviniza la materia y la Evolución y hace pasar por ciencia esta tesis mitológica, siendo así que es una afirmación gratuita no fundamentada por ninguna ciencia;
b) El agnóstico se contenta con estudiar el fenómeno), tal como éste se presenta, por lo mismo que se presenta, sin establecer ninguna afirmación metafísica acerca de la suficiencia o la insuficiencia ontológica, la aseidad, a lo Real empírico;
c) El judeo cristiano, se contentará con describir, el fenómeno (sea por estricto, apego al método científico, o por miedo a admitir su fe frente a otros, salvo en privado en escritos de divulgación); luego, en un segundo momento , y distinto, de su reflexión, hará una afirmación metafísica que le llevará a reconocer que, lo Real en gestación no es ontológicamente suficiente sino que se funda en Otro, que es Creador (e increado, a su vez).
Consecuencias:
1) El concepto científico de Evolución no se opone, pues, de ninguna manera, al concepto metafísico de creación. Por el contrario, el concepto científico de evolución representa, para el científico creyente, el anverso experimental del concepto teológico de creación: la evolución es la creación que está haciéndose ante nuestros ojos y en la que participamos, si queremos.
2) El concepto de evolución se ha opuesto, en el siglo pasado, y aún hoy en algunos espíritus anacrónicos, a una concepción infantil de la creación (creación - fabricación, discontinua, instantánea, etc.) tomada de la imaginería del autor de las primeras páginas del Génesis. La idea de creación no está ligada a esa imaginería. La idea de creación significa esencialmente que el Mundo no es lo Absoluto, que lo Absoluto no es el mundo, que nosotros no somos parcelas ni fragmentos de lo Absoluto, sino que la creación del mundo representa un don del Creador, que trata de elevar hasta su Vida a otros seres, llamados a convertirse, como El, a su imagen, en creadores.
3) La creación del hombre tampoco constituye problema en la perspectiva de la Evolución. El texto bíblico que abre el libro del Génesis expresa, como es normal, la idea de que Dios ha creado al hombre, según los términos de que disponía un narrador de la época, con la imagen del alfarero que modela una estatuilla. Apoyarse en la imagen a expensas del sentido es dar prueba de tosquedad al autor de ese texto por un primitivo que no sabe distinguir lo que quiere decir de la manera como lo dice.
Lo que importa, el sentido, de ese texto es que, el hombre no se ha creado él solo, sino que Dios lo ha creado. La imaginaría utilizada para expresar esta idea no está ligada a la idea. Hoy sabemos cómo apareció el hombre: por una mutación brusca de una especie anterior. No hay dificultad real, si se reconoce, como hace el científico cristiano, y Theilhard en particular, que la creación es coexistente a la Evolución entera, es decir, una vez más, que la Evolución manifiesta - mediante una sucesión de epifemómenos - la creación que se hace.
LA CIENCIA SUPERNATURAL
A finales de la década de los ochenta, el británico David Foster, profesor de filosofía de la ciencia en el King College de Londres da a conocer su obra “ The Philophical Scientist” en la que plantea el desarrollo de una forma de pensar el Universo que se inicia en lo que el denomina “ El Club de Cambridge”, que estaría integrado por cuatro investigadores de renombre que coincidieron en un punto: la materia del Universo es el resultado del pensamiento y ese pensamiento es de carácter sobrenatural. Estos cuatro investigadores fueron el astrónomo Arthur Eddington, el cosmólogo James Jeans, el filósofo Bertrand Russell y el matemático Arnold M. Whitehead, quienes trabajaron -desde el ángulo de la filosofía de la ciencia- sobre cuatro descubrimientos revolucionarios:
1) La Ley de la Relatividad Especial de Einstein que estatuiría matemáticamente que un objeto moviéndose a velocidad de la luz tendría infinita energía e infinito peso, lo que luego se confirmó en laboratorios.
2) La Ley de la Relatividad General de Einstein, que planteaba ya no la acción a distancia de la atracción gravitacional, sino que la masa distorsionaba el espacio - tiempo, curvándolo de tal manera que ésta parecía ser atraída por una fuerza gravitacional distante. En el laboratorio no se podía observar esta hipótesis, pero en las ecuaciones matemáticas se confirmaría más tarde en las observaciones astronómicas, que permitieron observar durante los eclipses solares que los rayos de luz procedentes de estrellas distantes se “doblaban” al pasar cerca del Sol.
3) La Teoría cuántica planteada por Max Plank quien planteaba que la radiación es emitida en “paquetes de energía” de magnitudes mesurables e invariables y esta teoría fue ratificada por planteamientos y las demostraciones matemáticas posteriores.
4) El Principio de Incertidumbre postulado por Werner Heisemberg para demostrar que en micro eventos físicos si se tienen dos parámetros dados, por ejemplo posición y velocidad, es posible obtener el valor exacto de un parámetro, pero sólo a expensas del segundo y viceversa. Este planteamiento venía a señalar la imposibilidad de relacionar mecánicamente causas y efectos en tales niveles y pudo demostrarse posteriormente por probabilidades matemáticas.
Para el Club de Cambridge todos estos puntos eran oscuros, pero en todas las matemáticas permitían aclararlos. De allí infiere Foster una serie de hipótesis derivadas para ir creando - paso a paso - planteamientos fundamentados en demostraciones matemáticas y en demostraciones empíricas tomadas de la biología molecular y de la segunda ley de la termodinámica y concluye con sus propias deducciones, todas, sin embargo enraizadas en las líneas capitales de los ideas de los cuatro ya citados:
• Eddington :La materia del Universo es el Pensamiento;
• Jean :El pensamiento del Universo es obra de un Ente Superior Matemático;
• Russell : La Matemática y la Lógica son idénticas) obsérvese que el término lógica en inglés alude a LOGOS y éste a Verbo y a su vez Verbo alude a Dios;
• Whitehead : El pensamiento (que es la materia del Universo) está ordenado en jerarquías y éstas, a su vez interactúan por leyes.
Estas ideas fueron -en buena parte- precursoras unas y contemporáneas otras- con la concepción de la nueva cultura que preconizaba Snow.
Los planteamientos para su propia aportación en lo que Foster denomina” La Ciencia Supernatural” son relativamente simples y van siendo tejidos paso a paso a partir de verdades demostradas. En lo que interesa bajo el título : Espacio - Logos y Creación plantea estas conclusiones:
1) La Teoría de la Relatividad de Einstein interpreta que la masa - energía es un equivalente a la distorsión del espacio - tiempo (esto es conocido en física como el tensor - materia de Einstein T ) el que hizo equivalente a una interpretación geométrica equivalente a masa, energía y “momento”, en que la densidad de la masa y la energía pueden ser concebidas en términos de la curvatura de una cuarta dimensión en la métrica de la Geometría de Riemann.
2) Esa curvatura es particularmente alta en las porciones del espacio - tiempo en las que hay materia presente y se desvanece en los sitios en donde no hay materia, lo que significa que la masa puede hacerse equivalente matemáticamente a la curvatura del espacio. (Ley de Equivalencia de la Masa - Espacio).
3) Esta situación puede interpretarse de dos formas:
a) Si se asume la presencia de masa, el espacio se curva a su alrededor, o bien; b) Si existe un espacio curvado, éste se puede llenar de materia; c) Esto hace surgir la pregunta:¿ Cuál es la verdad primordial?, o bien plantearse si se está frente a un clásico: ¿Qué es primero, el huevo o la gallina....? Si por la acción de un agente externo el espacio debe curvarse, entonces éste crearía materia en el foco de la curvatura. Esa situación se resuelve si el Universo es un acto obra del pensamiento y por lo tanto la creación (materia) es un acto de pensamiento.
4) La idea de que el pensamiento es una forma del espacio es antigua: puede sustraerse en Platón, fue desarrollada por Kant y más modernamente por Hinton y Ouspesky y parte de esta lógica simple:
a) el pensamiento es forma;
b) el espacio (real o imaginario) es el medio para la forma.
c) el pensamiento es la forma del espacio;
d) si el Universo puede crearse por darle forma al espacio y hay un agente externo capaz de hacerlo, éste es sobrenatural;
e) una vez generado el acto el agente externo (Foster lo denomina LOGOS y más tarde lo identifica con el concepto Dios), desaparece.
5) El agente externo sobrenatural no requiere gastar energía pues actúa simplemente como catalizador (Foster acude a la representación de una especie de energía pues gira a la vez como las manecillas de un reloj y en sentido contrario y se auto anula, desapareciendo y la asemeja al principio de la materia - antimateria que ya no es ninguna idea extraña, pues ha sido pensada matemáticamente y comprobada en el laboratorio).
6) Para comprobar este planteamiento Foster dice que si se toman dos energías que rotan en sentido contrario se desvanecen y si se toma, por ejemplo “NADA” y se causa una polaridad complementaria se obtiene Energía - y en este caso bajo consideración - esta complementariedad ha sido observada en el laboratorio aplicada en la microfísica al electrón, al protón y al neutrino y sus opuestos polares. Y es que la realidad en el mundo físico consiste en el establecimiento de opuestos complementarios y este sistema básico se da entre la masa y el espacio curvado (como en la dualidad de la luz que se comparta como partícula (el fotón) o como onda ( la forma del espacio - tiempo).
También Foster se preocupa por aliviar la tensión entre Fe y Ciencia y propone que si se desea incorporar la ciencia supernatural en el modelo religioso es posible hacerlo dentro de la teoría cibernética moderna, para lo cual se requiere únicamente entender tres niveles de organización del pensamiento creador:
• El primero sería: Dios como Programador Cósmico: omniscente; omnipotente; pensamiento invisible, que sería con libertad para: programar o no programar; o para programar selectivamente de acuerdo a su propia conciencia.
• El segundo sería: Logos como un Programa Maestro (La Palabra o el Verbo) actuando como “Interfase” entre Dios y la Naturaleza para suministrar la especificación de todas las constantes cósmicas.
• Y el tercero que estaría constituido por la Naturaleza (La Creación) que sería visible, sistematizable y analizable por: a) materia ordenada en niveles; b) materia jerarquizada.
La analogía con una Computadora sería, entonces:
a) Programador Cósmico: Dios;
b) Programa: Logos;
c) Procesamiento visible (o “Print - Out”): Naturaleza.
Por último Foster expresa que la religión, como el hecho más visible de la fe comenzó a declinar por varias razones históricas en que distingue cuatro hitos:
a) Los grandes errores de la Iglesia en el Medioevo (particularmente con Galileo);
b) La aparición de los planteamientos de Darvin que atribuyeron la evolución al azar, lo que demuestra es erróneo, porque tienen una causa;
c) La aplicación de la Segunda Ley de la Termodinámica bajo la idea de que el Universo está en proceso de destrucción hasta llegar a su muerte;
d) La aparición de modelos positivistas deterministas, ausentes de valores superiores.
A los planteamientos de Foster se pueden agregar las ideas expresadas por tres autores muy recientes cuya formación y disciplinas académicas son muy disímiles; así como también son muy diferentes los contextos espirituales o materialistas en que ubican sus propuestas:
1.- Propuesta de Remy Chauvin, Profesor de Biología de la Soborna, en 1990:
Tras decenios de anquilosis darwiniana no es fácil pretender pensar de nuevo, plantear la naturaleza tal y como es; pero es preciso entender que los científicos fueron maltratados por los teólogos autosuficientes que pretendían hablar en nombre de Dios y cuando hubo la oportunidad los científicos respondieron con orgullo semejante y aunque en el origen Iglesia y Ciencia no fueron enemigos,' la ruptura fue progresivamente consumada: con rabia los científicos dijeron que no había Dios; que un azar ciego regía la Naturaleza; que la Humanidad estaba vacía de sentido. Pero ahora todo ha cambiado:
a) Los cosmólogos nos han revelado la existencia de un comienzo de todas las cosas, que los religiosos habían dicho siempre;
b) Los biogenéticos han demostrado que la vida tenía que aparecer por fuerza (dadas las condiciones precisas) y no por azar;
c) Ahora nos hemos vuelto menos orgullosos, a medida que nos hacíamos más sabios y que sabemos que existe una dirección que el Universo está ordenado conforme al principio antrópico, no tanto conforme al hombre, sino a su conciencia: ¿Nos conducirá hasta el Ingeniero Supremo y Sutil?
d) Ahora somos conscientes de que estamos ordenados conforme a tres infinitos: lo infinitamente pequeño; lo infinitamente grande y el infinito de la complejidad que planteó Theilhard de Chardin y ese infinito reside en el cerebro humano;
e) El cerebro y la conciencia están en el Universo y representan la evidencia del Universo pensándose a sí mismo. La posición de la conciencia es, pues, absolutamente decisiva;
f) Como señalan las preguntas del cosmólogo Wheler, podría suceder que el Universo no pueda aparecer más que a condición de garantizar la producción de un acto de observación en cualquier lugar y en cualquier momento de su vida futura....; o bien que el papel del observador de la mecánica cuántica representa la piedra de apoyo de las leyes de la física y por lo tanto de las propias leyes del tiempo y del espacio. (8)
2.- Propuesta de Jean Guitton , Profesor de Filosofía de la Soborna, en 1990:
En la obra “ Dios y la Ciencia” del filósofo francés Jean Guitton, quién auxiliado por los físicos Igor y Gritchka Bogdanov, proponen en 1991 una síntesis que busca precisamente el alivio de la tensión entre los escarceos de la ciencia y las inquietudes del creyente, recurriendo en este caso a los últimas teorizaciones debidas a físicos cuánticos, así como al fenómeno de la integración Cosmos - conciencia en donde la tarea del cosmólogo consiste en descifrar el código en que está escrito el mensaje del Universo .
3.- Propuesta de William Lane Craig, Profesor de Teología de Oxford, en 1996:
El ser humano, en ese Universo, no es un ser extraño, implantado, producto del azar, sino, todo lo contrario, pues está precisamente regulado a partir de grandes constantes, de normas, leyes absolutas que se descomponen en materia, luego en energía y finalmente en información, y esa información está calculada para dar cabida al fenómeno humano, como lo denominaba Theilhard de Chardin o principio antrópico, como lo denomina el cosmólogo Brandon Carter, compañero de Stephen Hawking y aunque sea a la distancia, sin haberse conocido ni hablar la misma lengua dos seres privilegiados Theilhard y Hawking, pueden, con buena voluntad de nosotros - observadores - darse fraternalmente la mano, aunque sea en la realidad virtual, que para el caso equivale a la llamada realidad.
El materialismo plantea que el Universo es eterno, incausado, indestructible e incorruptible, lo cual no ha sido demostrado y - además - a esa posición se le puede oponer el argumento cosmológico cristiano, que si bien es de antigua data y ha tratado de ser refutado en muchas oportunidades sigue teniendo valor. Este puede plantearse - bajo la forma de una argumentación “KALAM” ( término tomado de una tesis teologal islámica del Medioevo) - según esta secuencia de pasos lógicos:
Postulado: Cualquier cosa que comienza a existir, tiene una causa detrás de ello. El Universo comenzó a existir.
Demostraciones:
Primer argumento (basado en la imposibilidad de un infinito actual):
a) Un infinito actual no puede existir.
b) Un infinito temporal regresivo de eventos es un infinito actual.
Primera conclusión: En consecuencia, un infinito temporal regresivo de eventos no puede existir.
Segundo: Argumento basado en la imposibilidad de la formación de un actual infinito, por adición sucesiva.
a) Una colección integrada por adiciones sucesivas no puede ser infinito actual.
b) Las series temporales de eventos pasados es una colección formada por adición sucesiva.
Segunda conclusión: En consecuencia la serie temporal de eventos pasados no pueden ser infinito actual.
Demostración: Por lo tanto, el Universo tiene una causa que origina su existencia,
Luego de una extensa argumentación para fortalecer los criterios de Popper -en quien se apoya- o para refutar las argumentaciones de Mackie, y Sorabiji, (entre otros filósofos citados) -y a quienes refuta- Craig busca la confirmación de su planteamiento en dos propuestas con fundamento científico y en una refutación con fuerza argumentativa.
• Primera Confirmación Científica: Se basa en el proceso de expansión observado por Hubble y confirmado en diversas circunstancias; así como en el hecho que el nacimiento del Universo es un evento único - esto es no se trata de una expansión - contracción cíclica - y que, por otra parte, de acuerdo a las conclusiones de los astrónomos Sandage y Tanmann: “...parece inevitable que el Universo se expandirá por siempre..., de lo que se deduce que éste ha aparecido una sola vez”.
• Segunda Confirmación Científica: Se basa en la segunda ley de la termodinámica y en el hecho que tomando el Universo como un sistema cerrado, este tiende a aumentar su entropía y a disiparse en radiación y partículas elementales en el remoto futuro. Además si el Universo hubiese sido infinito habría ya llegado a ese punto de muerte térmica. Para este punto cita a los astrónomos Zeldovich y Novikow: “de existir un ciclo expansión-contracción, el modelo multicíclico tiene un futuro infinito; pero solo un pasado finito” ... porque ... “ cada ciclo genera menos entropía, tiene un ciclo de duración menor y el ciclo expansivo es también cada vez menor que el que le hubiese antecedido”.
Refutación Argumentativa: Para Craig las afirmaciones de los cosmólogos Hoyle y Davies acerca de la creación proveniente de la nada (aplicada al Universo como una extensión de la creación de partículas subatómicas, como resultado de una “transición cuántica”) no es demostrativa de la carencia de causación. Por lo contrario, el que no pueda medirse la causa ni afirmarse nada respecto de ella, no implica su inexistencia.
Consecuencia: Craig - una vez que demuestra con los argumentos científicos citados - la causación del Universo y hace la refutación argumentativa, concluye con estas propuestas:
• El Universo tiene una causa que le ha hecho existir, esto es, ser creado;
• Si la causa fuera simplemente mecánica (por ejemplo una serie de leyes físicas existentes desde la eternidad), el efecto, esto es, el Universo, habría también existido desde siempre;
• La única forma de que un agente causal pueda crear un efecto temporal (el Universo), es que elija, por sí mismo la creación de un efecto en el tiempo, sin que por eso la causa sea afectada; 4) La causa no afectada debe ser no causada, eterna, no cambiable, fuera del tiempo e inmaterial;
• Por lo tanto sobre la base del argumento cosmológico Kalam, se concluye que es racional (y no solo un acto de fe, anclado en la voluntad) la creencia en la existencia de Dios Creador.
Adicional es necesario señalar que si bien los argumentos de Craig son correctos según la lógica argumentativa (al igual que mucho autor teológico), de que las citas bibliográficas las hace con base en publicaciones de divulgación científica , como sucede en nuestro caso que lo que buscamos es nada más que hacer divulgación del acontecer en el campo de la cosmología y las disciplinas conexas envueltas en este esfuerzo.
Una crítica que se hace a Craig de parte de sus detractores es que no fundamenta sus planteos sobre los argumentos científicos propiamente dichos. Por lo tanto, la fuerza de los planteamientos filosófico-teológicos se debilita innecesariamente y pone de manifiesto la necesidad de que los teólogos profundicen en los escritos científicos originales - esto es en las hipótesis y teorías de primera línea- para que el debate se establezca en el mismo nivel, aunque luego, por métodos divulgativos, se vulgarice la argumentación.
¿POR QUE ES EL UNIVERSO TAN ORGANIZADO?
Para el físico-norteamericano Doyme la segunda mitad del siglo XX ha surgido la opinión de que la vida y la conciencia son resultados naturales e inexorables de las propiedades emergentes y de autoorganización del mundo físico. Gracias a la física la ciencia exhibe muchos logros, pero ha dejado también grandes vacíos. Expresa Doyme que este cambio fundamental en nuestra visión de la conciencia y la vida nos ofrece una nueva perspectiva de nosotros mismos, de nuestras creencias y de nuestra comprensión de cómo encajamos en el universo. En esta reseña hemos divido en cuatro partes el pensamiento de Kauffman ,que es de suma importancia para entender cómo es que nos insertamos en este Universo,aunque obviamente queda abierta la respuesta a otra interrogante vital: ¿Para qué estamos en este Universo?. Veamos que nos dice Doyme
PROPUESTA GENERAL.- Nuestro conocimiento está todavía muy fragmentado, y aguardamos grandes progresos en lo que concierne a las teorías integradoras. Ha habido pocas discusiones serias sobre el impacto de esta nueva perspectiva en la filosofía o la sociología. Pero se está enraizado rápidamente, y el cambio es profundo. Más que nunca, se está haciendo imposible contemplar seriamente cualquier cuestión filosófica o social sin tener en cuenta los recientes avances de la ciencia.
Tradicionalmente la física, en su atención a los problemas simples, se ha centrado enteramente en los aspectos inmediatos y directos de la materia y la energía. Lo que hace que las cosas se muevan, que se calienten o se enfríen. Y se ha centrado en fenómenos como la atracción, repulsión, colisiones y ondas. El aspecto material del mundo, que desemboca en ideas fundamentales como la curvatura del espacio-tiempo, la naturaleza cuántica de la realidad, el principio de incertidumbre. Todo relevante para las grandes cuestiones.
Las grandes cuestiones inevitablemente giran en torno a la naturaleza de la vida y la inteligencia. Mientras que la física moderna puede decir que la ciencia contiene necesariamente un elemento subjetivo, no dice nada de la naturaleza o los orígenes de la conciencia. Parece que la física fundamental está bloqueada. Los físicos de partículas se dedican a hacer colisionar partículas cada vez con más fuerza, intentando descubrir cuántos quarks pueden bailar en la punta de una aguja. Los cosmólogos trabajan con muy pocos hechos, debatiendo acerca de la esencia del universo sobre fundamentos que a mí me parecían esencialmente religiosos. Y la mayoría de físicos todavía se centran en atracciones y repulsiones, en las propiedades informáticas. Por propiedades informáticas se entiende todo lo relativo al orden y el desorden. El desorden se comprende bastante bien; el orden, en cambio, no. Lo fascinante del caos es que explica una parte del desorden del mundo, cómo pequeños cambios en un momento dado tienen un enorme efecto en el futuro. Y demuestra que leyes matemáticas simples pueden dar lugar a comportamientos complejos. Explica por qué cosas muy simples pueden ser difíciles de predecir -tanto que parecen comportarse de manera aleatoria, pero por otra parte hay que tomar nota de que la teoría del caos no se encuentra aun lo bastante desarrollada como para resolver problemas que no son nada fáciles de abordar.
¿ AUTOORGANIZACION ?.- La meta es hallar lo que podría llamarse “la segunda ley de la autoorganización”. Lo de “segunda ley” hace referencia a la segunda ley de la termodinámica, que afirma que existe una tendencia inexorable hacia el aumento de entropía -en otras palabras, que los sistemas físicos tienden a desordenarse-. La paradoja que inmediatamente le choca a cualquiera que sabe de la existencia de la segunda ley es ésta: si los sistema tienden a hacerse más desordenados, ¿por qué entonces vemos tanto orden a nuestro alrededor?
Si en vez de desorden tenemos orden, es obvio que debe haber algo más que las leyes fisicas estudiadas. . En particular, el orden del Universo parece entrar en conflicto con nuestro “mito de la creación”: “En el principio hubo una gran explosión. Súbitamente se creó una enorme cantidad de energía y el universo se expandió para formar partículas. al principio las cosas eran totalmente caóticas, pero con el tiempo comenzaron a formarse estructuras complejas: moléculas complicadas, nubes de gas, estrellas, galaxias, planetas, formaciones geológicas, océanos, metabolismos autocatalíticos, vida, inteligencia, sociedades...”. Si nos quedamos con una cualquiera de las etapas de este relato, con suficiente información podemos comprenderla sin invocar ningún principio general, Pero si damos un paso atrás, vemos que hay una tendencia general a que las cosas se hagan más organizadas con independencia de los detalles particulares. Quizá no en todas partes, solo en ciertos lugares y en ciertos momentos. Y es importante subrayar que nadie está diciendo que la segunda ley de la termodinámica no sea cierta, sino que hay un proceso que sirve de contrapunto y que organiza las cosas a un nivel superior.
A este orden que exhibe el Universo se le suele aplicar como explicación que es que todo depende de una serie de “accidentes cósmicos” desconectados. En otras palabras:
a) la emergencia de la organización en el universo depende de una serie de detalles altamente improbables e independientes.
b) la emergencia de la vida es un accidente sin ninguna relación con la emergencia de todas las otras formas de orden que vemos en el universo.
c) la vida sólo puede darse si las leyes físicas son exactamente tal como son en nuestro universo, y cuando las condiciones son casi exactamente las que hay en nuestro planeta.
Para muchos de nosotros esta explicación no es plausible. Y nos preguntamos:
¿Por qué tiene que haber tantos tipos diferentes de orden? , ¿Por qué tiene que ser nuestra situación tan especial? Parece más plausible asumir que “los accidentes tienden a suceder”.
De acuerdo: un accidente automovilístico individual puede parecer cosa de mala suerte -de hecho, la mayoría de accidentes automovilísticos pueden parecer cosa de mala suerte- pero esperamos un número promedio de ellos al año. Pero tenemos otra visión: nuestra impresión es que la progresión de estados de organización creciente en la evolución desde las nubes de gas hasta la vida no es un accidente.
Surge una necesidad vital: lo que queremos es comprender lo que tienen en común, la fuerza motriz universal que hace que la materia se organice espontáneamente. Este punto de vista no es nuevo. Ya fue expuesto en el siglo XIX por Herbert Spencer, que escribió sobre evolución antes que Darwin y acuñó las expresiones “supervivencia del más apto” y “evolución”. Spencer defendió la manera muy expresiva la ubicuidad de estos procesos de autoorganización, y se basó en esas ideas para componer una teoría sociológica. sin embargo, no fue capaz de formular matemáticamente estas ideas o fundamentarlas en primeros principios. Y nadie más ha sido capaz, tampoco. Este es quizás el problema central en el estudio de los sistemas complejos.
Muchos de nosotros creemos que la autoorganización es una propiedad general -del universo desde luego, y de modo aún más general de los sistemas abstractos que podemos llamar “sistemas complejos adaptativos”. Los sistemas complejos adaptativos tienen la propiedad de que si hacemos que evolucionen -para lo cual no hay más que dejar que la variable “tiempo” avance-, progresarán de modo natural desde estados caóticos, desorganizados, indiferenciados e independientes hasta estados organizados, altamente diferenciados e interdependientes.
Las estructuras organizadas emergen espontáneamente, sólo hay que dejar que el sistema se ponga en marcha.
Naturalmente, algunos sistemas se organizan más que otros, o a un nivel más alto, y en todo esto habrá una cierta cantidad de azar. La progresión del desorden a la organización procederá a rachas, e incluso puede revertir de vez en cuando, como en la evolución natural. Pero en un sistema complejo adaptativo la tendencia general será hacia la autoorganización.
Los sistemas complejos adaptativos son algo especiales, pero no extremadamente especiales: el hecho de que puedan verse formas simples de autoorganización en muchas simulaciones informáticas diferentes sugiere que hay muchos sistemas complejos adaptativos “débiles”.
Un sistema débil da lugar sólo a las formas de autoorganización más simples; uno fuerte da lugar a formas más complejas como la vida. La distinción entre débil y fuerte puede también depender de la escala: aunque algo como la máquina colectiva de Danny Hillis es grande, no es nada comparado con el número de Avogadro de procesadores que la naturaleza tiene a su disposición.
¿ QUE ES LA ORGANIZACIÓN? .- Para Doyme que se plantea la pregunta y concibe sus propias respuestas, que no necesariamente han de ser compartidas por otros científicos que abordan el asunto resulta que:
a) No sabemos lo que es la “organización”, no sabemos por qué algunos sistemas son adaptativos y otros no, no sabemos de antemano si un sistema es débil o fuertemente adaptativo, o si hay un grado de complejidad mínimo que debe tener un sistema para ser adaptativo. Solo sabemos que los sistemas complejos adaptativos tienen que ser no lineales y capaces de almacenar información. También sabemos las partes tienen que ser capaces de intercambiar información, pero no demasiada. Y sabemos si, que el mundo físico, esto equivale a decir que tienen que estar a la temperatura adecuada: ni demasiado calor ni demasiado frío. Muchas simulaciones en los ordenadores muestran esto -de hecho, encontrar la temperatura adecuada fue uno de los progresos en nuestra simulación de metabolismos autocatalíticos.
b) Conocemos algo de lo que distingue un sistema complejo adaptativo de in sistema complejo no adaptativo, como un fluido turbulento, pero la mayor parte es ciencia popular, evidencia anecdótica basada en unas pocas observaciones registradas en términos vagos e indefinidos. Si se acepta la tesis básica de que la vida y la inteligencia son el resultado de una tendencia natural del universo a organizarse a sí mismo, entonces nosotros no somos más que una fase transitoria, un paso en esta progresión.
c) Uno de los factores de la pérdida de popularidad de las ideas de Spencer fue el darwinismo social -la idea de que quienes eran saludables y poderosos lo eran porque de alguna manera eran “aptos” por naturaleza, mientras que los oprimidos no lo eran- que no era sino una pobre extensión de la biología a la evolución social, basada en una escasa comprensión del funcionamiento real de la evolución. La evolución social es diferente de la evolución biológica: es más rápida, es lamarckiana, y hace aún más fácil el altruismo y la cooperación que la evolución biológica. Nada de esto fue bien comprendido en su momento.
d) Otra consecuencia lógica de la perspectiva evolutiva es que los seres humanos no son el punto final del proceso. Todo está evolucionando constantemente. En este momento, sucede que somos el único organismo con un grado de inteligencia lo bastante alto como para tener la capacidad de ejercer un control máximo sobre nuestro medio ambiente. Eso nos faculta para realizar algo notable: cambiar la evolución misma. Si queremos, podemos usar la ingeniería genética para alterar el carácter de nuestra descendencia.
e) A medida que conozcamos mejor los detalles del genoma humano, es casi seguro que la utilizaremos para prevenir enfermedades. Y estaremos tentados de ir más allá de eso, quizás incrementando la inteligencia. Habrá un intenso debate, pero con la superpoblación, una menor necesidad de trabajo no cualificado y manual, y la presión de las inteligencias cibernéticas, la motivación para hacer esto acabará siendo abrumadora.
f) Las inteligencias cibernéticas son una consecuencia de la idea de que la autoorganización y la vida son los resultados naturales de la evolución en un sistema complejo adaptativo. Estamos creando rápidamente una extraordinaria Cápsula de Petri de Silicio para la evolución de la inteligencia. Hacia el año 2025, si el progreso de la tecnología informática continúa al ritmo actual, probablemente tendremos ordenadores cuyo poder de procesamiento excederá el del cerebro humano. También es probable que haya más ordenadores que personas. Es difícil imaginar de forma realista un mundo de ciberinteligencias y seres humanoides superinteligentes. Pero un mundo así es la consecuencia natural de los sistemas complejos adaptativos, ya que una de las propiedades sorprendentes de la evolución es que transcurre cada vez más rápido. Donde se ve esto de manera más vívida es en la evolución de las sociedades y una vez podamos manipular nuestro propio genoma de manera lamarckiana, la tasa de cambio será pasmosa.
g) La física nos demuestra que podemos construir una imagen coherente del universo partiendo de principios básicos a menudo muy simples. Nos basta con la mecánica de Newton para entender el movimiento de los cometas y predecir sus trayectorias. Se trata de leyes deterministas, en las que dadas ciertas condiciones iniciales, si nos referimos al cometa serían la posición y velocidad, el futuro del sistema está ya definido. Determinismo y predicción parecen indisociables. Pero el determinismo newtoniano se tambaleó con la llegada de la mecánica cuántica. Esta nos hizo ver que el mundo microscópico de los átomos y las partículas elementales posee un límite más allá del cual las certidumbres se convierten en probabilidades.
h) Ya entrada la segunda mitad del siglo XX, un nuevo marco conceptual vendría a introducir nuevos elementos en el cuerpo teórico de la ciencia. Gracias a los trabajos de Illya Prigogine y sus colaboradores, de la Universidad Libre de Bruselas, comenzaron a aplicarse herramientas de la física al estudio de sistemas complejos alejados del equilibrio, fueran éstos químicos o biológicos. Habíase observado que, en determinadas reacciones químicas y bajo condiciones adecuadas, un sistema que de suyo debería tender hacia un estado de equilibrio homogéneo mostraba oscilaciones periódicas macroscópicas y adquiría unas sorprendentes estructuras espaciales en forma de ondas espirales. Semejante resultado no parecía compatible con la interpretación estricta de la segunda ley de la termodinámica, que nos dice que la entropía y, por tanto, el desorden aumentan siempre. Nada tiene, pues de especial que la información relativa a esos fenómenos se recibiera con escepticismo, si no con incredulidad.
i) Con el descubrimiento del caos determinista en sistemas dinámicos simples, se demostró que, tras fenómenos manifiestamente complicados, subyacía un orden oculto. Una sola ecuación determinista podía generar dinámicas aparentemente aleatorias o erráticas que jamás se repetían. Y lo que era aún más sorprendente: los fenómenos caóticos eran, pese a su carácter determinista, impredecibles. Bastaba una imprecisión mínima en nuestro conocimiento de las condiciones iniciales (por ejemplo, en las variables climáticas locales en un instante dado) para que aquella se propagara exponencialmente hasta convertir la predicción en pura entelequia, alejada de la evolución real. Se había puesto la primera piedra de una futura teoría de la complejidad.
COMPLEJIDAD.- Según Doyme, complejidad no es- necesariamente- sinónimo de complicación. Lo que sí se exigía era abandonar la intuición lineal de los fenómenos y reemplazarla por una visión del mundo basada en la no linealidad. A finales de los ochenta, el empleo de ordenadores cada vez más potentes, sumado al desarrollo de nuevas herramientas matemáticas, permitía comprobar que tanto la geometría como la dinámica de muchos sistemas naturales podían abordarse desde enfoques simples. Por tanto:
a) Se fue aceptando la existencia de propiedades emergentes, que aparecen en un sistema no lineal como resultado de la interacción entre sus partes y que no pueden explicarse a partir de las propiedades de sus elementos componentes.Se trata, en definitiva, de sistemas complejos, y como tales sus propiedades emergen de las interacciones entre sus elementos componentes. Muy pronto se comprendió que los sistemas complejos aparecen a medio camino entre el orden y el desorden. Por un lado, el orden es necesario para almacenar información y mantener la estabilidad de las estructuras. Pero también se precisa flexibilidad en la transmisión de información.
b) Recientemente, y desde enfoques distintos, se ha propuesto una hipótesis general acerca del origen de la complejidad. La han elaborado, entre otros, Jim Crutchfield, de la Universidad de California en Berkerly, Stuart Kauffman, del Instituto de Sistemas Complejos de Santa Fe, Chris Langton, del Centro de Estudios No Lineales en Los Álamos, y Per Bak, del Laboratorio Nacional de Brookhaven. La hipótesis de la frontera del caos, como se la denomina, establece que la complejidad aparece en unas condiciones muy especiales, conocidas desde antaño por la física: los puntos críticos en los que tienen lugar las transiciones de fase. Los sistemas complejos serían el resultado de una evolución hacia dichos puntos.
CAOS.- Un punto interesante y nuevo para Doyme es que : el papel de las propiedades emergentes y su aparición en las proximidades de puntos críticos han movido a algunos a pensar que la evolución biológica a gran escala, la macroevolución, se desarrolla en la frontera del caos y señala que varias líneas de prueba respaldan esta idea. Por un lado, la fluctuación temporal del número de familias de algunos grupos biológicos es compatible con lo que cabría esperar de un sistema crítico. Por otro, el proceso evolutivo origina una filogenia que podemos representar en forma de árbol que va ramificándose conforme van apareciendo nuevas especies (u otros taxones). Esta estructura dendriforme es fractal. Lo ha demostrado Bruno Burlando, de la Universidad de Génova, quien ha analizado las relaciones existentes entre distintos niveles taxonómicos (especie-género, género-orden, etc.) y ha descubierto que las regularidades que aparecen en las relaciones entre grupos taxonómicos revelan la existencia de leyes invariantes, aun cuando se cambie la escala taxonómica. Así, un resumen de la situación mostraría estos hechos:
a) Si contamos el número de géneros que contienen una, dos o más especies, vemos que aparecen ordenados siguiendo una distribución potencial, característica de las estructuras fractales. Disponemos, además, de una información valiosa acerca de la dinámica de la evolución: los espectros de extinción de especies en el tiempo y el alcance de tales episodios.
El 99,99 por ciento de las formas vivientes que han aparecido sobre la Tierra se han extinguido. Los procesos de adaptación de las especies al medio y de extinción aparecen íntimamente imbricados en la teoría darwinista de la selección natural.
b) Existen varios tipos de transición de fase, observables en sistemas físicos químicos y biológicos. Las transiciones de segundo orden están asociadas a sistemas que, al alcanzar el punto crítico, pierden algún tipo de simetría. El cambio de un estado a otro se produce entonces de forma suave, continua. Hemos supuesto que se ajusta externamente un parámetro, la temperatura, con el fin de acceder al punto crítico.
c) Pero, ¿puede un sistema complejo alcanzar espontáneamente dicho punto? Esta pregunta - nos dice- ha sido resuelta de forma muy satisfactoria por el físico danés Per Bak, quien introdujo en 1988 la noción de criticalidad autoorganizada. Frente a un medio cambiante, las especies capaces de adaptarse, en las que se supone cierta variabilidad en el seno de la población, dejan descendencia, mientras que las menos aptas desaparecen. Si la adaptación confiere ventaja a la especie, cabe entonces presumir que los grupos más persistentes serán los menos propensos a desaparecer, dado que se hallan mejor adaptados al ambiente. Pero del análisis de los patrones de extinción se desprende, por contra, algo muy distinto. La probabilidad de extinción de un grupo cualquier se muestra constante a lo largo del tiempo, y no depende de cuánto llevara existiendo en el planeta. ¿Cómo resolver esta paradoja?
d) A principios de los setenta Leigh Van Valen, de la Universidad de Chicago, propuso un enfoque alternativo de la evolución. En su teoría, Van Valen considera las interacciones entre especies como una carrera de armamentos, en la que cada componente, cada especie, intenta mejorar su posición dentro del ecosistema. Ello significa que, además de interaccionar con el medio físico, interacciona con el ambiente biótico, entendiendo por tal las restantes especies. Un cambio en la situación de una especie inducirá cambios en las demás; la alteración operada en estas influirá, a su vez, en la primera, que, por consiguiente, deberá experimentar otro cambio, y así en idas y venidas sin fin.
e) Ese proceso de mutua interferencia admite una formalización en el marco de la teoría de juegos. En el marco de ésta, llegamos a la conclusión de que la especie cambia solo para persistir; la selección natural no mejora la adaptación de la especie: sólo la mantiene.
Las especies incapaces de cambiar con la celeridad necesaria se extinguen.
Por consiguiente, lo que vemos en el curso de la evolución de las especies son los elementos de un sistema complejo, en el que lo único importante es seguir jugando.
f) De ahí que a esta argumentación de Van Valen se la reconozca por hipótesis de la Reina Roja (en referencia al célebre personaje de Lewis Carroll, que le explica a Alicia cómo, para permanecer en el sitio, no hay que dejar de correr). Una consecuencia a la que llega el modelo matemático es, justamente, que las tasas de extinción son constantes. Bajo esa equiprobabilidad de duración de las especies que aflora en la piel de la macroevolución podría ocultarse una dinámica intrínseca. Stuart Kauffman ,un biólogo teórico que trabaja en el Instituto de Santa Fe, California, ha elaborado un modelo de evolución que intenta sacarla a la luz ese concepto que determina la macroevolucion El modelo considera un conjunto de especies relacionadas entre sí y que poseen la capacidad de evolucionar. Cada especie puede cambiar para mejorar su posición en el ecosistema. Al hacerlo, las especies con las que se encuentra relacionada se resienten en su adaptación y deben, a su vez, cambiar para reforzarla. Todas las especies que intervienen en ese juego siguen, pues, una regla fundamental: han de potenciar su adaptación en el grado en que les sea posible. Cada cambio de una especie obliga a las demás participantes a cambiar, y así el sistema evoluciona hacia un punto crítico. Una vez alcanzado dicho estado crítico, se aprecia que ciertas partes del sistema permanecen inalteradas durante largo tiempo (no evolucionan) mientras que otras se modifican con rapidez. Ambas situaciones obtenidas en la teorización se dan en la naturaleza.
g) Este modelo de Kauffman proporciona un marco teórico donde adquieren sentido los datos relativos a las extinciones de especies ya mencionados. Del modelo se desprende que las propiedades globales de la evolución biológica nacerían de un fenómeno de tipo dinámico que algunos autores han denominado “atractor evolutivo”. Esta definición pone de manifiesto la existencia de un estado final que atrae el sistema hacia el punto crítico. Una vez alcanzado, la propia búsqueda de una mejor adaptación por parte de los elementos genera inestabilidades que se propagan a todas las escalas. Las inestabilidades, por su parte, pueden arrastrar consigo a las especies que las generaron, razón por la cual las extinciones, incluidas algunas de las principales, vinieron causadas por una inexorable dinámica crítica.
CEREBRO HUMANO.- Para Doyme el funcionamiento del cerebro humano constituye otro ejemplo de un sistema complejo cercano a un punto crítico. La aplicación de la teoría del caos al estudio de las ondas cerebrales indica la existencia de caos determinista dado que se ha observado también que los estados patológicos de la actividad cerebral mostraban ondas muy ordenadas y ondas muy desordenadas. En estado de normalidad cerebral convergen ambos aspectos: las ondas son periódicas pero permiten, al propagarse por la corteza, sincronizar miles de millones de neuronas de forma ordenada.
Investigaciones recientes han permitido comprobar que las transiciones de fase pueden desempeñar un papel muy importante en la dinámica del cerebro.
Por ejemplo : el grupo de Hermann Haken, del Instituto Max Planck en Stuttgart, en colaboración con Scott Kelso, del Instituto de Sistemas Complejos de Florida, ha demostrado que los cambios en la actividad cerebral macroscópica bajo ciertas circunstancias responde a una estructura de transiciones de fase. Mediante técnicas de magneto encefalografía, se exploró el tipo de transición que presentaba la actividad cerebral en un sujeto experimental bajo ciertas condiciones controladas: éste recibe un estímulo cuya frecuencia va variando lentamente a lo largo del tiempo.
Mientras persiste el estímulo externo, y sincronizado con él, el sujeto realiza una actividad física. Para ciertos valores dados del estímulo, la actividad cerebral macroscópica presenta una súbita transición dinámica. El estudio cuantitativo de dicha transición revela un fenómeno crítico. Estos investigadores han sugerido la posibilidad de que el cerebro opere normalmente cerca de estos puntos críticos y han desarrollado un modelo teórico que da cuenta de los resultados obtenidos. Cerca de dichos puntos, el cerebro poseería la capacidad óptima de manejar y procesar información. De ser así, tal vez el sistema más complejo que conocemos se encuentre también en la frontera del caos.
A grandes rasgos, un sistema vivo -un organismo- consiste en una relación simbiótica entre un metabolismo y un replicador. El metabolismo, compuesto por proteínas y demás, extrae energía del entorno, y el replicador contiene la impronta del organismo, con la información necesaria para crecer, hacer reparaciones y reproducirse. Ambos se necesitan: el replicador contiene la información necesaria para producir las proteínas, el ARN y las otras moléculas que constituyen el metabolismo y proporcionan la fuerza motriz del organismo, y el metabolismo suministra la energía y materias primas necesarias para la construcción y función del replicador.
La cuestión es cómo empieza esta relación intrínseca: ¿Quién fue primero, el metabolismo o el replicador? ¿O es que no pueden existir el uno sin el otro, de manera que tuvieron que evolucionar juntos?
En los años cincuenta del siglo XX el químico Harold Urey y el biólogo Stanley Miller demostraron que los sillares de las proteínas -los aminoácidos- se forman espontáneamente a partir de “tierra, fuego y agua”. Sin embargo, la síntesis de moléculas más complicadas requería replicadores, de manera que el origen de los metabolismos estaba mucho menos claro. En experimentos posteriores se pretende demostrar que los metabolismos podían emerger espontáneamente a partir de moléculas básicas y evolucionan sin la presencia de un replicador. Esto es, los replicadores serían ellos mismos, y la información estaría almacenada simplemente en la llamada “sopa primordial”.
La idea es que, partiendo de componentes simples -aminoácidos, por ejemplo- se desea obtener proteínas complejas, esto es, cadenas de aminoácidos largas y de alta diversidad. El principio básico de una red auto catalítica es que, aunque ninguno de sus componentes puede producirse por sí solo, cada uno es producido por al menos una reacción entre algunos de los otros ingredientes del caldo. Se trata de un sistema simbiótico, en el que todo coopera para que el metabolismo funcione -el todo es más que la suma de sus partes ( porque si la replicación normal es como la monogamia, la reproducción auto catalítica es como una orgía).
SEGUNDA LEY DE LA ORGANIZACIÓN.- Para muchos investigadores, refiere Doyme, la meta es hallar lo que podría llamarse “la segunda ley de la auto organización”. Lo de “segunda ley” hace referencia a la segunda ley de la termodinámica, que afirma que existe una tendencia inexorable hacia el aumento de entropía -en otras palabras, que los sistemas físicos tienden a desordenarse-. La paradoja que inmediatamente le choca a cualquiera que sabe de la existencia de la segunda ley es ésta: si los sistema tienden a hacerse más desordenados, ¿por qué entonces vemos tanto orden a nuestro alrededor? Si hay tando orden en el Universo y opera la Segunda Ley de la Termodinamica, obviamente debe haber algo más.
En particular, ese “algo mas” , parece entrar en conflicto con nuestro “mito de la creación” o Teoria del Big Bang que dice: “En el principio hubo una gran explosión. Súbitamente se creó una enorme cantidad de energía y el universo se expandió para formar partículas. al principio las cosas eran totalmente caóticas, pero con el tiempo comenzaron a formarse estructuras complejas: moléculas complicadas, nubes de gas, estrellas, galaxias, planetas, formaciones geológicas, océanos, metabolismos autocatalíticos, vida, inteligencia, sociedades...”.
Si nos quedamos con una cualquiera de las etapas de este relato, con suficiente información podemos comprenderla sin invocar ningún principio general. Pero si damos un paso atrás, vemos que hay una tendencia general a que las cosas se hagan más organizadas con independencia de los detalles particulares. Quizá no en todas partes, solo en ciertos lugares y en ciertos momentos. Y es importante subrayar que nadie está diciendo que la segunda ley de la termodinámica no sea cierta, sino que hay un proceso que sirve de contrapunto y que organiza las cosas a un nivel superior. Y por tanto la idea de los que afirman “que todo está organizado” porque ha habido una “serie de accidentes cósmicos”…suena tan infantil, justo por su alta improbabilidad.
NECESIDAD DE TEORIAS NUEVAS Y ORDENADORES ELECTRONICOS DIFERENTES
Con los planteamientos que hemos incluido hasta esta parte de la obra , tal parece que estamos estancados cuando se inicia el Tercer Milenio, pero al mismo tiempo de frente a una gran cantidad de corrientes en curso de investigación que apuntan hacia distintos nortes, aunque en realidad todos están unidos y apuntando hacia el mismo Norte , aunque – a priori- nos dé la impresión de que no es así.
Para el físico e informático norteamericano, especialista en “sistemas paralelos”, Daniel Hillis, del Grupo del Instituto de Santa Fe, California la búsqueda del “El Santo Grial” de la Ingeniería en los últimos milenios ha sido la construcción de un dispositivo que hable con uno y que aprenda, razone y cree: el primer paso para conseguirlo requiere una clase de ordenador muy diferente de los sencillos ordenadores secuenciales que manejamos todos los días, porque su potencia dista mucho de la necesaria, porque cuanto más saben, los ordenadores, más lentos se vuelven (todo lo contrario que la mente humana). La mayoría de ordenadores, está diseñada para hacer una sola cosa cada vez, al contrario de la mente humana que consigue verlo todo de golpe y después, de algún modo, extrae la información relevante.
Un ordenador paralelo.- Señala Hillis al respecto: Es claro que empleando la tecnología de circuitos integrados podíamos construir un ordenador con una estructura más cercana a la del cerebro humano: constaría de muchos elementos simples trabajando simultáneamente, en paralelo, en vez de ejecutar rápidamente una secuencia de cosas. Este principio se aplica sin duda a la mente, porque la mente trabaja con la maquinaria del cerebro, que es realmente lenta comparada con la de un ordenador digital.
En algunos sentidos, un gran ordenador paralelo es la cosa más complicada que hemos construido nunca los humanos. Un ordenador paralelo tiene unos cuantos cientos de miles de millones de partes activas, todas trabajando juntas, pero su interacción en realidad no se comprende, ni siquiera por parte de sus diseñadores La única manera de diseñar un objeto de tanta complejidad es dividirlo en partes: primero: decidir lo que va a tener cada módulo, segundo: encargar la construcción de cada uno a un equipo humano , tercero : los equipos tienen que ponerse de acuerdo en la manera de acoplarlas antes de diseñarlas.Pero al lado de la aproximación estrictamente técnica, hay otra que puede producir algo de mayor complejidad: la aproximación evolutiva. Los seres humanos hemos sido generados por un proceso que no tiene nada que ver con la ingeniería. Ahora mismo tenemos computadores lo bastante rápidos para simular el proceso de la evolución. Así que podemos disponer las cosas para que, de manera espontánea, evolucionen programas inteligentes dentro del ordenador bajo estas ideas primordiales:
Vida cibernética nacida de la Nada.- Los informáticos especializados en el tema conocen programas que han evolucionado de la nada y que hacen cosas francamente aleatorias y se deja que estos programas compitan e interactúen entre sí, se apareen y produzcan nuevas generaciones de programas. El principio s el siguiente:
1) Si se colocan en un mundo donde su supervivencia dependa de la solución de un problema, entonces las generaciones sucesivas irán resolviendo el problema cada vez mejor, y al cabo de unos cientos de miles de generaciones resolverán el problema muy bien y esta aproximación podría ser la adecuada para producir la “máquina pensante”.
2) Una de las cuestiones más apasionantes es cómo emergen cosas de orden superior a partir de la interacción de cosas de orden inferior. Por ejemplo: Imaginemos cómo vería un organismo unicelular a un organismo pluricelular. El organismo pluricelular está en un nivel incomprensible para el organismo unicelular (es posible que la parte de nuestra mente que procesa información sea en gran parte un artefacto cultural).
3) Un humano que no haya crecido entre otros humanos es de hecho una máquina bastante poco inteligente. Parte de lo que nos hace inteligentes es nuestra cultura y nuestra interacción con los demás. Y eso mismo sería también en parte lo que haría inteligente a una máquina. (Tendría que interaccionar con seres humanos e integrarse en nuestra cultura).
4) Desde el punto de vista biológico, ¿cómo se organiza este simple proceso evolutivo en organismos biológicos complicados?; y desde el punto de vista técnico, ¿cómo hacer que conmutadores simples como los transmisores, cuyas propiedades conocemos, hagan una cosa compleja que no comprendemos?
El Fenómeno de la Emergencia.- Desde el punto de vista físico, lo que se estudia es el fenómeno general de la emergencia, de cómo cosas simples se convierten en cosas complejas. En lo esencial, todas estas disciplinas aspiran, desde ángulos diferentes, a responder la misma pregunta: ¿cómo puede el funcionamiento conjunto de unos elementos simples e insulsos producir algo complejo que trasciende a ellos?
1) En eso consiste esencialmente la teoría de la “sociedad de la mente” de Marvin Minsky; en eso consiste la “vida artificial” de Chris Langton; así concibe la evolución Richard Dawkins; eso es fundamentalmente lo que estudian los físicos que se fijan en las propiedades emergentes; en eso consiste el trabajo de Murray Gell-Mann sobre los quarks, ese es el hilo conductor de todas esas ideas. Apasiona la idea de que podamos encontrar la forma de explotar determinados principios generales de organización para producir algo que va más allá de nosotros mismos. Si retrocedemos muchos miles de millones de años, podemos ver que la historia de la Tierra se ajusta a este modelo.
2) En primer lugar, las partículas fundamentales se organizan para crear la química. Luego la química se organiza para crear la vida autor reproductiva. Después la vida se organiza en organismos pluricelulares y los organismos pluricelulares en sociedades unidas por el lenguaje.
Las sociedades están ahora organizándose a sí mismas en unidades mayores y produciendo algo que las conecta tecnológicamente, produciendo algo que va más allá de ellas mismas. Todo esto son eslabones de una cadena, y el siguiente paso es la construcción de máquinas pensantes.
3) Lo más interesante de este mundo es cómo un cúmulo de cosas simples y anodinas se organizan en algo mucho más complicado cuyo comportamiento tiene lugar a otro nivel. Todo -ya sea el cerebro, los ordenadores paralelos, las transiciones de fase o la evolución- se ajusta a este modelo. Se intenta reproducir dentro del ordenador el proceso de la evolución con objeto de conseguir máquinas que se comporten de manera inteligente.
4) Lo que hacemos es poner en marcha un proceso evolutivo que tiene lugar a la escala del microsegundo. Por ejemplo, en los casos más extremos, podemos desarrollar un programa partiendo de secuencias aleatorias de instrucciones. Por ejemplo, “ordenador produce cien millones de secuencias aleatorias de instrucciones, ejecútalas todas y escoge las que más se acerquen a lo que yo quiero”. En otras palabras, se define lo que se desea, pero no cómo conseguirlo.
5) Cada una de estas generaciones dura unos pocos milisegundos, así que puede simular en el ordenador el equivalente a millones de años de evolución en unos pocos minutos (o en unas pocas horas, en los casos complicados). Al final se acaba teniendo un programa de ordenación alfabética absolutamente perfecto y mucho más eficiente que cualquier programa que pudiera haberse escrito a mano. Pero si se da un vistazo al programa no se puede decir cómo funciona, será un programa oscuro, estrafalario, pero hará bien su trabajo, porque desciende de una línea de cientos de miles de programas que hacían eso mismo. De hecho, las vidas de esos programas dependían de ello.
6) Pero la ingeniería deja de funcionar bien cuando se hace muy complicada; por ello estamos comenzando a hacer uso de ordenadores que se valen de un proceso muy diferente, capaz de producir cosas de complejidad muy superior. Pero de hecho no conocemos, ni mucho menos, las posibilidades de ese proceso, así que en cierto sentido nos está superando. En la actualidad estamos empleando esos programas para construir ordenadores mucho más rápidos, de manera que podremos acelerar aún más el proceso. Se puede decir que el proceso se alimenta a sí mismo. Se está haciendo cada vez más rápido. Es autocatalítico y escapa a nuestro nivel de comprensión.
7) De frente a este hecho los seres humanos nos parecemos a los organismos unicelulares en el momento en que se estaban transformando en organismos pluricelulares. Somos amebas que no podemos hacernos idea de qué estamos creando. (Estamos justo en esa fase de transición) Por eso, pensar que somos el “producto final de la evolución” es un acto de soberbia. Todos somos parte del proceso de producción de lo que vendrá después. Estamos en un momento apasionante: Nos encontramos cerca de la singularidad y es como volver a aquella “letanía de la química que conduce a los organismos uniceculares que conducen a la inteligencia”.
8) El primer paso necesitó mil millones de años, el siguiente sólo cien millones. Estamos en una fase en la que las cosas cambian cada década, y el proceso parece estar acelerándose. La tecnología tiene un efecto autocatalítico: ordenadores cada vez más rápidos nos permiten diseñar ordenadores cada vez más rápidos. Nos encaminamos hacia algo que va a ocurrir muy pronto -en el curso de nuestras vidas- y que es fundamentalmente diferente de cualquier otro acontecimiento anterior en la historia humana.
Consecuencias.- La gente ha dejado de pensar en el futuro, porque se da cuenta de que es imposible hacerse una idea de lo que vendrá. El mundo en que vivirán nuestros nietos será tan diferente que los criterios normales de planificación del futuro ya no sirven. Hace 30 ó 40 años la gente solía hablar de lo que iba a pasar en el año 2000. Ahora que hemos llegado al inicio del Milenio, la gente sigue hablando de lo que va a pasar en el año 2000. Desde nuestro nacimiento, el futuro se ha ido encogiendo a razón de un año por año; si se intenta hacer una extrapolación para entrever cómo será la tecnología a principios del próximo siglo, solo se divisa un punto en el que va a pasar algo imposible de concebir. Quizá sea la creación de máquinas inteligentes; o “quizá sea nuestra fusión en un organismo global, mediada por la telecomunicación. Todo esto puede sonar a mística, pero muy realista: Pienso que estamos siendo testigos -y continuaremos siéndolo en las próximas décadas- de algo que no podemos comprender, algo que resulta tan inquietante como apasionante”.
CONCIENCIA CUÁNTICA
Según el matemático y físico británico Roger Penrose hay una conexión entre la mecánica cuántica y la conciencia, pero es un tanto indirecta; los argumentos son negativos. Si queremos llegar a explicar los efectos de la conciencia tendremos que encontrar algún proceso físico no computable. Pero no detecto nada de eso en ninguna de las teorías existentes. El único sitio donde puede tener cabida la no computabilidad es en lo que se denomina “medida cuántica”. Pero necesitamos una nueva teoría cuántica de la medida. Tiene que ser una teoría nueva no computable. Hay un lugar para ella, siempre y cuando la nueva teoría implique cambios en la misma estructura de la teoría cuántica (cambios que podrían surgir de su unificación con la relatividad general) Pero esto pertenece al futuro lejano; mientras tanto: ¿Por qué Penrose cree que la conciencia incluye ingredientes no computables? La razón es el teorema de Gödel y explica:
1) La indemostrabilidad formal de una cierta proposición era señal de que de hecho era verdadera. Según Gödel, podemos producir enunciados que no podemos demostrar a partir de cualquier sistema de reglas que hayamos fijado de antemano. Pero si uno cree en los postulados de partida también debe creer en la certeza de la proposición cuya verdad está más allá de esos postulados. Esto evidencia que la comprensión matemática es algo que no puede formularse en términos de reglas. (Esta es la idea que, mucho después, defendí con vigor en mi libro La nueva mente del emperador).
2) Se pueden hacer objeciones a este uso del teorema de Gödel, y de hecho se hacen. La mayoría de estos contraargumentos son producto de una mala interpretación. Dennett sí hace objeciones genuinas, y su análisis es un poco más difícil de rebatir. Las objeciones de Dennett se fundan en la pretensión de que nuestro pensamiento -aquí pensamiento matemático- hace uso de algoritmos “ascendentes” más que “descendentes”.
3) Un algoritmo descendente es específico para la solución de algún problema concreto, y proporciona un procedimiento definido para la resolución de ese problema. Un algoritmo ascendente no es específico de ningún problema en particular, sino que está organizado más libremente, de manera que aprende de la experiencia y mejora progresivamente, dando al final una buena solución del problema que se tiene entre manos. (Muchos gente comparten la idea de que el cerebro funciona a través de algoritmos ascendentes más que descendentes). En la obra “Shadows of the Mind”, se aplica el argumento de Gödel también a los sistemas ascendentes, y se presentan argumentos convincentes que demuestran que hay algo en nuestra conciencia que, simplemente, no es computable: es algo distinto.
4) Gran parte de lo que el cerebro hace lo puede hacer también un ordenador. No se afirma que el funcionamiento del cerebro en su totalidad sea completamente diferente del de los ordenadores, pero se sostiene que la función consciente es algo distinto. Tampoco se dice que la conciencia esté más allá de la física; pero sí que está más allá de la física que conocemos. La argumentación consta básicamente de dos partes:
La primera muestra que el pensamiento consciente es algo diferente de la computación (Se prueba con todo el rigor).
La segunda parte es más exploratoria, y en ella se intenta descubrir qué pasa realmente.
5) Tiene que haber “algo en la física” que aún no comprendemos, algo muy importante y de carácter no computable. No es algo específico de nuestros cerebros; está ahí fuera, en el mundo físico. Pero su papel suele ser insignificante. Tendría que residir en el puente entre el mundo cuántico y el mundo de la física clásica (esto es, en el terreno de la medida cuántica). La teoría física moderna es un poco extraña, porque tenemos dos niveles de actividad. Uno es el nivel cuántico, referido a los fenómenos microscópicos; aquí lo relevante son las pequeñas diferencias de energía.
6) El otro es el nivel clásico, donde tenemos los fenómenos macroscópicos regidos por las leyes de la física clásica -Newton, Maxwell, Einstein-. La gente tiende a pensar que la física cuántica, al ser más moderna, tiene que ser por fuerza más precisa que la física clásica, y por lo tanto -si supiéramos cómo- la segunda tendría que explicarse en función de la primera. No parece que esto sea cierto. tenemos dos escalas de fenómenos, y el comportamiento clásico no puede deducirse del comportamiento cuántico más que el cuántico del clásico.
7) No tenemos una teoría cuántica definitiva. Nos queda todavía un largo camino por recorrer para lograrla: lo que tenemos es una teoría provisional. Y es incompleta también en lo que afecta a los fenómenos macroscópicos, no sólo a la escala microscópica de la partículas. Las ideas físicas vigentes sobreviven como casos límite, en el mismo sentido en que la mecánica newtoniana ha sobrevivido a la relatividad. La relatividad modifica la mecánica newtoniana, pero en realidad no la suplanta. La mecánica newtoniana sigue existiendo como caso límite. Igualmente, la teoría cuántica en su versión actual y la física clásica, con la inclusión de la teoría de la relatividad general de Einstein, son casos límite de alguna teoría que aún no tenemos. Lo que puede afirmarse es que esa teoría hipotética incluirá ingredientes no computables. Este hecho tendría su importancia en la ampliación de algo del nivel cuántico al clásico, lo cual es la esencia de la “medida”.
8) Para tratar este problema, en la teoría cuántica estándar se introduce el azar. Por esto se dice que la teoría cuántica es una teoría probabilística. Pero el azar sólo surge cuando se pasa del nivel cuántico al clásico. Si permanecemos en el nivel cuántico no hay aleatoriedad; ésta surge cuando se amplifica algo, es decir, cuando efectuamos lo que la gente entiende por “hacer una medida”. Esto consiste en tomar un efecto cuántico microscópico y magnificarlo hasta un nivel en que se hace observable. Las probabilidades sólo aparecen en ese proceso de amplificación. Lo que se afirma es que, sea lo que sea lo que en verdad ocurre en ese proceso de amplificación, está más allá de nuestra comprensión actual de la física, y es más que aleatorio: es no computable. Se trata de algo esencialmente diferente.
9) De igual manera no parece haber lugar para los fenómenos conscientes en la ciencia tal como la entendemos hoy. Por otro lado, hoy día mucha gente parece creer que si algo no se puede meter en un ordenador no es ciencia, porque en los tiempos que corren buena parte de la ciencia se hace mediante simulaciones informáticas de procesos físicos (La gente no se da cuenta de que el hecho de que algo no sea computable no impide que sea perfectamente científico, perfectamente describible en términos matemáticos).
10) Cuando se dice “no computable” no se quiere decir “aleatorio”. Ni tampoco incomprensible. En matemáticas hay cosas que son meridianamente claras y que no son computables. El ejemplo más famoso es el décimo problema de Hilbert, que tiene que ver con la resolución de ecuaciones algebraicas en enteros. Nos dan una familia de ecuaciones algebraicas y nos preguntan si se pueden resolver en enteros, es decir, si tienen soluciones enteras. Esta cuestión no puede ser resuelta por un ordenador en un tiempo finito. Hay un famoso teorema, de Yuri Matiyasevich, que demuestra que no hay forma computable de responder a esta cuestión de manera general. En casos particulares se podría responder por medio de algún procedimiento algorítmico del que sabemos que no da respuestas equivocadas, siempre podemos encontrar una ecuación algebraica sobre la cual el procedimiento no podrá decidir, pero de la que sabemos con toda certeza que no tiene soluciones enteras.
11) Sea cual sea el dominio de lo que es accesible a la comprensión humana, hay cosas que no pueden encapsularse en forma computable. Podemos imaginar un universo de juguete que de algún modo hubiese evolucionado según el décimo problema de Hilbert. Esta evolución podría ser completamente determinista aunque no fuera computable. En este universo de juguete el futuro estaría matemáticamente fijado; sin embargo, un ordenador no podría adivinar el futuro. Se afirma que las leyes físicas se comporten así a algún nivel, pero el ejemplo demuestra que es una posibilidad, y puede asegurarse de que el universo real es mucho más sutil que todo eso.
12) Cuando se argumenta que la actividad del cerebro consciente es no computable no se está hablando de computadores cuánticos. El computador cuántico es un concepto perfectamente bien definido, que no representa ninguna revolución en la física; ni siquiera ejecuta operaciones no computables. Los computadores cuánticos por sí solos no explican lo que pasa en la actividad consciente del cerebro. Para el filósofo Dan Dennett el computador cuántico es un “castillo en el aire” (su manera de decir que es un milagro. Sin embargo, es una cosa perfectamente razonable. De todas maneras, no se estima que pueda explicar el funcionamiento del cerebro (lo que no quita Eso no quita que pueda haber algún elemento de computación cuántica en la actividad cerebral).
13) Uno de los rasgos esenciales del nivel cuántico es que hay que considerar la coexistencia de diferentes sucesos alternativos. En mecánica cuántica esto es fundamental. Si puede ocurrir X y también puede ocurrir Y, entonces puede darse cualquier combinación de X e Y, ponderados con coeficientes complejos. De acuerdo con la mecánica cuántica, una partícula puede tener estados en los que ocupa varias posiciones a la vez. (Cuando tratamos un sistema de acuerdo con la mecánica cuántica, tenemos que tener en cuenta esta superposición de alternativas).
14) La idea de un ordenador cuántico, tal como ha sido adelantada por David Deutsch, Richard Feynman y otros, es que los cálculos son las cosas que se superponen. Más que hacer un cálculo, nuestro ordenador hace multitud de ellos a la vez. En ciertas circunstancias esto puede ser muy eficiente. El problema viene al final, cuando hay que extraer información de la superposición de todos esos cálculos diferentes. Es extremadamente difícil conseguir un sistema que haga esto de manera fructífera; por ello, decir que el cerebro trabaja de esta manera es bastante radical. El cerebro no es exactamente un computador cuántico. Los efectos cuánticos son importantes para el funcionamiento del cerebro, pero los procesos no computables tienen lugar en el puente entre el nivel cuántico y el clásico, y ese puente está más allá de nuestra actual comprensión de la mecánica cuántica.
15) Con mucho, el terreno más prometedor para buscar esta frontera cuántico-clásica está en el reciente trabajo sobre microtúbulos de Stuart Hameroff y sus colegas de la Universidad de Arizona. Las cédulas eurocarióticas tienen lo que se denomina un citoesqueleto, compuesto por estos microtúbulos. Las neuronas, en particular, contienen microtúbulos. También son responsables del control de animales unicelulares, como paramecios y ambas, que no tienen neuronas de ninguna clase. Estos animales nadan y hacen cosas muy complicadas. Aparentemente aprenden de la experiencia, pero no están controlados por ningún sistema nervioso; el control lo ejerce otra clase de estructura, que probablemente es el citoesqueleto y su sistema de microtúbulos.
16) Los microtúbulos son tubos largos de unos pocos nanómetros de diámetro. Los microtúbulos neuronales se prolongan también por los axones y dendritas. Parecen encargarse del control de la fuerza de las conexiones entre neuronas. Aunque en cualquier momento la actividad de las neuronas podría parecerse a la de un ordenador, este ordenador estaría sujeto a un cambio continuo en su “circuitería”, bajo el control de un nivel estructural más profundo. Este nivel más profundo es, muy probablemente, el sistema de microtúbulos neuronales. Su actividad tiene mucho que ver con el transporte de neurotransmisores químicos a lo largo de los axones, y con el crecimiento de las dendritas. Las moléculas neurotransmisoras son transportadas a lo largo de los microtúbulos.
17) Lo que interesa destacar sobre los microtúbulos es que son tubos, y de acuerdo con Hameroff y sus colegas hay una actividad computacional a lo largo de los tubos mismos, por su parte exterior. Una sustancia proteínica llamada tubulina forma estructuras espirales que constituyen los tubos. Cada molécula de tubulina puede tener dos estados de polarización eléctrica, que podemos etiquetar como 1 y 0, como si de ordenadores electrónicos se tratara. Esto genera patrones variables a lo largo de los microtúbulos, que pueden propagarse en alguna forma de actividad computacional.
18) Por sí mismo, un microtúbulo sería un ordenador, pero a un nivel más profundo que el neuronal. Todavía tenemos actividad computacional, pero está mucho más allá de lo que se piensa. El número de estas tubulinas es mucho mayor que el de neuronas. Lo que también interesa es que el interior de los microtúbulos es un sitio plausible para una actividad oscilatoria cuántica aislada del exterior. El problema cuando se pretende aplicar la mecánica cuántica a la acción cerebral es que, si las señales nerviosas fuesen de carácter cuántico, entonces perturbarían el resto del material cerebral, hasta tal punto que la coherencia cuántica se perdería muy rápidamente.
19) Por tal razón la construcción de un ordenador cuántico a partir de señales nerviosas ordinarias ni siquiera podría intentarse, porque son demasiado grandes y se propagan en un medio demasiado desorganizado. Las señales nerviosas ordinarias requieren un tratamiento clásico. Pero si se desciende al nivel de los microtúbulos, entonces las posibilidades de conseguir actividad a nivel cuántico dentro de ellos son enormes.
En conclusión: Para una descripción coherente de esta teoría se requiere de esta actividad a nivel cuántico en los microtúbulos; pero además tiene que haber “algo a gran escala” que vaya no sólo de un microtúbulo al siguiente, sino de una cédula nerviosa a la siguiente, cubriendo grandes áreas del cerebro. Necesitamos alguna clase de actividad coherente de naturaleza cuántica que esté levemente acoplada con la actividad computacional que según Hameroff tiene lugar a lo largo de los microtúbulos, y para ese cometido hay dos vías de ataque al problema: una es directamente física: la teoría cuántica requiere modificarse por la parte biológica se tendrían que llevar a cabo experimentos para ver si hay alguna posibilidad de que los microtúbulos sean el soporte de alguno de estos “efectos cuánticos” coherentes a gran escala. del estilo de los superconductividad o la superfluidez), donde tenemos sistemas cuánticos a una escala grande.
El hombre en su afán permanente de conocimiento no quiere dejar intacto, ni siquiera su ser. Precisamente si algo ha distinguido el proceso de conocimiento es que no está, en manera alguna consolidado y ultimado, sino siempre abierto y moldeable. Pero siempre el hombre debe insistir en el acabamiento y consolidación del conocimiento y las ideas y conceptos con los que trata de concebir y enmarcar su propia existencia pueden, por tanto ejercer una fuerza decisiva en la autorealización de esta existencia que supone, desde luego, el plantearse las clásicas preguntas del ¿Cómo? y el ¿Por qué?.
Las respuestas, en cada caso, se convierten en ideales por los cuales el hombre se rige y modela su conducta personal y comunitaria y con ésto a la vez se revela el sentido que debe darle a la vida.
REVISION DEL ESTADO DE SITUACION
Cuando se ingresa al Tercer Milenio en el área del conocimiento que nos interesa observamos varios hechos de los que es necesario dejar constancia: uno es la realidad de que el conocimiento ha crecido de manera exponencial y el acceso a libros y a revistas especializadas que eran nuestro alimento para pergeñar estas ideas que exponemos a los lectores, son además de muy costosos, lentos en acoger y divulgar tales ideas. El crecimiento rapidísimo de los sitios en la Red que nos enlaza cibernéticamente: Internet, ha sobrepasado los cálculos ingenuos de su propulsor más connotado el ingeniero británico de la Universidad de Oxford Timothy "Tim" John Berners-Lee , a quien se considera el padre de la “Web” ( World Wide Web) . La Internet que trabaja sobre la red y la conforma además, es a su vez una idea nacida en el seno de los sectores de Inteligencia norteamericanos, cuando deciden poner la información estratégica a salvo de una eventual catástrofe nuclear y la dividen en sectores que se encontraban en las universidades norteamericanas. Ese primer sistema es conocido como Arpanet.
El lenguaje utilizado en aquellas fechas ( años 80) tenían el inconveniente de la dificultad de su acceso y vulgarización. Berners-Lee lo logra mediante la invención de un sistema que nos rige hoy día: el lenguaje HTML ( Hyper Text Markup Language) ,una modalidad de soporte y distribución estructurado bajo el HTTP ( Hypert Text Transfer Protocol) y una forma universal de localización denominado URL ( Uniform Resource Locator) , que entran en operación sucesivamente a partir de 1980,trabajando para CERN, MIT, ERCIM, Universidad de Kyoto y finalmente con MIT ,donde en el año 1990, se decide que el acceso a la Web sea libre y gratuito.
Debemos a los esfuerzos de muchas personas y en especial a Berners-Lee ,el “padre de la Web” que primero lentamente y luego con gran fuerza cuando aparecen las primeras computadoras de uso personal ( Personal Computers ) ,denominadas ahora P.C. el conocimiento almacenado en libros y revistas comience a pasarse a información digital.
Este libro lo comienzo a redactar en 1984 a petición del Dr. Eric Mora , en aquel momento Presidente del Colegio de Médicos ,quien lo utilizaría para los cursos de postgrado de los profesionales que pasaban por las aulas del CENDEISS ( institución mixta de la Caja Costarricense de Seguro Social y de la Universidad de Costa Rica) , luego lo logro publicar en 1992 bajo el titulo : Teorías Cosmológicas ” ,en donde es protegido por el ISBN respectivo ,y en el año 2002 lo retomo para mejorarlo, incluirle nuevas teorías y sale a la luz pública como Universos: los Rastros de Dios .
Después, por razones de salud dejo olvidado, hasta que mi amigo el físico-matemático belga Jacques Chauveheid ( alumno del Abate Lemaitre, autor de la teoría del Big Bang ) me anima a colocarlo en la Red ,cosa que hago hasta el año 2007, en un Blog de Google y le cambio de nuevo el titulo a : Universos: los Rostros de Dios, por parecerme más apropiado.
Ahora bien, este ultimo capitulo lo redacto justamente entre los años 2000 ( en realidad el ultimo del siglo XX) y el año 2001 ( el primero del Tercer Milenio),que fue un tema de mucha discusión en todo Occidente, pues los judíos, los chinos, los hindúes y de seguro muchas culturas aisladas o lejanas siguen teniendo su propio computo del tiempo.
Retomo el hilo: al ingresar en el Tercer Milenio hay respuestas, pero hay mucho más preguntas generadas por las mismas respuestas. Como en la Tocata y Fuga de Bach,una nota tras otra ,va abriendo el camino a la siguiente en un loco frenesí inacabable. Y al mismo tiempo tales respuestas que deben acompañar al hombre de manera permanente para volver a replantearlas como preguntas , dan idea de que el hombre no es solamente un simple ser que existe, sino que se pregunta y se interpreta a sí mismo no por una simple divagación teórica que le lleve tranquilidad sino que sus preguntas brotan de la más profunda necesidad de quien ha de construirse a sí mismo y por eso requiere de una imagen rectora sobre la cual deba hacerlo.
Ahora bien ambas se enlazan una a la otra: la imperfección del hombre es la que, en compensación empuja a la auto comprensión que le dice como puede perfeccionarse. A su vez la interpretación que se da de sí mismo no queda precisamente desligada sino que debe engranarse a la vez con el todo del Cosmos y a la vez con la imagen rectora superior.
La auto interpretación del hombre es un principio de responsabilidad intrínseco y que le trasciende, a la vez. Esta responsabilidad debe ser siempre consciente. Por eso nunca se cerrarán las preguntas: ¿Quién soy y para que estoy en el Universo?. Las respuestas pueden cambiar y llevarle ora tranquilidad, ora desasosiego. El esfuerzo de disciplinas para convergir en la búsqueda de las verdaderas respuestas se convierte entonces en una necesidad ética insoslayable porque aunque las respuestas cambien la inquietud permanecerá: ese es el destino ineluctable del hombre.
Desde los albores de la Humanidad en su relación con el contexto que le rodea, el ser humano - que tiene la capacidad de conocer e interpretar lo que conoce - ha pasado por diversos estadios y así el Universo se le antojaría al principio tétrico o placentero, según fuese su ventura; era la época del Universo Utilitario.
Luego con el transcurrir de sus primeros intentos por descifrarlo sería un Universo Rutinario, en el que el pasar del día a la noche y así en interminables períodos, si acaso las estrellas fugaces y los súbitos cometas interrumpían la placidez de la contemplación indagatoria.
Con el proceso de entendimiento y explicación - pero también de incomprensibilidad, devendría un largo período de ahondamiento en los misterios Tierra - Cosmos para asentar una época en que el ser humano se desenvuelve dentro del Universo Estático;
Después, y aunque subsisten áreas de explicaciones no del todo satisfactorias, el ingenio humano se encargará - como siempre ha sido - de buscar esquemas físicos y formulaciones matemáticas para ajustar lo que intuye racionalmente, con lo que observa físicamente para llegar a postular el Universo Mecánico
A inicios del siglo XX Einstein de desacomodar la visión estática y se encargará de convertirlo en un Universo Relativista pero - a la vez - en un Universo Comprensible y los físicos atomistas de la Escuela de Copenhague lo verán más bien - por extrapolación a lo macro - como un Universo Indeterminado
Ahora resulta que, a comienzos del Tercer Milenio, de nuevo los físico-matemáticos relativistas-cuánticos, nos asombrarán afirmando que el Universo es Determinable por nuestra acción (¿co-creadora...?) para dejarnos de frente con el Universo Consciente ,con la paradoja de que ni siquiera sabemos cómo funciona nuestra mente y de que es la conciencia.
Junto a esas visiones de Universo irán apareciendo otras mas y mas distantes al lego: aparecerán el Universo Topológico, luego los físicos nos propondrán un Universo Inflacionista
Más tarde tendremos con nosotros las ideas más revolucionarias: el Universo Múltiple, el Universo integrado por Universos Diversos (meta Universo) , o el Universo Paralelo, el Universo previo a la época de Plank visualizado como Universo de la Teoría de las Membranas ( Teoría M) o cuando se inicien esfuerzos de cuantizacion de la relatividad , el Universo de la Gravedad Cuántica o bien el Universo Autocontenido. Y en este esfuerzo perenne de explicación el Universo de todos los días, el que contemplamos con pasión o romanticismo, con nostalgia o con alegría en la noche estrellada se irá pululando de teorías tan lejanas a nuestra comprensión humana que terminaremos pensando en un Universo más simple: el que nos cobija, junto con el Planeta Tierra, en donde vivimos con nuestra familia y amigos, en donde nuestros países hacen la guerra-igual que desde los albores de la humanidad y en donde surgen las preocupaciones del siglo XXI que aun no sabemos ni donde comienzan ni cómo van a terminar, salvo que abracemos las ideas de los cosmólogos acerca del fin del Universo y nos avizoremos achicharrados o congelados, aunque eso –se nos dice ocurrirá muchos miles de millones hacia delante.
La lentitud del proceso diacrónico que llevó de la primera concepción (desde el siglo XII a.C. hasta las dos primeras décadas del siglo XX), permitieron, que, a la vez los modelos de Universo corriente y mayoritariamente postulados y aceptados se fuesen oficializando y al tiempo sacralizando, dejando al margen otras concepciones que - por extravagantes y por ello minoritarias - se convirtieron en explicaciones oscuras, misteriosas, esotéricas, desacralizadas y sólo entendidas y accesibles por los pocos iniciados en esa visiones y explicaciones cosmogónicas.
A partir de las siguientes décadas del siglo actual (30 al 80 inclusive) la ciencia oficial debe cambiar tan rápidamente de modelos, que emergen cada vez con más fuerza las explicaciones esotéricas para ir compatibilizando lo que la moderna tecnología va dejando al descubierto, pero sin encontrarle explicaciones satisfactorias.
Así conforme el Universo se va haciendo más conspicuo, sin embargo las explicaciones científicas se van tornando más complejas y áridas, primero para el lego y después aún para los astrónomos, quedando reducidos los iniciados a unos pocos cosmólogos. Surgen entonces explicaciones para ir acomodando la formulación matemática a la comprobación experimental, o bien el hallazgo físico a la teoría que lo acomode dentro de esquemas comprensibles de acuerdo a los cánones clásicos de la racionalidad y a las reglas del quehacer científico estructuradas en torno a estos lineamientos.
La observación de la recesión de los grandes conglomerados visibles de materia hará que se postule en los años veinte el Universo Expansionista, que servirá de campo de batalla para la confrontación de teorías rivales.
Desde los años cuarenta hasta casi los sesenta la batalla se dará entre la concepción de un Universo Eterno (teorías del Estado Estacionario y la Creación Continúa) y un Universo Temporal (Teorías del Big Bang); pero al obtenerse la primera prueba en favor de la segunda teoría se consolida la concepción del Universo Evolucionista que mezcla elementos de diversas fuentes para asegurar que se ha llegado al fin a una comprensión cabal del Universo.
En la década de los setenta - ochenta es necesario postular el Universo Inflacionario, para entender los sucesos inmediatamente posteriores al punto de inicio ó Big Bang; pero la teoría deja aún dudas sobre el futuro del proceso de evolución y será la materia aún no observada la que obligue a grandes e ingeniosos esfuerzos observacionales para teorizar si el Universo se expanderá para siempre o se mantendrá la expansión.
La existencia de materia oscura como la causante que determina los procesos de evolución permite llegar en los noventa, a la afirmación de que lo observable es apenas entre el 10% - 20% de lo físicamente existente y nace así el concepto de Universo Oscuro en el que, los fenómenos de evolución son causados por la presencia y comportamiento aún no conocido - de la materia oscura y en que lo observable son apenas epifenómenos de la materia visible, por lo que hay aún “baches” en el conocimiento del proceso evolutivo universal.
Paralelamente a las modificaciones que deben irse introduciendo al modelo estándar del Big Bang, desde el mundo de la microfísica en el campo de la biología molecular y desde la esfera de la psicología del conocimiento, en la década que va desde la segunda mitad de los años ochenta y la primera mitad de los noventa, comienzan a aflorar nuevas concepciones para entender el Universo, porque ya los planteamientos que arrancan con la concepción einsteniana de la Relatividad no son suficientes para entender el Universo, de frente a las revelaciones que afloran de el Universo Cuántico, que a principios de los noventa origina el Universo de Simetría Quebrada.
En este ir y venir de modelos racionalistas, sin embargo algunas mentes tratan de ir más allá – mediante las permanentes incursiones metafísicas - y comienzan a hacerse más y más incursiones intelectuales para buscar en el Universo no ya satisfacción al ¿Cómo?, sino la respuesta al ¿Por Qué?.
En esta búsqueda que difiere de la pesquisa científica normal, aparecen concepciones en que el concepto Universo Único, compite, pero se complementa con el concepto Universo Múltiple y el paso entre uno y otro obliga a asimilar planteamientos como Universos Paralelos, o bien Universo Fantasma, o Universo Ilusorio, o Universo Probable, o Universo Divergente; pero todos ubicados en el Universo Pensado, ya que se llega a determinar que la modelación es el resultado de la imaginación y ésta - a su vez - el resultado de modelación, por lo que Universo - Mente - Universo constituye una unidad única.
En tales circunstancias cabe preguntarse: son necesarias a estas alturas de nuestra historia las ideas que se pergeñan alrededor del Universo. Como mi respuesta es sí, prosigo en la tarea.
EJE COSMICO
Cuando Theilhard planteaba la existencia de un “eje cósmico”, las tesis científicas post-modernas no eran siquiera oscuras ideas: simplemente no existían; pero sin forzar las similitudes estas reflexiones apuntalan la tesis Theilhardiana. No es mi intención colidir con las decisiones de la Iglesia Católica en lo tocante a aquellos aspectos doctrinarios que el jesuita francés habría violado, desobedeciendo lineamientos de la Fe. Lo único es que las ideas de Chardin encuentran eco, sustento, arraigo, apoyo, fuerza en muchas de las inquietudes científicas postmodernas que hemos mencionado en distintos capítulos de esta obra y deseamos reafirmar nuevamente, y eso no puede desconocerse ante el acercamiento Ciencia-Fe que impulsa la Iglesia. Veamos, repasemos las ideas de dos científicos: Uno Doyme , con sus concepciones de auto organización finalista ,el otro Hillis ,con sus planteamientos alrededor de la emergencia de un orden superior a partir de elementos simples y combinemos ambos pensamientos:
RETOMANDO LAS IDEAS DE DOYME
1) La física nos demuestra que podemos construir una imagen coherente del universo partiendo de principios básicos a menudo muy simples. No basta con la mecánica de Newton para entender el movimiento de los cometas y predecir sus trayectorias. Se trata de leyes deterministas, en las que dadas ciertas condiciones iniciales, si nos referimos al cometa serían la posición y velocidad, el futuro del sistema está ya definido. Determinismo y predicción parecen indisociables.
2) El determinismo newtoniano se tambaleó con la llegada de la mecánica cuántica. Esta nos hizo ver que el mundo microscópico de los átomos y las partículas elementales posee un límite más allá del cual las certidumbres se convierten en probabilidades. Ya entrada la segunda mitad del siglo XX, un nuevo marco conceptual vendría a introducir nuevos elementos en el cuerpo teórico de la ciencia. Gracias a los trabajos de Illya Prigogine y sus colaboradores, de la Universidad Libre de Bruselas, comenzaron a aplicarse herramientas de la física al estudio de sistemas complejos alejados del equilibrio, fueran éstos químicos o biológicos.
3) Se había observado que, en determinadas reacciones químicas y bajo condiciones adecuadas, un sistema que por sí mismo debería tender hacia un estado de equilibrio homogéneo mostraba oscilaciones periódicas macroscópicas y adquiría unas sorprendentes estructuras espaciales en forma de ondas espirales. Semejante resultado no parecía compatible con la interpretación estricta de la segunda ley de la termodinámica, que nos dice que la entropía y, por tanto, el desorden aumentan siempre. Nada tiene, pues de especial que la información relativa a esos fenómenos se recibiera con escepticismo, si no con incredulidad.
4) Con el descubrimiento del caos determinista en sistemas dinámicos simples, se demostró que, tras fenómenos manifiestamente complicados, subyacía un “orden oculto”. Una sola ecuación determinista podía generar dinámicas aparentemente aleatorias o erráticas que jamás se repetían. Y lo que era aún más sorprendente: los fenómenos caóticos eran, pese a su carácter determinista, impredecibles. Bastaba una imprecisión mínima en nuestro conocimiento de las condiciones iniciales (por ejemplo, en las variables climáticas locales en un instante dado) para que aquella se propagara exponencialmente hasta convertir la predicción en pura entelequia, alejada de la evolución real. Se había puesto la primera piedra de una futura teoría de la complejidad.
5) Pero complejidad no era, necesariamente, sinónimo de complicación. Lo que sí se exigía era abandonar nuestra intuición lineal de los fenómenos y reemplazarla por una visión del mundo basada en la no linealidad. A finales de los ochenta, el empleo de ordenadores cada vez más potentes, sumado al desarrollo de nuevas herramientas matemáticas, permitía comprobar que tanto la geometría como la dinámica de muchos sistemas naturales podían abordarse desde enfoques simples.
6) Se fue aceptando la existencia de “propiedades emergentes”, que aparecen en un sistema no lineal como resultado de la interacción entre sus partes y que no pueden explicarse a partir de las propiedades de sus elementos componentes. Se trata, en definitiva, de sistemas complejos, y como tales sus propiedades emergen de las interacciones entre sus elementos componentes. Muy pronto se comprendió que los sistemas complejos aparecen a medio camino entre el orden y el desorden. Por un lado, el orden es necesario para almacenar información y mantener la estabilidad de las estructuras.
7) Pero también se precisa flexibilidad en la transmisión de información. Recientemente, y desde enfoques distintos, se ha propuesto una hipótesis general acerca del origen de la complejidad. La han elaborado, entre otros, Jim Crutchfield, de la Universidad de California en Berkerly, Stuart Kauffman, del Instituto de Sistemas Complejos de Santa Fe, Chris Langton, del Centro de Estudios No Lineales en Los Álamos, y Per Bak, del Laboratorio Nacional de Brookhaven. La hipótesis de la frontera del caos, como se la denomina, establece que la complejidad aparece en unas condiciones muy especiales, conocidas desde antaño por la física: los puntos críticos en los que tienen lugar las transiciones de fase. Los sistemas complejos serían el resultado de una evolución hacia dichos puntos.
8) A principios de los setenta Leigh Van Valen, de la Universidad de Chicago, propuso un enfoque alternativo de la evolución. En su teoría, Van Valen considera las interacciones entre especies como una “carrera de armamentos”, en la que cada componente, cada especie, intenta mejorar su posición dentro del ecosistema. Ello significa que, además de interaccionar con el medio físico, interacciona con el ambiente biótico, entendiendo por tal las restantes especies. Un cambio en la situación de una especie inducirá cambios en las demás; la alteración operada en estas influirá, a su vez, en la primera, que, por consiguiente, deberá experimentar otro cambio, y así en idas y venidas sin fin. Ese proceso de mutua interferencia admite una formalización en el marco de la teoría de juegos para llegar a la conclusión de que la especie cambia solo para persistir.
9) Lo que vemos en el curso de la evolución de las especies son los elementos de un sistema complejo, en el que lo único importante es seguir existiendo. De ahí que a esta argumentación de Van Valen se la reconozca por hipótesis de la Reina Roja (en referencia al célebre personaje de Lewis Carroll, que le explica a Alicia en el País de las Maravillas cómo para permanecer en el sitio, no hay que dejar de correr). Una consecuencia a la que llega el modelo matemático es, justamente, que las tasas de extinción son constantes. Bajo esa equiprobabilidad de duración de las especies que aflora en la piel de la macroevolución opera bajo una dinámica intrínseca.
10) Sobre esta base, Stuart Kauffman ha elaborado un modelo de evolución que intenta sacarla a la luz. El modelo considera un conjunto de especies relacionadas entre sí y que poseen la capacidad de evolucionar. Cada especie puede cambiar para mejorar su posición en el ecosistema. Al hacerlo, las especies con las que se encuentra relacionada se resienten en su adaptación y deben, a su vez, cambiar para reforzarla. Todas las especies que intervienen en ese juego siguen, pues, una regla fundamental: han de potenciar su adaptación en el grado en que les sea posible. Cada cambio de una especie obliga a las demás participantes a cambiar, y así el sistema evoluciona hacia un punto crítico.
11) Del modelo de Kauffman se desprende que las propiedades globales de la evolución biológica nacerían de un fenómeno de tipo dinámico que algunos autores han denominado “atractor evolutivo”. Esta definición pone de manifiesto la existencia de un estado final que atrae el sistema hacia el punto crítico. Una vez alcanzado, la propia búsqueda de una mejor adaptación por parte de los elementos genera inestabilidades que se propagan a todas las escalas. Las inestabilidades, por su parte, pueden arrastrar consigo a las especies que las generaron, razón por la cual las extinciones, incluidas algunas de las principales, vinieron causadas por una inexorable dinámica crítica.
RETOMANDO LAS IDEAS DE HILLIS
1) Una de las cuestiones más apasionantes es cómo emergen cosas de orden superior a partir de la interacción de cosas de orden inferior. Por ejemplo: Imaginemos cómo vería un organismo unicelular a un organismo pluricelular. El organismo pluricelular está en un nivel incomprensible para el organismo unicelular (es posible que la parte de nuestra mente que procesa información sea en gran parte un artefacto cultural). Un humano que no haya crecido entre otros humanos es de hecho una máquina bastante poco inteligente. Parte de lo que nos hace inteligentes es nuestra cultura y nuestra interacción con los demás. Y eso mismo sería también en parte lo que haría inteligente a una máquina. (Tendría que interaccionar con seres humanos e integrarse en nuestra cultura).
2) Desde el punto de vista biológico, ¿cómo se organiza este simple proceso evolutivo en organismos biológicos complicados?; y desde el punto de vista técnico, ¿cómo hacer que conmutadores simples como los transmisores, cuyas propiedades conocemos, hagan una cosa compleja que no comprendemos? Desde el punto de vista físico, lo que se estudia es el fenómeno general de la emergencia, de cómo cosas simples se convierten en cosas complejas. En lo esencial, todas estas disciplinas aspiran, desde ángulos diferentes, a responder la misma pregunta: ¿cómo puede el funcionamiento conjunto de unos elementos simples e insulsos producir algo complejo que trasciende a ellos?
3) En eso consiste esencialmente la teoría de la “sociedad de la mente” de Marvin Minsky; en eso consiste la “vida artificial” de Chris Langton; así concibe la evolución Richard Dawkins; eso es fundamentalmente lo que estudian los físicos que se fijan en las propiedades emergentes; en eso consiste el trabajo de Murray Gell-Mann sobre los quarks, ese es el hilo conductor de todas esas ideas.
4) Apasiona la idea de que podamos encontrar la forma de explotar determinados principios generales de organización para producir algo que va más allá de nosotros mismos. Si retrocedemos muchos miles de millones de años, podemos ver que la historia de la Tierra se ajusta a este modelo. En primer lugar, las partículas fundamentales se organizan para crear la química. Luego la química se organiza para crear la vida autorreproductiva. Después la vida se organiza en organismos pluricelulares y los organismos pluricelulares en sociedades unidas por el lenguaje. Las sociedades están ahora organizándose a sí mismas en unidades mayores y produciendo algo que las conecta tecnológicamente, produciendo algo que va más allá de ellas mismas. Todo esto son eslabones de una cadena, y el siguiente paso es la construcción de máquinas pensantes.
5) Lo más interesante de este mundo es cómo un cúmulo de cosas simples y anodinas se organizan en algo mucho más complicado cuyo comportamiento tiene lugar a otro nivel. Todo -ya sea el cerebro, los ordenadores paralelos, las transiciones de fase o la evolución- se ajusta a este modelo. Se intenta reproducir dentro del ordenador el proceso de la evolución con objeto de conseguir máquinas que se comporten de manera inteligente.
6) Lo que hacemos es poner en marcha un proceso evolutivo que tiene lugar a la escala del microsegundo. Por ejemplo, en los casos más extremos, podemos desarrollar un programa partiendo de secuencias aleatorias de instrucciones. Por ejemplo, “ordenador produce cien millones de secuencias aleatorias de instrucciones, ejecútalas todas y escoge las que más se acerquen a lo que yo quiero”. En otras palabras, se define lo que se desea, pero no cómo conseguirlo.
7) Cada una de estas generaciones dura unos pocos milisegundos, así que puede simular en el ordenador el equivalente a millones de años de evolución en unos pocos minutos (o en unas pocas horas, en los casos complicados). Al final se acaba teniendo un programa de ordenación alfabética absolutamente perfecto y mucho más eficiente que cualquier programa que pudiera haberse escrito a mano. Pero si se da un vistazo al programa no se puede decir cómo funciona, será un programa oscuro, estrafalario, pero hará bien su trabajo, porque desciende de una línea de cientos de miles de programas que hacían eso mismo. De hecho, las vidas de esos programas dependían de ello.
8) Pero la ingeniería deja de funcionar bien cuando se hace muy complicada; por ello estamos comenzando a hacer uso de ordenadores que se valen de un proceso muy diferente, capaz de producir cosas de complejidad muy superior. Pero de hecho no conocemos, ni mucho menos, las posibilidades de ese proceso, así que en cierto sentido nos está superando. En la actualidad estamos empleando esos programas para construir ordenadores mucho más rápidos, de manera que podremos acelerar aún más el proceso. Se puede decir que el proceso se alimenta a sí mismo. Se está haciendo cada vez más rápido. Es autocatalítico y escapa a nuestro nivel de comprensión.
9) De frente a este hecho los seres humanos nos parecemos a los organismos unicelulares en el momento en que se estaban transformando en organismos pluricelulares. Somos amebas que no podemos hacernos idea de qué estamos creando. (Estamos justo en esa fase de transición)Por eso, pensar que somos el “producto final de la evolución” es un acto de soberbia. Todos somos parte del proceso de producción de lo que vendrá después. Estamos en un momento apasionante: Nos encontramos cerca de la singularidad y es como volver a aquella “letanía de la química que conduce a los organismos uniceculares que conducen a la inteligencia”.
10) El primer paso necesitó mil millones de años, el siguiente sólo cien millones. Estamos en una fase en la que las cosas cambian cada década, y el proceso parece estar acelerándose. La tecnología tiene un efecto autocatalítico: ordenadores cada vez más rápidos nos permiten diseñar ordenadores cada vez más rápidos. Nos encaminamos hacia algo que va a ocurrir muy pronto -en el curso de nuestras vidas- y que es fundamentalmente diferente de cualquier otro acontecimiento anterior en la historia humana.
11) La gente ha dejado de pensar en el futuro, porque se da cuenta de que es imposible hacerse una idea de lo que vendrá. El mundo en que vivirán nuestros nietos será tan diferente que los criterios normales de planificación del futuro ya no sirven. Hace 30 ó 40 años la gente solía hablar de lo que iba a pasar en el año 2000. Ahora que se acerca el fin de siglo, la gente sigue hablando de lo que va a pasar en el año 2000. Desde nuestro nacimiento, el futuro se ha ido encogiendo a razón de un año por año; si se intenta hacer una extrapolación para entrever cómo será la tecnología a principios del próximo siglo, solo se divisa un punto en el que va a pasar algo imposible de concebir. Quizá sea la creación de máquinas inteligentes; o “quizá sea nuestra fusión en un organismo global, mediada por la telecomunicación. Todo esto puede sonar a mística, pero muy realista: Pienso que estamos siendo testigos –y continuaremos siéndolo en las próximas décadas- de algo que no podemos comprender, algo que resulta tan inquietante como apasionante”.
RECAPITULACION
Los postulados de Chardin comenzaron a hacerse en 1916 y cesaron en 1955. Es lógico que muchas ideas en boga en el seno de la ciencia lo impactaran, pues él era –además de sacerdote científico antropólogo. Los libros publicados a posteriori lo fueron como un esfuerzo de quienes buscando una correlación entre los hallazgos de la ciencia y los postulados de la fe, persistieron bajo su influjo en la idea. Por tanto no hay relación alguna entre los postulados recién señalados y los que hiciera Chardin. Pero cambiemos el concepto “atractor” que utiliza Doyme y sustituyámoslo por Omega y tenemos el mismo sistema avizorado por Chardin. Y tomemos el concepto “emergencia” que utlizaba Chardin y sustituyámoslo por el de “emergencia” que también usa Hillis y tendremos el mismo resultado. Pero adviértase que no son simples juegos y trasposiciones de palabras ,sino la confirmación teórico - científica postmoderna de las ideas místicas planteadas por Chardin en su intento de acercar la Ciencia y la Fe, que él –por ser científico y sacerdote debía sentir como una necesidad encarnada en su propio ser.
Las preguntas que nos hemos formulado desde el principio y las múltiples respuestas que hemos obtenido en este largo periplo históricos ,deben acompañar al hombre de manera permanente para volver a replantearlas ,porque mientras no lleguemos a tener la omniscencia de que no gozamos, el hombre es solamente un simple ser que existe preguntándose e interpretado a sí mismo , y no por una simple divagación teórica que le lleve tranquilidad sino que sus preguntas brotan de la más profunda necesidad de quien ha de construirse a sí mismo identificándose con su Creador y por ello requiere de una imagen rectora sobre la cual deba hacerlo.
Ahora bien ambas se enlazan una a la otra: la imperfección del hombre es la que, en compensación empuja a la auto comprensión que le dice como puede perfeccionarse. A su vez la interpretación que se da de sí mismo no queda precisamente desligada sino que debe engranarse a la vez con el todo del Cosmos y a la vez con la imagen rectora superior.
La auto interpretación del hombre es un principio de responsabilidad intrínseco y que le trasciende, a la vez. Esta responsabilidad debe ser siempre consciente. Por eso nunca se cerrarán las preguntas: ¿Quién soy y para que estoy en el Universo?.
Las respuestas pueden cambiar y llevarle ora tranquilidad, ora desasosiego. El esfuerzo de disciplinas para convergir en la búsqueda de las verdaderas respuestas se convierte entonces en una necesidad ética insoslayable porque aunque las respuestas cambien la inquietud permanecerá: ese es el destino ineluctable del hombre.
0 comentarios:
Publicar un comentario