Capítulo VI: Cosmología- Evolución Humana - Mente

(1980 a 1995)

En este capítulo, que cubre de 1980 a 1995 aproximadamente, se hace una síntesis del estado en que se encuentran tres áreas del conocimiento. La primera: la Teoría Evolucionista del Universo o Teoría del Big Bang (B.B.), la segunda: la Teoría de la Evolución Humana, la tercera: las diversas teorías que se ocupan de estudiar la Mente; ya que es a partir de estas fechas en que del campo de la cosmología se divulga, con fuerza, ideas sobre la interrelación Evolución del Universo - Evolución Biológica-Evolución de la Mente Humana, en el marco de la Evolución Global. En otras palabras: es a partir de las nuevas visiones metafísicas provenientes de cosmólogos de vanguardia, que surge la idea que el ser humano no es un simple espectador de la Naturaleza, sino co-creador de ella. La idea primigenia salta de la física cuántica y se extrapola al Universo. Verdadera o no, esa afirmación salida de la ciencia muestra -salvadas las distancias y los métodos- un notable paralelismo con lo que ya intuían desde la antigüedad los humanos que afirmaban lo mismo.

Cuando se utilizan cifras con gran cantidad de ceros para referirse al Universo, al Sistema Solar, a la creación de la Tierra, y a la aparición de la vida en el planeta y la evolución humana, suele surgir el problema de imaginar períodos muy prolongados, de difícil comprensión para la mente. Una ayuda valiosa es recurrir a la confección de un “Calendario Cósmico” hipotético como el que se presenta, pues permite visualizar los sucesos desde el B.B. hasta la actualidad.

Se presenta un calendario cósmico tomado de la obra de Carl Sagan: “Los Dragones del Eden” (modificado), para situar en él los acontecimientos que se detallan luego. Este calendario artificial permite ubicar de acuerdo con dataciones convencionales muy fácilmente en solo un año y un día, todo el proceso evolutivo que ha tomado quince mil millones de años. Si se toma el dato que se maneja en el tercer milenio sería necesario hacer algunas modificaciones a este calendario cósmico.

CALENDARIO COSMICO (ADAPTACION)

Evolución lenta:
• 1 de enero: Hace 15000 millones de años: nace el Universo en el B.B.
• 1 de mayo: Se forma la Vía Láctea
• 10 de setiembre: Hace 4600 millones de años se forman el Sistema Solar y la Tierra
• Fines de setiembre: Surge la “vida” sobre la Tierra para evolucionar y dividirse - según el tipo de alimentación, su reproducción y su desarrollo - en cinco reinos: Monera; Protista, Hongos, Vegetal, Animal
• 1 de octubre: Se forman las rocas más antiguas conocidas en la Tierra
• 9 de octubre: Surgen bacterias y algas unicelulares, los fósiles más antiguos descubiertos hasta ahora
• 19 de octubre: Las bacterias inician la fotosíntesis
• 12 de noviembre: Se desarrolla la atmósfera de oxígeno en la Tierra
• 24 de noviembre: Aparecen los primeros seres vivos unicelulares con núcleo (Eucariotas)
• Fines de noviembre: Los eucariotas inician la sexualidad.

Último mes del Primer Año: Evolución rápida:
• 1 de diciembre: Hace 1274 millones de años
• 12 de diciembre: Surgen las primeras plantas y animales pluricelulares
• 15 de diciembre: Termina la edad primitiva de la Tierra, comienza la Antigüedad (formación geológica: Cámbrico)
• 16 de diciembre: La “evolución cámbrica”: los seres pluricelulares se extienden explosivamente
• 17 de diciembre: Animales invertebrados con caparazón
• 20 de diciembre: Evolución de los peces acorazados: primeros animales con columna vertebral
• 21 de diciembre: Primeras plantas terrestres, pequeños anfibios se asoman a tierra firme (Silúrico)
• 23 de diciembre: Surgen los primeros anfibios e insectos (Devónico)
• 24 de diciembre: Bosques de carbón, primeros reptiles (Carbonífero)
• 25 de diciembre: Aparecen los predecesores de los dinosaurios (Pérmico)
• 26 de diciembre: Inicio de la edad media de la Tierra, auge de los dinosaurios (Triásico)
• 27 de diciembre: De los reptiles se desarrollan los primeros mamíferos (Triásico / Jurásico)
• 28 de diciembre: Vuelan las primeras aves (Jurásico)
• 29 de diciembre: Imperio de los dinosaurios: mamíferos a la sombra de los reptiles gigantescos, espermatofitos
• 30 de diciembre: Inicio del Neozoico: se extinguen los saurios, florecen los mamíferos, primeros primates (Terciario)

Transición del primero al segundo año: Evolución muy rápida:
• 31 de diciembre: Surgen los monos y simios antropoides, primeros homínidos, glaciaciones, evolución cultural del hombre (Cuaternario)
• 12:50 (mediodía): Existe el Dryopithecus, el último antepasado común de los antropoides y el hombre (Hace unos veinte millones de años)
• 15:15 (tarde): En India y África Oriental se desarrolla el Ramaphiteco, probablemente el antepasado más antiguo de la familia humana (hace unos quince millones de años)
• 21:40 (noche): Vive en África el Australopitheco Afarensis, el más antiguo representante de la familia humana (hace unos cuatro millones de años)
• 22:30: Viven en África, al mismo tiempo, tres representantes de la familia humana: Australopitheco Africanus. Australopitheco Robustus y Homo Habilis (hace unos dos millones y medio de años)
• 22:50: Hombres primitivos emplean los primeros utensilios, como proyectiles rodados, cuchillos y raspadores de piedra (hace unos dos millones de años)
• 22:57: Vive en África, y poco después en Asia, el Homo Erectus, presumiblemente el “primer hombre auténtico” (hace 1,8 millones de años)
• 23:18: Inicio de la glaciación de Mindel (hace 1 ó 2 millones de años)
• 23:32: Homo Erectus aprende el uso del fuego (hace 500,000 años)
• 23:50: Hombres de la era glacial cazan elefantes en Torralba y Ambrona España (hace 300,000 años)
• 23:56: Aparece el hombre de Neanderthal (hace unos 115,000 años)
• 23:57: Comienza la última glaciación
• 23:00: h.57:54”: Los más antiguos enterramientos rituales conocidos (probable transición de los mitos a ideas religiosas)
• 23 h.58:40”: Aparece el hombre de Cro - Magnon, biológicamente un hombre moderno (hace 38,000 años)
• 23 h.58:47”: Los primeros inmigrantes en América (hace 34,000 años)
• 23 h.58:50”: Los primeros inmigrantes en Australia (hace 33,000 años)
• 23 h.58:52”: Las primeras pinturas rupestres (32,000 años)

Evolución acelerada ( últimos segundos antes de medianoche):
• 46 seg.: Invención de la aguja, vestidos ajustados al cuerpo, utensilios finos de asta y hueso, tallas de marfil (hace 22,000 años)
• 29 seg.: Inicio del Mesolítico
• 21 seg.: Primeros animales domésticos (perros), primeras cerámicas (hace 11,000 años)
• 21 seg.: La primera ciudad (Jericó), agricultura en Oriente Medio (hace 10,000 años)
• 14 seg.: Comienza la Edad del Cobre: primer uso de metales para herramientas (6,500 años)
• 11 seg.: Los sumerios inventan la rueda (hace 5,500 años)
• 10 seg.: Primera escritura de ideogramas en Oriente Medio (Sumer); comienza la Edad de Bronce
• 9 seg.: Construcción de las grandes pirámides de Gizeh; Egipto es el primer “Estado” (hace 4,650 años)
• 7 seg.: En Oriente Medio se funde hierro; comienza la Edad del Hierro; aumentan el comercio y las guerras (hace 3,400 años)
• 6 seg.: Los fenicios desarrollan el alfabeto moderno; fundación de Roma
• 5 seg.: En Atenas viven Pericles, Platón y Aristóteles: Grecia clásica (hacia 400 a J.C.)
• 4 seg.: Nacimiento de Jesucristo, Roma es gran potencia.
• 3 seg.: Caída de Roma, nacimiento de Mahoma
• 2 seg.: Edad Media en Europa, Cruzadas, Imperio Bizantino, florecimiento de la cultura islámica, invasiones mongolas.
• 1 seg.: Renacimiento en Europa, viajes de descubrimiento a África, América; primer viaje alrededor del mundo; Copérnico, Kepler, Newton; inicio de los métodos científicos experimentales modernos (1450 a 1700 d.C.)

Primer día del Segundo Año: Aceleración actual que incluye,entre otros aspectos: Rápido auge de ciencia y técnica, mecanización, planetarización humana, bomba atómica, cohetes, computadoras, explosión demográfica, aumento de la pobreza, aumento de la corrupción, Inicio de la globalización (¿anticipo de la planetarización?...) a Usted y sus preocupaciones... Pero, agreguemos una más, la que se refiere al fin del Universo y examinemos los diversos modelos que se han propuesto.

a) Modelos Cíclicos (Antecedentes Históricos)
A principios de 1990 la “American Astronomical Society establece el capítulo de estudios de “Arqueoastronomía” para fundamentar científicamente el material que con mucha liberalidad se utiliza por parte de escritores pseudocientíficos. Nota: Es evidente que el concepto de Universo Cíclico se presenta en prácticamente todas las cosmogénesis de la antigüedad en todos los continentes y ha llegado por diversos medios hasta nuestros días.
• Siglo IV A. C.. Primera referencia indirecta. Eudoro de Rodas (filósofo griego) “Si hemos de creer las enseñanzas de los pitagóricos alguna vez volveré a conversar con ustedes, sosteniendo este mismo palito en las manos y de la misma manera se repetirá todo”.
• Siglo III a. C. Primera referencia directa. Beroso (filósofo / sacerdote sumerio). “El Universo se destruye periódicamente y después se vuelve a reconstruir”
• Siglo III a.C. Indra (Dios védico) en el “Brahmavavaista Purana”. Primera referencia religiosa. “Conozco la terrible desintegración del Universo. He visto como todo se destruía. Siempre una y otra vez al finalizar cada ciclo. en ese momento cada átomo se desintegra en las partículas primarias del agua de la eternidad; así igual en otros tiempos....”
• Siglo I a.C. Virgilio (cuentos/poeta romano). “....En esta eterna repetición del todo lo que ha sido alguna vez, todo cumplirá su círculo de nuevo y de nuevo comenzarán nuevas guerras....”

b) Modelos Cíclicos Científicos Modernos
• 1919, Kürt Godel, (Primera referencia moderna). “Fundamenta matemáticamente la tesis de que, en determinadas condiciones nuestro Universo retorna a su punto inicial para después repetir el mismo ciclo y lo culmina, volviendo de nuevo a su estado primitivo”.
• 1921, Albert Einstein. “La ciencia no puede aducir argumentos absolutamente incontrastables en contra de la idea del retorno eterno.
• 1932, Richard Tolman. Demuestra la imposibilidad de la existencia de un Universo cíclico, cuyos ciclos sean iguales, dado que por exceso de radiación del proceso de contracción, el reinicio se hace en condiciones tales que el nuevo ciclo es enteramente diferente al anterior; se expande cada vez a un radio más grande y en fin los ciclos se van haciendo cada vez más y más grandes (el espacio) y largos (el tiempo).
• 1951, Paul Davies. Replantea que el Universo cíclico es posible y la dificultad señalada por Tolman (entropía) se soluciona por la aparición de mecanismos diversos: a) “agujeros negros” que disipan la radiación excesiva predicha por Tolman. b) violación de la segunda ley de la Termodinámica por medio de la reversión del tiempo.
• 1960, Thomas Gold. Replantea el modelo sobre la base de un retroceso de la flecha del tiempo que afecta no sólo lo físico, sino lo mental, con lo cual el incómodo efecto del retroceso se anula.
• 1980, Stephen Hawking; 1983, Stephen Hawking/ James Hartle. Admite el modelo cíclico sobre la base del retroceso de la flecha del tiempo, pero luego al manipular las ecuaciones de la mecánica cuántica, admite el error de su postura anterior, dado la imposibilidad de obtener la simetría del tiempo en el cambio.
• 1990, Murray Gell - Mann /James Hartle. Postulan de nuevo el concepto de un Universo cíclico para lo cual se admite la modificación de las reglas de la mecánica cuántica para imponer la simetría del tiempo como solución.

c) Muerte Termodinámica (1856)
• Hermann Helmholtz. Plantea que a causa de la segunda ley de la termodinámica el Universo marcha hacia la entropía total y su resultado final es la destrucción de la organización de toda la materia.
• d) Muerte por Catástrofe Periódica (1950)
• Inmanuel Velikosky. En su obra “Mundos en Colisión” vaticina sobre la base de colisiones entre cometas y planetas, el fin de la Tierra. Aunque en 1974 en un simposio celebrado por la American Association for the Advancement of Science se demuestran sus errores, pero los siguió pregonando.
• Donald Goldsmith. En su obra “Nemesis ” presenta la teoria de Shiva que señala que una compañera del Sol aparece periódicamente cerca de la Tierra causando catástrofes.


d) Muerte Térmica Solar (1940)
• Teoría de evolución estelar (Modelo Standard). El sol, por su masa poca significativa sufre una evolución típica que le llevará dentro de 5000 millones de años a expandirse convirtiéndose en una gigante roja (500 veces su tamaño actual) que englobará el Sistema Solar, con lo que todos los planetas del Sistema Solar quedarán amasados por el inmenso calor. La vida en la Tierra terminará aún antes de completarse el proceso por el excesivo aumento de la radiación cuando se inicie la expansión.

e) Muerte Térmica Universal (Por Contracción) (1930-1980)
• Consecuencia de la evolución predicha por la teoría Big Bang (B.B.) (Modelo Standard). Predice que si el Universo se contrae todo desaparecerá en un proceso que llevará lenta e inexorable hacia el Big Crunch. La desaparición de todo signo debida será por exceso de radiaciones y además por la altísima temperatura resultante. La posibilidad de que esto ocurra depende de la densidad crítica del Universo.

f) Muerte Térmica Universal (Por Expansión) (1930 - 1980)
• Consecuencia de la evolución predicha por la teoría B. B. (Modelo Standard). Predice que si el Universo se continúa expandiendo, todo signo de vida desaparecerá debido a un proceso que llevará lenta e inexorablemente hacia temperaturas extremadamente bajas. La posibilidad de que esto ocurra depende de la densidad crítica del Universo.

g) Muerte del Universo Tipo Inflacionista (Modelo Guth) (1980 - 1995)
• Allan Guth. Formula la idea que al producirse la inflación la densidad llega a un nivel crítico en que pueden darse dos posibilidades: a) por una coincidencia el modelo standard inflacionista predice que si el período de inflación duró exclusivamente lo necesario para que la densidad esté apenas por debajo o por encima de la masa crítica, se podrá predecir si el Universo se expandirá o se detendrá para luego contraerse. b) Si la inflación duró apenas un instante más de lo estrictamente necesario, la expansión es exponencial. En este caso el período de la expansión se dobla, triplica, cuadriplica y así hasta el infinito. Por lo tanto el ser humano será incapaz de conocer el destino del Universo.
• h) Muerte Durante la Expansión Infinita (1985 - 1993)
• Stephen Hawking. Predice que en el evento de que el Universo no se contraiga y continúe la expansión infinita, siempre terminará el Universo porque actúan dos mecanismos en el tiempo inmensamente lejano ya que: a) Por teoría relativista/cuántica todo terminará en agujeros negros, que luego de inmensos períodos de tiempo desaparecerán por radiación. b) Por teoría cuántica aún si quedarán partículas sobrevivientes, todas tienden a desaparecer en el tiempo. c) Al desaparecer toda la materia organizada engullida por los agujeros negros y al desaparecer estos, a su vez por radiación, así como al desaparecer todas las partículas de cualquier materia restante, el Universo presentaría, de nuevo, en eones y eones de tiempo un panorama desolador; tan sólo en la inmensidad de la vastedad despoblada persistirán algunas partículas exóticas (como se suponía existía antes de T = 0, antes del inicio del B. B.).

i) Muerte del Universo (Si cae en un estado de vacío verdadero) (1980 - 1982)
• Teorías de: Sidney Coleman / Frank De Lucía. Las teorías de la inflación (Guth/Linde/Starorbinski) parten del principio de que en un lapso instantáneo el Universo al principio del B.B. pasó por el efecto de “túnel” de un estado de falso vacío (excitado) a uno de vacío verdadero (baja energía). Pero esta teoría es rebatida por Sidney Coleman y Frank de Lucía, quienes postulan que aún el Universo no ha caído en esta última etapa, sino que se encuentra suspendido en una etapa intermedia (meta - estable) y señalan que al caer en el vacío verdadero se producirá una catástrofe cósmica (la formación instantánea de una burbuja con un crecimiento exponencial altísimo y a la vez el colapso de todo el Universo que queda atrapado).
• Apoyo posterior de: Michael Turner, Frank Wilczeck. El apoyo a esta tesis (Turner /Wilzeck) plantea que efectivamente la burbuja de vacío verdadero podía iniciarse en cualquier momento y en cualquier parte del Universo.
• Seguido de advertencia de: Piet Hutt / Martin Nees. La advertencia de Hutt/Ness era acerca de que los propios físicos podían con su manipulación con los aceleradores de partículas, iniciar el desastre anunciado por Turner / Wilzeck.

j) Persistencia Eterna del Universo Inflacionista (Modelo Linde) (1980 - 1989)
• 1983, Andrei Linde. El modelo inflacionista postulado por Linde no pasa de un falso vacío verdadero como señala el modelo de Guth, sino que el proceso es caótico porque la energía se encuentra en diferentes estados: alta, moderada, baja. Así que el resultado es en realidad un cúmulo de miniUniversos (cada uno en su propia burbuja). En consecuencia hay miniUniversos que del todo no se inflan, otros lo hacen medianamente y algunos crecen exponencialmente (como es el caso de nuestro Universo) hasta tamaños enormes, lo que permite que unas regiones evolucionen de manera uniforme y otras de manera violenta. En 1989 Linde plantea las consecuencias que apareja el modelo . En el escenario del modelo inflacionista la vida es eterna y para evitar la muerte, la humanidad puede pasar de una burbuja de Universo a otra y así eternamente, pero la distancia entre una y otra burbuja es espantosamente grande: en uno seguido de varios millones de años luz. Linde calcula que estamos cerca del borde y si continuamos la expansión nos acercamos a la más cercana burbuja (Universo), próxima, aunque para pasar al otro lado se requiere - a la velocidad de la luz - la misma cantidad de años: uno seguido de varios millones de ceros. Dentro de varios miles de millones de años la fuerza que causó la inflación volverá a actuar nuevamente y el Universo sufrirá otros B.B. más pequeños creando nuevas concentraciones de materia, y la humanidad pueda pasar de una galaxia a otra por medio de los agujeros negros (que al abrir su horizonte de los eventos permiten el paso a altísima velocidad debido al mecanismo de la nueva inflación local que facilitaría este paso).
• En 1994,el planteamiento es criticado por Paul Davies por estas razones: a) El modelo de Linde es un retorno al modelo estacionario ya desechado en 1965. b) No se explica el B.B. sino que habría una serie de B.B. en el tiempo infinito. c) Si la existencia es eterna y no hay límites para la humanidad el Universo terminaría siendo uno altamente tecnologizado. d) Si así es, y el actual Universo no tuvo principio cabe señalar que el Universo actual no es natural sino uno tecnologizado (puesto que el Universo no cambia, ni cambiará ni ha cambiado, según el modelo de Linde). e) Este modelo coincide con las últimas versiones del modelo de Hoyle, quien plantea la existencia de un ser “superinteligente eterno” (teoría Budista). f) Si hay un ser superinteligente eterno que modela eternamente el Universo, no hay razón para la existencia de la humanidad en un proyecto que nunca termina (teoría de un Dios Creador). g) Por lo tanto el proyecto debe cesar y el Universo llegar a su muerte, pues de lo contrario no tiene sentido (teoría del Apocalipsis).

k) Sobrevivencia si el Universo se expande por siempre
• 1970 - 1995, Gerard O’Neill. Plantea la utilización de formación de colonias fuera de la Tierra y luego fuera del Sistema Solar y así por etapas hasta colonizar otros planetas, lo que permitirá nuevos avances científico/tecnológicos para garantizar la sobrevivencia ante cualquiera de las posibilidades expuestas.
• 1979, Freeman J. Dickson. Formula la tesis altamente especulativa de crear seres robóticos de auto - generación, con capacidad autonómica (y de adaptación, así como de regulación de los efectos de la entropía), de manera que puedan generar pensamiento, independientemente de la destrucción física del Universo y aseguren la permanencia del pensamiento en éste.
• 1980, Frank Weeler / Kip S. Thorpe. Formula varias ideas especulativas para utilizar máquinas del tiempo para escapar a los cataclismos cósmicos, utilizando las diferentes singularidades ocasionadas por la curvatura del espacio - tiempo (agujeros negros / agujeros de gusano).
• 1980, Roger Penrose. Formula la idea de utilizar los agujeros negros para extraer energía que permita la sobrevivencia.
• 1986, John Barrow / Frank Tippler. Formulan la idea de utilizar bombas nucleares para cambiar las órbitas de estrellas y galaxias mediante el desvío, por ejemplo, de asteroides que les hagan variar su curso, así la humanidad puede retardar su desaparición.

l) Sobrevivencia si el Universo se colapsa
• 1986, John Barrow / Frank Tippler. Formulan la tesis, altamente especulativa de que la humanidad puede generar un “ser autosintiente”, con la inteligencia necesaria para manipular el proceso final que lleva al colapso (Big Crunch). El mecanismo consiste en impedir que el colapso (por formación de agujeros negros) sea uniforme y entonces pueda alterar el horizonte de los acontecimientos para evitar el colapso violento. Por el contrario el super ser, dotado de super cerebro almacena toda la información existente en el Universo y puede existir eternamente (aunque termine el Universo físico) y recrearse pensando en lo que desee (una verdadera “orgía” de realidad virtual).

m) Sobrevivencia ante cualesquiera de los escenarios anteriores
• 1981, Grupo de teóricos japoneses. Un grupo de teóricos japoneses demuestran en modelos de computación que una burbuja de vacío verdadero se infla formando un Universo (Baby Universe) como el actual conocido y queda conectado al Universo Madre (vacío verdadero) por medio de un cuello (agujero de gusano) creando su propio e independiente espacio.
• 1982, Alan Guth. Consecuencias: Experimenta la creación de “Baby Universes” en laboratorio, por medio de concentración de energía para crear un “falso vacío”.
• 1992, Lee Smolin. Consecuencias: Plantea que debe existir una especie de evolución manipulada para permitir la convergencia de vida consciente en diversos Universos.

Posterior a estos eventuales escenarios todos hipotéticos, pero fundamentados en cálculos en décadas posteriores se postulan otros , ganando cada vez mas plausibilidad el que pronostica una desaparición por enfriamiento-congelamiento-cese de toda actividad incluso a nivel de subpartículas , producto de la expansión acelerada que se observa en el Universo.


EVOLUCION RAPIDA DE LA CIENCIA COSMOLOGÍCA

Por más interesante que sea el sea el mantenerse al día en la investigación cosmológica, la tarea reviste dificultades serias: por una parte se requiere tener acceso a revistas especializadas de muy alto costo, y por la otra es preciso dominar la materia, lo que requiere al menos conocimientos básicos en física y matemáticas. Por tal razón la labor de los propios especialistas como divulgadores, si bien no es bien vista entre sus propios colegas, cumple una función social de gran importancia.

En la época bajo análisis de entre el cúmulo de artículos de divulgación aparecidos en diversos medios especializados en esta tarea, hay cuatro que en conjunto sirven para formarse una buena idea del estado de situación del B.B. para esa época.

Con el objeto de ubicar al lector en una secuencia histórica se han hecho las modificaciones necesarias para facilitar su comprensión, así como su ubicación en el eje que se desarrolla en esta obra: a) El primer planteamiento, “ De la Nada al B.B.”, permite conocer las dudas que acompañan la aparición de la nada de una “partícula virtual”, iniciadora de un proceso de expansión observable y medible en la actualidad: el Universo; b) El segundo planteamiento, “Agujeros Negros Primordiales en el B.B.”, introduce la idea de estos “bolsos de materia” en el Universo muy primitivo (Very Early Universe) lo que modifica el comportamiento del proceso posterior para hacer un Universo más denso, lo que tiene implicaciones en su futuro desarrollo; c) El tercer planteamiento, “Teoría de la Inflación”, introduce una idea considerada fundamental para entender el comportamiento de las distintas fuerzas universales que aparecen en los primeros estadios del desarrollo del B.B.; d) El cuarto planteamiento, “De la Expansión a la Muerte del Universo” , plantea como se comportará hipotéticamente el Universo futuro si se dan ciertas condiciones básicas y los posibles escenarios en esas lejanas fechas; e) La síntesis resultante de estos cuatro retratos del Universo permite tener una idea de las nuevas ideas (y de las dudas que aún subsisten) para formular un modelo satisfactorio; también introduce en el conocimiento de la propuesta de un Universo inflacionario como una respuesta teórica ya aceptada corrientemente.

1.-DE LA NADA AL B.B.

La familiaridad que distingue al lenguaje físico de hoy día para referirse a eventos ocurridos en los primeros instantes del B.B., todavía termina de causar cierta sorpresa, pues algunos cosmologistas suelen aventurarse en la oscuridad del instante anterior a la gran explosión para aún tratar de expresar su eventual causa, en donde este B.B. sería uno de los muchos sucesos que tienen lugar en el continuo espacio - tiempo que habitamos (que se ha denominado “Hiperespacio”) a falta de otro término mejor, aunque siempre éste tiene el problema de la castidad semántica para expresar lo que se intuye, pues no es fácil de representar, pero en el que muchos otros Universos pueden probablemente existir, como producto de otros eventos similares al B.B. que han ocurrido en otras dimensiones aún desconocidas.

Problema de la Creación: La explicación de la teoría del Estado Estacionario cada vez más debilitada por el descubrimiento de la radiación de 3° K, remanente de la gran explosión detectada significaba - aún al menos - un escape para los físicos que ahora, sin ese soporte deben explicar como, - violando el principio de la conservación de la materia - piedra angular de la misma ciencia, el Universo apareció nada menos que de la nada, lo cual significa ni más ni menos que recurrir a la explicación de causas no naturales, metafísicas si se (desea, o dicho de otro modo) recurrir a la explicación sobrenatural, aspecto que causa temor a la ciencia.

Incluso la idea de un Universo oscilante con repetidos sucesos de “B.B. - B.B.” en que la fase inicial del actual conocido sería el recolapso de una etapa anterior, pese a no existir ninguna evidencia a su favor, tenía también la atracción de que dejaba dentro de los campos de la ciencia una explicación que no estaba fuera de sus reinos.

Esta propuesta científica quedó sin embargo también sin asidero dado que estos ciclos repetitivos, conllevan un aumento de la entropía, lo que lógicamente redundaría en una situación en que habiendo más y más energía llegaría a un punto en que cada una de las fases de extinción daría origen - si este fuera el mecanismo - a un Universo de más y más duración. Pero si se aceptaba esta idea (sugerida en 1934 por el astrónomo norteamericano R. Tolman) usando el criterio inverso significaría que yendo hacia atrás, en la dirección del tiempo, el Universo expandido sería cada vez menor y menor en su duración, hasta llegar a un punto en el que se requería nuevamente imaginarlo saliendo de la nada, como una repetición de la aporía de Zenón de Elea pero a gran escala.

Fluctuación Cuántica: En 1973, el físico norteamericano E.P. Tryon, utilizando el Principio de la Incertidumbre de la mecánica cuántica postulado por R. Heisemberg señala que, el Universo podría ser lanzado a su existencia de la nada, sí únicamente interviniera la aparición de una “partícula virtual”, comúnmente conocida en la mecánica cuántica porque en el laboratorio de los físicos aparecen y desaparecen espontáneamente en el espacio a través del tiempo.

Según Tryon la idea la concibió al pensar las razones por las cuales el total de la energía potencial gravitacional (una energía en que cada fuerza de masa incide en cada otra fuerza de masa) es cero y no había razón aparente por la cual ambas cantidades fuesen “exactamente iguales”, podrían anularse una con la otra, sin necesidad de energía, por lo cual el Universo, como tal, tenía energía neta de cero.

De acuerdo a la mecánica cuántica cualquier sistema con poca energía neta puede salir de la nada, tener vida por un instante y luego desvanecerse; así por ejemplo, como se conoce en la práctica una “Fluctuación cuántica” tan pesada como el par electrón - protón tiene una vida de sólo 10-21 segundos y uno con 10-21 veces de energía de exactamente cero, puede aparecer de la nada y existir para siempre.

Por otra parte Tryon dedujo que no hay límite para el tamaño de las fluctuaciones cuánticas, que están ocurriendo permanentemente en un espacio vacío. Algunas más grandes pueden ser menos frecuentes que otras menores, por lo que en un espacio de tiempo grande, incluso las más grandes deben aparecer, inevitablemente a causa del azar, con lo que, dedujo que un sistema realmente grande que aparezca de esta forma debe ser, necesariamente indistinguible del B.B. siendo indistinguible -conjeturaba- bien el Universo pues haber salido de la nada.

Estas conjeturas de Tryon no conducían, sin embargo, hacia ninguna parte, puesto que los planteamientos de la cosmología no dejaban campo para hacer una relación entre la astrofísica y la física de partículas. Pero a partir de las teorías de Stephen W. Hawking en 1974 la situación comenzó a cambiar poco a poco, pues en ese año publicó su trabajo que mostraba como un agujero negro podría evaporarse lentamente, debido a la creación de materia fuera de las fluctuaciones del vacío, cerca de su horizonte de los eventos en un proceso que drena toda su energía gravitacional. Con este planteamiento Hawking demostraba no sólo que la materia puede crearse de un proceso de distorsión puntual del espacio-tiempo, sino que -más importante aún- poseía el instrumental matemático teórico con la cual podían unirse acontecimientos a niveles micro y acontecimientos a niveles macro.

Teoría Boostrap: En 1978, los físicos cuánticos belgas R. Front, F.E. English y E. Gunzing (y más tarde con la ayuda de L. Spindel) desarrollan y plantean un modelo de creación del Universo con amplio detalle matemático, que predice la formación de un “B.B. expontáneo “ como resultado de una “perturbación puntual” en el vacío y a partir de este “punto de siembra” se inicia un proceso que se pone en camino gracias al mecanismo de "boostrap", (traducible como levantarse sobre sus propios pies o talones para impulsarse) el cual produce masa - energía de carga positiva siempre balanceada por la producción desigual de energía potencial gravitacional de carga negativa, y la alternancia entre la producción de una y otra hace que aumente la contraria y así sucesivamente.

Luego conforme el Universo se agranda el mecanismo que lo produjo se enlentece primero y se detiene luego, pero dejando un flujo de materia caliente y en capacidad de expanderse (lo que los físicos han denominado justamente “B.B.”). Este Universo, según sus teóricos se expande para siempre. Tryon, por lo contrario al estudiarlo poco tiempo después lo acepta pero refuta la idea de que pueda ser abierto y conjetura que debe ser cerrado, en virtud de que uno abierto no permite conservar la energía.

Sin embargo, una energía neta cero para el Universo, no es necesaria para iniciar un proceso de “creación cuántica”, en razón de que la física moderna permite admitir que la energía verdadera total de cualquier sistema no puede ser justificada necesaria y exclusivamente dentro de los postulados de la Relatividad General, desde que un objeto puede - en principio - desprender cualquier cantidad de energía, simplemente colapsándose hasta formar una singularidad en la cual las leyes de la física se “quiebran” al toparse con el muro de Plank", de manera que es el Universo, como un todo en que requiere la conservación de la energía, por lo cual puede, perfectamente, ser abierto.

Evento del Túnel Cuántico: Otros investigadores han planteado diversas variaciones sobre el concepto de la creación cuántica; así, en 1981, D. Atkatz y H. Pagees de la Universidad Rockefeller, concluyen que cualquier eventual Universo que aparezca espontáneamente como resultado de un evento debido al efecto de túnel cuántico (“quantum tunneling event”) esto es por el hecho de cruzar una barrera impenetrable, entre el vacío y la existencia del B.B. debe necesariamente dejarse de lado, en razón de que esperan que el Universo pueda haberse originado de un espacio vacío plano, una configuración que ciertamente no corresponde a nada. Pero, como señalan los investigadores esto debe provenir de un espacio cerrado, por lo cual no existe ya el vacío. Pero al surgir la pregunta entonces..... ¿De dónde vino eso?; es una interrogante que no se puede contestar.

Preexistencia del MetaUniverso: En 1982, el astrofísico inglés J. Bott, teoriza acerca de la creación que procede de un Universo abierto, para lo cual recurre a los planteamientos publicados por S.W. Hawking en 1974, así como a ideas planteadas por la teoría del Universo Inflacionario (versión de A. Guth, 1981). Su teoría ofrece una predicción matemática acerca de las condiciones de un “superespacio” o bien la “preexistencia de uno mayor o MetaUniverso que existe fuera del Universo que observamos”.
Aquí, las partículas son creadas por el proceso descrito por Hawking, pero no justamente en una esquina del horizonte de los eventos de un agujero negro como postula el primero; sino en cualquier otro horizonte de eventos. Por ejemplo, en una superficie en la que no es posible el “cruce de información” y asume la existencia de un espacio expandible exponencialmente conocido como “espacio de Sitter” lleno de materia densa y caliente; dado que precisamente el astrónomo holandés de Sitter planteó en su modelo de Universo estático (1917) un horizonte de los eventos presente en cualquier lugar.

En esta circunstancia las “burbujas del espacio - tiempo ordinario” pueden ocurrir en una matriz grande y en proceso de expansión y tan pronto surja una, se expanderá a la velocidad de la luz, llenándose con materia densa creada por el proceso descrito por Hawking. Conforme aumenta la burbuja, la expansión exponencial crea la vía para la desaceleración y cesa la creación de materia y así mientras la burbuja se expande, la materia se diluye. ( Un observador dentro de un espacio cerrado verá el B.B. como si fuera “todo” el Universo ).

Creación Espontánea Inercial: En 1984 R. H. Dicke y P. J. Peebles de la Universidad de Princeton sugieren que un Universo oscilante no puede ser “indefinidamente viejo”, dado que en cada ciclo que se colapsa deviene un nuevo B.B.. Así la entropía o desorden aumenta en el Universo debido a la cual cada ciclo sucesivo debe ser más grande y perdurable en el tiempo por lo que es necesario que se cree más materia en cada B.B.. Además, a su juicio, el primer ciclo fue el que permitió la creación de unas pocas partículas elementales que surgieron espontáneamente - simplemente de la nada - “bajo los principios cuánticos indeterminados”



2.-AGUJEROS NEGROS PRIMORDIALES EN EL B.B.

El reciente pero ya clásico concepto de agujero negro que no deja escapar nada, siquiera la luz, sin embargo ha sido sacudido por las aseveraciones del físico inglés S.W. Hawking , al señalar en 1981 que éstos no son totalmente negros, sino que dejan escapar partículas, perdiendo más para finalmente explotar, con lo cual ha puesto de manifiesto el concepto unitario de la forma de comprender, describir y redescubrir el Universo al juntar conceptos usualmente separados, entre ellos la gravitación, la teoría de los “cuanta” y la termodinámica.

Evolución Estelar: Al final de la década de los treinta se conocía que las estrellas que habían agotado su energía termonuclear entraban en un proceso de colapso gravitacional conforme se enfriaba su centro. Esta contracción podía darse de distinta forma, así para estrellas de poca masa el resultado era convertirse en “enanas blancas”, mientras que otras aumentarían su volumen, inflándose hasta prácticamente desaparecer - como se predice que sucederá a nuestro Sol dentro de cinco mil millones de años. Otras estrellas de mayor masa seguirán condensándose más y más hasta llegar a convertirse en una estrella que explotaría (supernova) de previo a pasar a ser estrella neutrónica, según predice la teoría debida a W. Baade y F. Zwick formulada en 1934.

Teoría original: Para Oppeinheimer y Snyder una estrella muy maciza podrá resistir esta tendencia y seguirá colapsándose para siempre hasta crear lo que luego se denominará un agujero negro (fenómeno predicho por Einstein). El punto de “no retorno” según los autores de la teoría seria el “radio de Zcharzschild”, el tamaño que relaciona el diámetro del agujero negro como proporcional a la masa del objeto en proceso de colapso y una vez que este radio se logra, ni siquiera la luz escaparía del agujero negro. Así, por ejemplo, para Zcharzchild el radio para un agujero que se formara de una estrella como el Sol, es de aproximadamente 3 kilómetros; aunque sin embargo las teorías más modernas predicen que el Sol no puede tener este fin de colapsarse gravitacionalmente, pues para ello su masa debiera ser el doble de la que tiene.

Descripción general: El agujero negro es una masa crítica (inestable) de cualquier tamaño que colapsa sobre sí misma en el espacio - tiempo que lo circunda y que presenta estos fenómenos: a) su comunicación hacia el exterior está limitada al horizonte de los eventos o acontecimientos (radio de Scharzschild); b) adentro permanece imperturbable y solo se produce una lentísima evaporación (radiación de Hawking) que le toma más tiempo que el probable período de nacimiento y desaparición del Universo; c) una hipotética sonda que caiga en el agujero lo hará tan lentamente, que caerá eternamente sin llegar nunca al fondo del pozo; d) la detección de un agujero negro solo es posible por medios indirectos: la perturbación cercana al horizonte de los eventos, de ondas electromagnéticas de corto alcance (primero ondas de radio visible - rojo al violeta, luego rayos X), que se producen debido al calentamiento - en varios millones de grados - de átomos de materia absorbida, pero otro tipo de ondas de más alcance (gamma, por ejemplo) producto de la intensa vibración de los átomos atrapados, no escapan del horizonte de los eventos. En 1982 se detecta -indirectamente- el primer agujero negro y más adelante se confirman otras detecciones de agujeros negros masivos (producto de colapsos de estrellas y cúmulos de estrellas), y de acumulación energética en los centros galácticos. Pero no se ha detectado ningún agujero negro primordial.

Agujeros Primordiales: La teoría de creación de agujeros negros original ha sido modificada por Hawking quien propone una forma alternativa, no única para explicar la creación en las primeras etapas de la creación del Universo dentro de la teoría del “B.B.”, en donde la enorme presión permitió la condensación de bolsones de materia que formó así los “agujeros negros primordiales”, cuyas masas tendrían, a lo sumo 10-5 gramos y en este diámetro el radio de Zchwardchild sería de solo 10-33 centímetros. Pero resulta que la teoría de los “cuanta” predice que en una distancia tan pequeña y sujeto a rápidas modificaciones, un agujero negro de estas dimensiones hubiese sido destruido tan pronto se formara.

Los agujeros negros primordiales se deben haber formado durante el Big Bang siempre y cuando los cúmulos tuviesen una ecuación de estado suave. Los que hubieran tenido menos de 500 millardos de Kg. (más o menos el tamaño de una montaña mediana) se deben haber evaporado; los que tuvieran tamaño 2 a 3 veces mayor; todavía se están evaporando y sus horizontes del tamaño del núcleo atómico deben emitir fotones de alta energía, visible como rayos gamma y por los cálculos efectuados se ha llegado a la conclusión que actualmente deben haber 300 pequeños (pero fuertemente productores de evaporación) agujeros negros de esta naturaleza, por cada año cúbico de luz de espacio. De esto se desprende que el Big Bang no puede haber tenido una ecuación de estado demasiado suave.

En la misma línea del pensamiento de Hawking el astrónomo americano R. Chapline ha estimado que hay aproximadamente 1023, de tales agujeros negros pequeños en nuestra galaxia, por lo que la “desaparición” de grandes cantidades de materias primordiales dentro de estos agujeros negros eliminó la posibilidad de que esta materia participara en los procesos de nucleosíntesis durante los últimos estadios del “B.B.”, lo que implicaría que el Universo es mucho más denso que lo que suelen decir los cálculos basados en la abundancia de deuterio interestelar.

Termodinámica: Los planteamientos de Hawking recogen, en mucho, ideas que fueron trabajadas separadamente por físicos y matemáticos. En 1972 J.D. Bekenstein publicó una idea que relaciona los agujeros negros con la termodinámica, pero este planteamiento tenía por aquella época el inconveniente de que si bien en termodinámica la temperatura de un cuerpo es definida por la radiación que emite en equilibrio con su contorno, se pensaba que un agujero negro no emitía nada.

Singularidades: El matemático Roger Penrose llegó a la conclusión en 1970 que, bajo condiciones especiales los agujeros negros debían convertirse en “singularidades físicas”, esto es regiones en las que las fuerzas gravitacionales puede estrujar al máximo la materia colapsada hasta hacerla llegar a densidades infinitas o quizá hasta una muerte cósmica en la que la “historia” de las partículas abruptamente termina o empieza una nueva bajo condiciones diferentes. El concepto de Penrose predice que la materia colapsada bien puede llegar a la singularidad y ser expulsada fuera de lo existente o perderse. Esto es que si el agujero negro está rotando la materia puede “aparecer” en otros puntos del continuo espacio - tiempo o incluso en “otro Universo” en el que emergería desde un “agujero blanco”. Esta noción interesa a los físicos como una posible explicación que permitiría entender lo que son los “quasars”, pero esto obliga a suponer que tales singularidades se hubiesen formado al principio del Universo, precediendo justamente a los propios agujeros negros en una extraña sucesión de eventos.
Por otra parte, para otros parece más probable y atractiva la posibilidad de que en vez de esta cadena de sucesos, simplemente el quasar fuese el resultado de la colisión de materia con “una singularidad”.

Relatividad y Cuántica: En 1974 Hawking inicia un proceso de reflexión que trata de unir la Relatividad General con la Teoría Cuántica y bajo estas condiciones extremas los agujeros negros pueden aparecer para crear y emitir partículas elementales como protones, electrones, neutrinos en su espacio térmico, razón por la cual, asegura, pueden emitir en la proporción esperada para un cuerpo ordinario que presente una temperatura proporcional a la superficie gravitacional del agujero negro.

Su teoría coincide con lo predicho en 1972 por Beckestein con respecto al planteamiento de la analogía de la termodinámica, en la que después de cierto tiempo la emisión hace decrecer la masa del agujero negro pero aumentando más y más la temperatura hasta la explosión del agujero negro, con lo que tal y como había teorizado Penrose el agujero negro sería como si fuese blanco, o al menos indistinguible uno del otro. Sin embargo, por otra parte, un “agujero negro primordial” esto es creado en los primeros estadios del Universo, tendría una temperatura de 1200 millardos de grados y sería un fuerte emisor de rayos gamma. Además sus cálculos demuestran que sus períodos de vida coinciden con la edad prevista de un Universo nacido del B.B.

Antimateria: Los físicos norteamericanos P.W. Wald y L. Parker han hecho cálculos independientes de los de Hawking y llegan a las mismas conclusiones, para demostrar que si es posible demostrar que un agujero negro - lejos de lo que se creía - emite no se sabe sin embargo, cuanto emite - lo que Hawking ha utilizado para ofrecer, a su vez una explicación de la radiación proveniente de los agujeros negros en términos de antimateria. En física para cada partícula elemental conocida hay una partícula de antimateria que se le corresponde con igual masa, de manera que se pueden relacionar para producir pares de otras partículas; así la materia está compuesta de partículas y la antimateria de antipartículas. Al producirse la colisión de dos partículas de igual masa y “spin” (rotación), pero de carga diferente, se produce la aniquilación (¿desaparición?) de ambas pero se emite dos rayos gamma o un neutrino que conservan la masa y el “momentum”. A su vez la teoría cuántica predice que es posible crear materia obtenida de la presencia de dos rayos gamma, o de un rayo gamma y otro, y en estos casos, la masa - energía debe ser suplida por el campo electromagnético (Efectivamente la existencia de antimateria es observable en el laboratorio y en los rayos cósmicos, según predijo el físico P.A.M. Dirac en 1930 ). Si en teoría y en la práctica esto es así, teóricamente también es posible pensar en antiátomos, antimoléculas, antiUniverso, pero dado que no ha sido posible encontrar ninguno de ellos y que en la naturaleza se encuentra materia formada sólo por materia, esto intriga a los cosmólogos.

Flecha del Tiempo: R. Feynman ha señalado que las antipartículas son simplemente partículas moviéndose en dirección contraria al avance hacia el futuro, esto es que representa materia que avanza en sentido contrario hacia el pasado. “La producción pareada” que ocurre en el borde de un pequeño agujero negro debido a fuerzas gravitacionales permiten la creación de materia obtenida de la energía del campo. Sobre este tema Hawking hace una explicación interesante pues afirma que si hay una partícula resultante de la conjugación energética, ésta tiende a caer en el agujero negro, y la antipartícula lo hace en el sentido contrario, con lo que daría la impresión de que es lanzada por el agujero negro, pues de lo contrario ambas se aniquilarían al juntarse, y con base en la explicación de Feyman de que las antipartículas reversadas en el tiempo debido a la “producción pareada” y la aniquilación subsecuente, pueden ser representadas como el comportamiento de una partícula simple que es lanzada hacia adelante en el eje del tiempo, al momento de la producción pareada hasta el momento de la aniquilación y luego lanzada hacia atrás en una forma diferente. Si esa partícula, por ejemplo, cae en un agujero negro puede ser observada como antipartícula lanzada hacia atrás en el tiempo, con un comportamiento similar al efecto de “túnel”. Este comportamiento es familiar en la física cuántica y se refiere a la propiedad de una partícula de encontrarse en un lugar distinto a donde la física predice que debe encontrarse.

Principio de Ignorancia: Hawking admite que estas teorías deben verse con cuidado y no ser tomadas al pie de la letra, con base en la teoría cuántica que señala que no es posible saber a ciencia cierta, al mismo tiempo la posición y el momentum de una partícula dada, debido a que precisamente el solo hecho de poder observar interfiere de plano con la trayectoria de esa determinada partícula, causando cambios no predecibles en su estado. Hawking con sus demostraciones matemáticas puras demuestra que los agujeros negros pueden emitir radiaciones y por lo tanto si un agujero negro se ha parado, deja atrás una singularidad, sencilla, sola, desnuda, justamente lo que los físicos habían venido previendo como una novedad después de aceptar la teoría del B.B., lo cual crea una línea que enlaza el tiempo.

Incluso un agujero negro no evaporado constituye ya una evidencia de “anarquía cósmica” desde el momento mismo en que emite radiación como un anuncio de la existencia de la singularidad, de allí que Hawking ha propuesto una nueva regla en la física, el “Principio de la Ignorancia”, con lo cual al demostrar que el agujero negro establece una confusión de lo que ya se creía saber, y por ello se ha afirmado, contestando la frase de Einstein (¡Dios no juega a los dados!) que efectivamente ¡Dios no sólo juega a los dados, sino que a veces los lanza donde no pueden ser vistos! Como el mismo Hawking advierte aunque ha concertado tres teorías usualmente difusas, estas no deben utilizarse en términos absolutos para explicar todo lo que se refiere a la radiación de los agujeros negros, pues pueden ocurrir varias probabilidades de correlación de factores, lo que sirve de base para su hipótesis del “Principio de la Ignorancia” que establece que: “todos los datos acerca de una superficie “escondida” compatible con la limitada interacción de parte del observador son equivalentemente probables de ocurrir”, por lo que el resultado en el caso de un agujero negro es que ni la velocidad, ni la posición de una partícula pueden ser predecibles.

Agujeros Momentáneos: Hawking ha extrapolado este principio a otros eventos o fenómenos del Universo, así, por ejemplo las singularidades afectan el espacio - tiempo, creando pequeñas, pero violentas fluctuaciones en la geometría del espacio a distancias de cerca de 10-33 centímetros, equivalentes en sus efectos a “agujeros negros momentáneos” de unos 5 gramos, creando horizontes del tiempo por lo que en la forma en que afecta el horizonte de los eventos, aumenta a su vez el grado de impredecibilidad. Asimismo ha aplicado este mismo criterio a la singularidad del B.B., una superficie “escondida” pues no se sabe que lo ha producido y además lo aplica para explicar las observaciones que señalan la isotropía del Universo, debido a la radiación cósmica de fondo y la aparente prevalencia de materia en vez de antimateria, justamente porque son producto de una “superficie escondida”.

Conexiones interUniversos: Según Wheeler, en la espuma cuántica, los agujeros negros y los agujeros de gusano en dimensiones de 10-33 cm se supone que aparecen y desaparecen cada 10-44 segundos; pero su gran masa (10-5 gramos) les dotaría de una velocidad de escape mayor que la velocidad de la luz (superluminal) lo que ocasiona grandes distorsiones en la estructura del espacio-tiempo, lo que lleva a la conclusión de que el inicio del Universo no pudo ser, en consecuencia “suave ni terso”. Este criterio es objeto de controversias. Por ejemplo en 1990 Sydney Coleman y Stephen Hawking teorizan que es posible conectar puntos del espacio del Universo conocido (Nuestro Universo) y otros Universos lo que afecta la constante cosmológica que se utiliza en los cálculos de la edad del Universo y la hace inefectiva. Luego en 1993 Matt Viser teoriza acerca de que los agujeros de gusano lejos de producir distorsiones ayudan a estabilizar las conexiones interUniversos y en 1994 Kazvo Qhoroku, reafirma esta predicción. Lo asombroso de estas últimas dos teorizaciones es que los cálculos de Wheeler se refiere a la liberación de energía del orden de los 10-105 ergios por cm3, energía que es muchísimo mayor que toda la masa de galaxias de nuestro Universo concentradas en un solo centímetro.

Universo y Vida: Para Hawking la presencia del hombre sólo es posible en un Universo en el que predomina la materia y no la antimateria y aquí su planteamiento converge con el de otros cosmólogos que señalan que el rol de observadores es de mayor importancia de lo que usualmente se piensa, pues al igual que lo que hacen las partículas microscópicas, la presencia humana afecta de alguna manera no predecible las propiedades del Universo como un todo. Volviendo a Einstein, este afirmó una vez que “Es mejor que Dios tenga alguna escogencia en la creación del mundo”, y sobre este punto Hawking al referirse a la posibilidad de un Universo que se crea, expande, se detiene en la expansión, decrece y vuelve a comenzar, sea para ser igual al actual (como sostienen algunos cosmologistas) o para ser “reprocesado” (como lo afirma la teoría de Brandon Carter, y Robert Dicke) ha dicho que solo ciertas condiciones iniciales pueden dirigir la evolución del Universo hacia un estado en que emerja la vida tal y como la conocemos.


3.- TEORÍA DE LA INFLACIÓN


El modelo “standard” del B.B. con el que los cosmologistas han tratado de trabajar el desarrollo y el perfeccionamiento de las teorías para compararlas con lo observado servía para explicaciones en que no entraban los nuevos parámetros bajo los cuales se trabaja, derivados del uso de la teoría denominadas(Teorías de la Gran Unificación) GUT dado que los “monopolos magnéticos” que fueron postulados teóricamente como producto del B.B. en estas teorías llevan necesariamente a la conclusión que su masa total debe ser tan grande que la expansión del Universo debería haberse parado y reversado hace muchos años.

“Domain walls” (barreras cósmicas).- Esto llevaba a plantear, a su vez, la existencia de barreras (“domain walls”) y de cuerdas cósmicas en el vacío (“vacum strings”) que de existir, serían estructuras muy maleables y excesivamente enormes generadas en las fluctuaciones cuánticas, cuando el Universo quebró espontáneamente su simetría. Una típica estructura tipo cuerda tendría un grosor de 1029 metros, una longitud de 15 millones de galaxias, pero las observaciones, no han podido encontrar estas formaciones; dejando, por lo tanto, serias dudas acerca de la validez de las teorías que predicen su existencia en grandes cantidades en el Universo.

Expansión Inicial.- Este problema ha obligado a buscar mejores modelos y para inicios del año 83 los físicos estaban siendo atraídos por una idea sugerida por Alan Guth, físico norteamericano quien llamó a su teoría “Universo Inflacionario” que se derivó de haber aislado dos fases diferentes de la teoría clásica del B.B. Una de ellas consiste en asumir en las primeras etapas del nacimiento un Universo netamente homogéneo y la otra es partir del supuesto que para explicar el actual Universo observable necesariamente éste debe haber pasado por un proceso de expansión rápida, a partir del momento 10-55 segundos y por último asumir que estos dos hechos son consecuencia directa de lo sucedido en la primera fracción del segundo hecho, más que deberse a condiciones específicas del primero.

Areas No Conectadas ente si.- Debido a la existencia de teorías que describan lo ocurrido antes de un instante que el sitúa en 10-39 después del B.B., el Universo ya consistía en más de 1080 regiones que no estaban conectadas entre sí, esto es que no había posibilidades ni tiempo para que la luz u otras manifestaciones energéticas pudieran desplazarse para “viajar” entre ellas. Y si esto se acepta no hay razones para pensar que estas posiciones pudieran preverse.
Esta situación de la casualidad de la diferenciación está más claramente evidenciada por la radiación uniformemente dispersa de 3° Kelvin detectado en el Universo, uniformemente disperso en todas las direcciones, pero en regiones del espacio en donde se detecta una temperatura mayor no es por el resultado de la conexión causal con esa relación de fondo, justamente por la falta de conexión entre ellas y su contorno, por lo que lo producido es una serie de “burbujas de vacío asimétrico” en las regiones donde las fuerzas no gravitacionales tienen propiedades disímiles, expandiéndose en un “vacío superfrío, en proceso de inflación o expansión de carácter simétrico en razón de la similitud de propiedades de las fuerzas no gravitacionales.”

¿Expansion o Contraccion? .-- A la fecha no hay conocimiento acerca de si las condiciones apuntan hacia un Universo en expansión para siempre o si eventualmente se colapsará, pero todo parece indicar que se está cerca de la línea divisoria que separa una posibilidad de la otra; en otras palabras todo depende de la cantidad de materia que permite detener el proceso (si hay suficiente) o si es insuficiente para crear el efecto de detención de la expansión para iniciar su retroceso. Esta situación se denomina en física el problema de la “ausencia de planaridad” (flatness), debido a que la curvatura del espacio determina el coeficiente de expansión.

Fase de Transición.- En la teoría de Guth los problemas que causa la necesidad de ajustarse a los valores de la constante de Hubble se constriñen al parámetro inicial durante el cual la tasa de expansión se “incrementa con el tiempo”. Al contrario de la predicción de la teoría standard del B.B. que expresa que desde el primer instante el coeficiente de expansión ha disminuido continuamente; Guth para obtener una aceleración establece "una fase de transición en la historia del Universo Muy Temprano" (Very Early Universe). Esta fase de transición que Guth señala es observable rutinariamente en la Tierra (el agua que se convierte en vapor de agua; el hielo que se congela) encuentran un equivalente en el paso de un medio de “vacío simétrico” a uno de “vacío asimétrico” que habría ocurrido cuando la temperatura cayó a menos de 10-28 grados K. Pero este cambio no ocurrió en todos los sitios simultáneamente, sino a ritmo lento, lo que hizo que en los sitios en que no se manifestó la asimetría del vacío el Universo mantuvo su simetría y al expanderse se enfrió debajo de su temperatura crítica.
Fue precisamente en esa etapa que la aceleración y la expansión exponencial tuvo lugar, con lo que el tamaño del Universo es calculado con un valor que oscila entre 1020 hasta 1030 veces más de lo supuesto. El calor latente de la transformación de una fase a otra, esto es, la diferencia en los niveles energéticos en los estados al vacío, es suficiente para recalentar al Universo de manera que pasada la fase de transición, a partir de aquí su evolución sigue los patrones clásicos de un modelo de B.B. standard, con un exceso de materia sobre la de antimateria.

El problema de la Planaridad.- Con el modelo propuesto la homogeneidad del Universo tiene una explicación natural, dado que regiones pequeñas, aún muy cercanas una de la otra antes de la transición fueron expansionadas en su tamaño por la expansión exponencial que no pueden ahora afectar el total del Universo observable. De la misma manera la teoría resuelve el problema de la ausencia de planaridad, pues ninguna materia independientemente de su curvatura inicial tiene un valor mucho menor después del enfriamiento rápido experimentado por la vecindad homogénea, para lo cual Guth propone como ejemplo el proceso que sufre un globo al inflarse, en que al inicio su radio es pequeño pero su curvatura grande, pero conforme se infla la curvatura y consecuentemente el radio decrecen, con lo que siguiendo éste símil un Universo expandiéndose será más y más plano con lo cual no puede recolapsarse.

Pero dado que aparentemente Guth resolvía todos los problemas que plantea el B.B., aún así remozado, lo cierto es que la observación no muestra un Universo compuesto por objetos aislados, fríos, pequeños pues como resultado de pasar de la fase de transición hasta su final, las regiones aisladas del vacío asimétrico existente en el Universo simétrico con crecimiento inflacionario exponencial deben crecer y asociarse, que es justamente lo observable. A principios de 1982, un grupo de científicos americanos, soviéticos e ingleses trabajando por separado, comenzaron a buscar un modelo que con base en los planteamientos de Guth retuvieran las ventajas que son muchas, pero que resolvieran las desventajas, que son pocas.

Otra solución.- La solución obligó a recurrir a la física cuántica y consiste en idear un mecanismo de ruptura espontáneo de la simetría pero usando la fase de transición de diferente manera, pues la imaginan no en la preexistente superfina superficie de fondo, sino en un estado de envoltura simétrica que envuelve cada región en que se rompe la simetría.
Los subsecuentes eventos siguen los planteamientos de Guth, con toda la materia de radiación permanente presentes siendo diluidas por un factor enorme “huge factor”. En efecto la región del espacio - tiempo que puede ser observada hoy día con los grandes telescopios tiene un diámetro de justamente un centímetro al final del período inflacionario y éste, a su vez es parte de una conexión casual del espacio 1020 veces mayor. Como al principio la principal contribución a la densidad energética es el calor latente de la fase de cambio (o intermedia) que genera toda la masa energía ahora observable y con un volumen 1060 veces mayor que el que fuera predicho por el modelo estándar del B.B.

En julio de 1983 un taller de trabajo en el que participaron teóricos físicos y matemáticos, efectuado en la Universidad de Cambridge, sin embargo y luego de un trabajo independiente - utilizando diferentes técnicas todos los grupos - llegaron a la conclusión que efectivamente existe un mecanismo para producir perturbaciones que llevan a una ruptura espontánea de la simetría bajo los mecanismos propuestos por Guth y las modificaciones posteriores.

Lo curioso del caso es que todos llegaron a la conclusión de que éste llevaría a la constitución de agujeros negros en vez de galaxias con lo que, apenas con seis meses de nacido el modelo teórico se declaró “oficialmente fallecido” y de inmediato los científicos se dieron a la tarea de buscar un nuevo modelo de Universo Inflacionario proceso que prosigue con los trabajos de Guth, por una parte ,luego hay otra propuesta de Steindard y también otra debida a los cosmólogos soviéticos Linde y Starobinski por aparte..


4.-DE LA EXPANSIÓN A LA MUERTE DEL UNIVERSO

La constante de Hubble, esto es el indicador que mide el proceso de expansión del Universo, deducido por el de la recesión de las Galaxias, muestra que cada una de ellas, como un todo, están recediendo a una velocidad directamente proporcional a su separación de la Tierra, no porque la misma sea el centro del Universo, sino porque es el único lugar de observación que tiene la ciencia. No importa en dónde se encuentre el sitio de observación, el retrato es el mismo porque el Universo, en términos medios es isotrópico, esto es cuenta con la misma densidad cualesquiera sea el lugar hacia el cual se observe.

Aunque originalmente no queda claro en los primeros modelos del B.B., se da la idea de una explosión que lanzó al espacio la materia condensado que luego se expandió y comenzó a llevar un espacio preexistente; sin embargo en su real acepción el modelo estándar aceptado lo que plantea es un mecanismo de aparición primero de radiaciones, que se transforman luego en materia, la cual se separa por el estiramiento del espacio en un largo período. Así, el resultado del Universo observable es la consecuencia del nacimiento en un punto, debido a una fluctuación cuántica que origina la energía (radiaciones), la materia (su transformación posterior), pero también origina el espacio y el tiempo, tal y como lo entendemos.

Cálculos.- El deterioro final del Universo dependerá de si la expansión se mantiene o no para siempre y hay dos formas de determinarlo. Una: mediante el cálculo de la velocidad de la expansión, lo que se hace mediante la medición del corrimiento al rojo y de las distancias a las que se encuentran formaciones que se suponen muy antiguas, tales como los quasars. La otra: mediante el cálculo de la densidad de materia presente en el Universo la cual actuaría como un freno hacia el proceso de expansión de la misma, siempre y cuando la densidad tenga un valor por encima del “valor crítico”. Por lo contrario, si la fuerza está por debajo de un valor crítico no puede frenar el proceso de expansión.
La edad del Universo se puede calcular estimando la edad de ciertos elementos radioactivos de estrellas de los cúmulos globulares y luego se hace con el tiempo que debe haber tomado al Universo llegar a su tamaño actual en el evento que siempre se haya mantenido el mismo coeficiente de expansión que muestra hoy, lo cual es una presunción de inicio); quedando a salvo el proceso inicial de inflación propuesto por Guth (y más tarde modificado por otros).
En consecuencia para este modelo evolucionista, que no es el admitido por los cosmologistas partidarios de la explicación del Estado Estacionario, esto es, uno que nunca se modifica y por lo tanto crea continuamente materia para mantener o reemplazar la que escapa más allá de ciertos confines, todo se resuelve si se logra determinar el valor de cuatro variables:
1) El valor actual de la rata de expansión (Constante de Hubble).
2) Los cambios en el “parámetro de desaceleración” de la ruta de expansión.
3) La densidad actual de la materia.
4) La edad del Universo

Densidad de la Materia.- El valor actual de la densidad de la materia presente en el Universo es fundamental para determinar si la atracción gravitacional detiene o no el proceso de expansión. Si el proceso de expansión se detiene y es cierta la teoría del B.B., el destino del Universo es un gran colapso (Big Crunch). Si el proceso de expansión no se detiene pueden ocurrir a su vez dos posibilidades, que depende del valor de un artificio matemático que algunos cosmologistas consideran prescindible y otros imprescindible y es la denominada “constante cosmológica”.

Una posibilidad es: que el Universo se expanda para siempre a una velocidad constante, si el valor de la constante cosmológica es mayor que cero( O). En el caso de que el Universo sufra un colapso por reversión de la expansión observada la constante cosmológica tendría un valor menor que cero( O).
Planteadas así la cosas los cosmólogos tienen dos hipótesis para el futuro del Universo, uno se refiere a los eventuales sucesos del Universo que reverse el actual proceso observado de expansión y otro para aquel en que el Universos se expande por siempre. En el segundo caso la respuesta debe buscarse en lo que sucede en las estrellas, pues extrapolando el modelo es posible imaginar lo que puede ocurrir a nivel del macrocosmos. Pero, como resulta que el comportamiento de las estrellas depende en mucho de su masa, los astrónomos han tomado la masa del Sol como un patrón de referencia para los cálculos.

Evolución Estelar.- Debido a una serie de fenómenos que dependen del tamaño de la masa de la estrella pueden seguirse dos posibles líneas de comportamiento bien diferentes, pero ambas originadas por la forma en que terminan su vida las estrellas. Debido a la gravedad de la materia tiende a colapsarse sobre si misma buscando el centro de su masa. En una estrella esta fuerza centrípeta se encuentra balanceada por la radiación calórica externa y por la radiación que emite el centro de la estrella como resultado de su actividad de combustión que convierte el hidrógeno (materia básica constitutiva de las estrellas), en helio, éste en litio por varios millones de años, hasta que la estrella agota su combustible nuclear y comienza a contraerse.

a) Si la masa de la estrella es menos de 1.4. la masa solar sufre una serie de cambios que la convierten en una “enana blanca”, compuesta de un núcleo de hierro y con un intenso campo gravitacional compuesto de electrones que se mueven libremente y conforme radia la energía remanente pueden enfriarse para crecer convirtiéndose en una “enana blanca”.

b) Si la masa es mayor de 1.4. se convierte en una “ estrella neutrónica” que es más compacta que el ejemplo anterior, pues los electrones están tan fuertemente presionados que lanzados al núcleo de la estrella, se combinan con los protones para formar neutrones, que constituyen la totalidad de la materia de este tipo de estrellas. Si la masa es de 3 o más masas solares luego de una expansión como supernova, la gravedad es tan fuerte que el colapso llega a un punto tal que la estrella se convierte en un “agujero negro” y toda la masa y la energía entran en un vórtice rotacional que “engulle” todo a su alrededor y no deja escapar nada, siquiera la luz (a juicio de algunos cosmologistas) o tiende a evaporarse según postula Stephen W. Hawking.

Proceso en el Tiempo.- Pueden ocurrir dos escenarios básicos en uno propenderá el calor, si el Universo se contrae , en otro el frío ,si el Universo se expande, pero en ambos casos el final es la destrucción del Universo.

Escenario en el caso de que el Universo se expanda:

1.-Se teoriza acerca de que, de acuerdo a la cantidad de energía que las estrellas radian en nuestra galaxia, por ejemplo, todas las estrellas habrán llegado a su final en cerca de 100 billones de años y la galaxia será - en ese entonces - como un sistema de agujeros negros y de otros cuerpos fríos - que por ser más pequeños que la masa del Sol no son afectados por su propia gravedad - balanceando más la compresión a la que lo someten fuerzas externas. Esta situación de quietud puede darse por miles de millones de años y poco a poco se irá formando en cada galaxia un compacto núcleo central rodeado de materia menos densa. En unos casos es posible predecir que algunas estrellas colidan entre si y pueden ser expulsadas de las galaxias, pero tales colisiones son tan escasas que esta clase de sucesos no pueden pasar sino una vez cada billón de años.

2.- Se calcula que en un billón de billón de billones de años (notación inglesa) , cerca del 99 por ciento de la estrellas pueden escapar de la galaxia de esta forma. En un cúmulo de galaxias, cada una llegará a ser un “agujero negro galáctico” con tendencia a congregarse en un núcleo central siguiendo el mecanismo anterior propio de cada galaxia y muchas galaxias tenderán, también a escapar del cúmulo por colisiones entre galaxias. Finalmente en cada cúmulo habrá un “agujero negro supergaláctico” de entre 10 a 1000 veces más masivo que el agujero negro galáctico.

3.- En unos 1027 años el Universo consistirá de agujeros negros galácticos y supergalácticos regulándose entre sí, circundados de estrellas neutrónicas, estrellas enanas y pequeños agujeros negros. La temperatura de un agujero negro supergaláctico puede ser de alrededor de apenas 10-18 grados K., y si la temperatura del espacio intergaláctico fuera mayor el agujero negro absorberá más energía que la que emite (porque según la teoría de S.W. Hawking) el agujero negro no perdura para siempre y radia energía como si fuera un “cuerpo negro”, con una temperatura inversamente proporcional a su masa. Pero como el Universo se expande la radiación de fondo tiende a bajar su temperatura, por lo que para mantener el equilibrio térmico, emitirá energía y dado que un agujero tiene un período de vida proporcional al cubo de su masa en unos 1090 un agujero negro galáctico y unos 10100 un agujero negro supergaláctico habrá desaparecido.

4.- Los restantes objetos supervivientes luego de esos 10100 años tendrán una radiación tan baja que todos, juntos con el espacio de fondo llegarán a la temperatura de cero absoluto. Por efecto de la “mecánica cuántica” todos los objetos remanentes después de la desaparición de los agujeros negros (excepto las estrellas neutrónicas), estarán en proceso de fusión nuclear hasta llegar a formar núcleos densos y estables de hierro en uno 10500 años.

5.- Las estrellas enanas blancas y las neutrónicas ya no por fenómenos de interacción, pero si por fenómenos de colapso espontáneo, debido al efecto de “túnel cuántico” comenzarán a comprimirse más en unos 101077 años que se llama la “edad de Dyson”, en honor del astrónomo F. J. Dyson quien ha hecho tales cálculos y se convertirán en agujeros negros que se evaporarán según ha predicho S. W. Hawking. Aunque es difícil predecir que ocurrirá a pequeños trozos de materia y a las partículas elementales remanentes y es posible que a la “edad de Dyson” toda la materia se convertirá en una especie de “ vasto mar de radiación”.

6.- El concepto de tiempo requiere de fenómenos para usarlos como parámetros; pero aventurándose en ellos, se predice que la última manifestación será el decrecimiento de la densidad de la temperatura por su proximidad al cero absoluto, lo que no significa que cesen los procesos físicos, pues las leyes de la mecánica cuántica señalan que no existe un concepto real de “vacío”, pues estará lleno de partículas “virtuales” de toda clase que están constantemente siendo creadas y luego destruidas.

7.- La energía necesaria para la producción de estas partículas está determinada por el “Principio de la Indeterminación” que establece, entre otros aspectos, que si un sistema existe por un período breve de tiempo, su energía es necesariamente incierta por una cantidad que depende de la duración de su existencia, y si esto ocurre así con las partículas virtuales, debido a su corta duración son capaces de obtener la energía de una fuente que depende a su vez del principio de lo indeterminado. Este fenómeno es conocido actualmente en la física cuántica como el mecanismo de las “fluctuaciones del vacío” y sus efectos han sido observados como una ligera fuga en los niveles energéticos del átomo del Hidrógeno, conocido tal efecto como “Fuga de Hamb”.

8.- Según S. W. Hawking el vacío puede estar lleno de “agujeros negros virtuales” de únicamente 10-33 centímetros de diámetro que engullen partículas como electrones y protones causándoles su desintegración y la escala de tiempo para ello puede ser muy larga, por lo que no hay razón para pensar que las fluctuaciones del vacío pueden continuar indefinidamente, por lo que siempre habrá actividad en el Universo, aún solo si esta es microscópica.

9.- La posibilidad de una reducida civilización para existir luego de los acontecimientos que causan la desaparición de la energía emitida por las estrellas, requeriría tener la posibilidad, a su vez, de extraer energía rotacional de un agujero negro que rote por un mecanismo especial que lleva el nombre de “Teorema de Penrose”.

10.- Civilizaciones obligadas en estos períodos de un Universo en expansión a vivir en tales condiciones, en el caso de que sobrevivan, pueden teóricamente utilizar energía derivada de los agujeros según predice Penrose y dado que el radio de estos es corto (un año luz, pese a su tamaño intrínseco) estas civilizaciones podrían entrar fácilmente en contacto entre sí al suplirse de energía de un mismo agujero negro al menos por un período de 10100 años; pero dado que la energía requerida para la sobrevivencia es mucha, los agujeros negros quedarían sin esta energía en unos justamente 10100 años salvo que se logre inventar mecanismos para guardarla, dado que los derrames de energía en un solo segundo es de proporciones enormes.

Escenario en el caso de que el Universo se contraiga:

En el caso de que, contrario a esa visión de un Universo en expansión si se trata de un Universo cerrado, la gravedad atraería a las galaxias para juntarlas nuevamente, en un proceso reversible al producido por el B.B.. En este caso, pero dependiendo en mucho de la densidad de la materia, que es la que puede causar la detención del proceso de expansión, esto puede ocurrir cuando el Universo tenga un diámetro de 40 a 50 billones (notación inglesa) de años luz, para lo cual se requiere introducir los cálculos al doble de a densidad actualmente detectada.

1.- Así en unos 50 mil millones de años, excepto si éste fuese mayor que esta cifra arbitraria, el Universo se presenta prácticamente como ahora. Al comenzar el proceso de contracción, la temperatura debería haber llegado a tan solo 1.5. grados Kelvin.

2.- Unos 110 mil millones de años, a partir de ahora, el Universo tendrá el tamaño actualmente conocido, un diámetro cien veces más pequeño que el actual conocido, esto es 20 billones de años luz y su temperatura habrá subido a 300 grados Kelvin.

3.- Cuarenta millones de años después la temperatura de radiación circundante será igual a la que tiene la Tierra actualmente y todos los planetas del Sistema Solar serán inhabiables.

4.- Poco a poco el Universo se irá llenando - conforme aumenta la temperatura - de radiaciones que irán del rojo al amarillo y luego al blanco, las estrellas estallarán y todo quedará reducido a plasma caliente.

5.- Al cambiar las condiciones de la materia, la energía también lo hará y poco a poco la temperatura llegará a miles, luego millones y después millones de millones de grados.

6.- Primero la materia, luego las moléculas, los átomos y las partículas atómicas después, se irán desintegrando hasta quedar todo reducido a una "sopa primordial" de partículas exóticas.

Pero esta situación acelerará el colapso: los agujeros negros empezarán a comprimirse; el espacio - tiempo dominado por la gravedad se colapsará y quedará reducido a dimensiones más y más pequeñas, hasta - por último - desaparecer en la nada


SÍNTESIS DEL ESTADO DE LOS MODELOS COSMOLÓGICOS

De la información extraída de esos cuatro retratos del Universo afloran un cúmulo de certezas y de dudas sobre la explicación cosmológica del B.B. que pueden resumirse en estos puntos:

1) Los modelos cosmológicos del B.B., explican adecuadamente las características observadas del Universo, en particular su expansión, que arrastra en el mismo movimiento a todas las galaxias. No obstante, algunos problemas siguen sin solución en el marco de estos modelos. En particular, los astrofísicos son incapaces de comprender cómo se pudieron formar las galaxias. ¿Se trata de pequeños detalles pendientes de solución o de problemas fundamentales que invalidan toda la cosmología?

2) La introducción de las recientes teorías de la física de partículas aportaba a los modelos cosmológicos modificaciones originales que permiten resolver los problemas del B.B.: durante una fracción del primer segundo de su existencia, el Universo pudo haber sufrido una evolución totalmente especial, una “inflación”, la que explica las “paradojas” del modelo estándar del B.B. y permite comprender mejor la formación de las galaxias. Desde su introducción, el modelo inicial ha ido modificándose, pero la idea de la inflación cosmológica se ha convertido en un elemento fundamental en la construcción de las teorías en física de partículas.

3) Si las distancias entre dos galaxias o entre una galaxia y la nuestra - aumentan indefinidamente, se debe, por tanto, a que el Universo se dilata. Pero esta dilatación, cuyo origen se remonta a la explosión primordial, es frenada por la atracción gravitatoria del Universo sobre sí mismo. ¿Es la expansión lo bastante rápida para vencer para siempre esta atracción que la frena? La única forma de responder a esta pregunta requiere el conocimiento del contenido del Universo: ¿contiene suficiente masa para que su efecto gravitatorio frene la expansión?

4) El Universo, actualmente, no es homogéneo: estrellas y planetas están separados por grandes espacios vacíos y, a mayor escala, las galaxias están también separadas por grandes vacíos. Pero la distribución de los cúmulos de galaxias parece muy regular en todas las direcciones en que se observe (isotropía) y a todas las distancias. El Universo aparece por tanto cada vez más uniforme a medida de que se lo considera a una mayor escala suficientemente amplia. Pero, si actualmente es uniforme, tuvo que haberlo sido mucho más en el pasado. Si hubiese habido, hace algunos miles de millones de años por ejemplo, fuertes inhomogeneidades, éstas sólo habrían podido acentuarse por efecto de la gravitación, cosa que excluyen las observaciones actuales. El Universo de hoy tiene que provenir, por tanto, de una situación anterior todavía mucho más homogénea que la que vemos actualmente.

5) Esto es corroborado además por el estudio de la radiación de radio de fondo del Universo. Esta radiación, que detectan ahora los radioastrónomos, fue emitida hace mucho tiempo, tan sólo un millón de años después del B.B. (mientras que la edad actual del Universo es próxima a los 15.000 millones de años). Se trata pues de un “fósil”, de un testigo del Universo tal como era entonces: su perfecta isotropía nos confirma que el Universo era muy homogéneo en aquella época. Resulta entonces natural pensar que esta homogeneidad era el resultado de la acción anterior de un proceso uniformizador. Pero, cualquiera que sea el proceso imaginado: de tipo nuclear, (cosmología B.B.), o electromagnético (Cosmología del Plasma), o de cualquier otro, éste sólo pudo desempeñar un papel local, debido a una simple cuestión de tiempo; ninguna señal, en efecto puede propagarse más de prisa que la luz; las zonas susceptibles de haber sido homogenizadas tendrían por tanto, necesariamente, una extensión limitada, mucho más limitada que la parte visible del Universo.

6) Para fijar las ideas, un millón de años después del B.B. ( en el momento en que emitió la radiación de radio de fondo del Universo ), estas zonas no podía superar un millón de años luz, mientras que la parte actualmente visible del Universo (quince mil millones de años luz) ya tenía en aquella época un tamaño de cien millones de años luz ( la relación es de 1 a 100 ). Cómo explicar entonces que estas zonas tan alejadas, incapaces de haber sufrido la influencia de un proceso común, sean tan idénticas?, Se pueden considerar tres posibilidades lógicas: a) Esta uniformidad es una simple causalidad; b) Una ley física aún desconocida obligada a estas fuentes a comportarse de modo idéntico; c) La reconstrucción de las distancias por el procedimiento mencionada más arriba es incorrecta y estas fuentes estuvieron efectivamente en contacto en un pasado lejano, con lo que habría que revisar el modelo de evolución. Esta última solución es la que sugiere la idea de la inflación porque predice una modificación especial de la dinámica del Universo que produce el efecto buscado y permite explicar también otros problemas cosmológicos.

7) Si se conociese la densidad actual de Universo, los modelos cosmológicos permitirían conocer su destino: si el Universo es muy denso, la atracción gravitatoria logrará detener su expansión, que cesará un día y dará inicio a su contracción, disminuyendo las distancias mutuas de los objetos cada vez más de prisa hasta una explosión final. Si, por el contrario, el Universo es muy poco denso, su expansión durará eternamente. Podría suceder que el Universo estuviese exactamente en la frontera entre estas dos posibilidades. Esto no sólo sería posible si su densidad de masa poseyese un valor concreto (ni demasiado alto no demasiado bajo) llamado densidad crítica (dc°) que corresponde a una masa de cinco partículas (protones o neutrones) por metro cúbico. Todavía no sabemos si la densidad media del Universo es superior o inferior a este valor. Esta se mide, en efecto, contando las galaxias y evaluando sus masas, pero estas medidas son muy delicadas y, por tanto muy imprecisas.

8) La evaluación de la masa “visible” (por ser luminosa) de las galaxias depara un valor próximo a la décima parte de dcº. Pero existen muy fuertes razones para pensar que una gran parte ( quizá el 90% al 95%) de la masas del Universo no es luminosa y resulta pues invisible. Todo lo que se puede decir por el momento es que ésta está comprendida entre dc/10 y 2dc. El final es por tanto incierto. Sin embargo, todos los modelos cosmológicos presentan una curiosa característica. Si en un momento dado la densidad del Universo se aparta de la densidad crítica dc; la distancia relativa ( ddc ) / d sólo puede crecer con el curso del tiempo. Este detalle de la evolución nos asegura que estas separación (un factor 10 como máximo actualmente) era mucho más pequeña anteriormente. Un segundo después del B.B., los modelos proveen una diferencia relativa inferior a 10-33.

9) Si se retrocede todavía más, hasta 10-36 segundos después del B.B., por ejemplo, el intervalo se hace más pequeño que 10-53. Dicho de otro modo, si en aquella época la densidad hubiera excedido a la densidad crítica en una fracción tan pequeña como 10-50, el Universo ya se habría contraído hace mucho tiempo. Si la separación hubiese sido en el otro sentido no se habrían podido formar las galaxias en un Universo lleno de gas muy diluido. ¿De dónde viene este extraordinario equilibrio entre lleno y vacío?. Se llama esto el problema de la planaridad (flatness) ya que, cuando la densidad es exactamente igual a la densidad crítica, la curvatura del espacio es nula, es “plano” y su geometría es euclidiana ( si no se la clasificaría como riemanniana). Si no hay nada que explique tal coincidencia, sólo queda atribuirla al azar; así que el único modo de evitarlo - una vez más - proviene de la idea de la inflación.

10) La existencia de las galaxias plantea a los cosmólogos otro problema no resuelto. Se cree, en efecto, que las galaxias nacieron debido a la presencia de muy pequeñas fluctuaciones de densidad: al atraer las regiones densas la materia de las regiones menos densas, estas pequeñas fluctuaciones se acentuaron (después de la recombinación, de modo que esto no contradice la isotropía observada del fondo difuso cosmológico) hasta la condensación en las galaxias separadas por grandes vacíos.

11) Pero para ello se requieren fluctuaciones de una amplitud muy precisa: demasiado débiles sólo hubiesen conducido a nubes de gas; demasiado fuertes habrían engendrado objetos mucho más densos, como los “agujeros negros”. El nivel requerido para estas fluctuaciones corresponde a aumentos locales de densidad del orden de 1/10000 en valor relativo. Además, Edward R. Harrison, de la Universidad de Massachusetts en Estados Unidos, y Yakow B. Zel'dovich, del Instituto de Problemas Físicos de Moscú, han llegado independientemente a la conclusión de que la producción de galaxias requería, muy pronto en la historia del Universo, la presencia de fluctuaciones de densidad de características especiales: todas las fluctuaciones locales de densidad tenían que tener la misma amplitud, tanto si se extendían un centímetro, un kilómetro o un año luz, algo así como si en la superficie del mar la amplitud de la menor ola pudiera igualarse a la de las más fuertes mareas.

12) Los físicos y los astrofísicos parecen impotentes para encontrar un mecanismo susceptible de generar tales fluctuaciones y la única solución posible en el estado de nuestros conocimientos: es la inflación. Si el Universo pasó por una era de inflación, se habrían podido generar las fluctuaciones y además con las características adecuadas. De allí que se comprenda el interés de los cosmólogos por esta idea.

13) Todo lo que acaba de exponerse se refiere al modelo standard del B.B.. Ahora bien, agregarle a este modelo las recientes teorías de “la Gran Unificación (GUT)”, añade su ración de dificultades suplementarias. Estas teorías son sin embargo extraordinariamente atrayentes desde un punto de vista teórico ya que agrupan tres de las cuatro interacciones fundamentales (electromagnética, nuclear fuerte y nuclear débil), como tres expansiones de una misma interacción básica que se diferencia en ciertas circunstancias, en un proceso llamado rotura de simetría.

14) Esta ruptura tuvo que producirse muy pronto en la historia del Universo, cuando su temperatura se aproximaba a 10-28 grados y su edad era de 10-36 segundos. Pero la teoría prevé entonces la aparición de partículas muy masivas predichas teóricamente - llamadas monopolos magnéticos - en tal cantidad que producirían efectos dinámicos opuestos a toda evidencia. Por ejemplo la enorme densidad de masa que representarían habría detenido hace mucho tiempo la expansión del Universo. Este es un problema más que encuentra su solución en la teoría de la inflación, que se examina de seguido.


El Mecanismo de Solución es La Teoría De Guth. El modelo standard del B.B. adolece pues de numerosas insuficiencias. Parece que, al menos para algunas de ellas, la solución puede venir de una modificación de la teoría de la evolución de las distancias, después del B.B., que es justamente el mecanismo propuesto por Guth.

Densidad de la Energía: Esta ley de expansión - la variación de las distancias en función del tiempo - es suave y regular en el modelo estándar : las distancias varían según una ley potencial del tiempo, con un exponente 2/3 en su fase actual. Esta dependencia particular de la energía contenida actualmente en el Universo: energía cinética y energía de la radiación pueden siempre asociarse a la presencia de partículas que se diluyen con la expansión. El resultado es que la energía también se diluye.

En efecto, cuando aumenta un volumen, la energía que contiene no es del todo (o es poco) modificada, de modo que la densidad de energía(la energía dividida por el volumen) disminuye naturalmente según la inversa de este volumen. Es un poco distinto si el Universo está lleno de radiación, pero esto no modifica las conclusiones.
Esta dependencia, llevada a las ecuaciones cosmológicas, conduce a la ley de evolución dinámica del Universo: las distancias aumentan según una ley potencial del tiempo con exponente 2/3.

Así es como se reconstruye la historia pasada del Universo, y es en este marco en el que se plantean los problemas enumerados. Sin embargo, si la densidad de energía sólo disminuyese muy lentamente cuando el volumen aumenta (y no según la inversa del volumen) todo sería muy distinto.

La expansión sería muy rápida, las distancias varían entonces según una ley exponencial del tiempo y no como una potencia de este último. La relación entre distancia y edad del Universo quedaría por tanto modificada. La observación crucial del físico Alan Guth ha sido: “que semejante período de expansión exponencial en los primeros instantes del Universo permitiría resolver todos los problemas citados”. Es a este período, que puede ser muy breve, al que se llama inflación. ¿Pero cómo se resuelven los problemas que plantea?.

Homogeneidad: El problema de la homogeneidad encuentra una solución extremadamente sencilla. La región del Universo que observamos parecía demasiado vasta para que hubiese podido actuar uniformemente un mismo proceso. Pero si hubo inflación, esta zona sólo es el resultado del hinchamiento casi instantáneo de una zona al principio minúscula en la que la homogenización pudo producirse sin ninguna dificultad.

Finalmente, toda la parte actualmente visible del Universo provendría de la “inflación” de una región al principio minúscula y hecha uniforme por procesos totalmente ordinarios. Si hay inhomogeneidades, éstas superan la escala del Universo observable y quedan ocultas. Así se explica la isotropía observada de la radiación de fondo cosmológica.

Planaridad: El mismo efecto aporta una solución al problema de la planaridad: es decir, en efecto, que el Universo es casi plano, es decir que su radio de curvatura es muy grande (cuanto más grande es el radio de una esfera menos aparente es su curvatura).
Si hubo inflación, el radio de curvatura sufrió, como las otras magnitudes, un aumento gigantesco en muy poco tiempo, lo que explica que el Universo sea casi plano. Existe aquí, por lo demás una posibilidad de “verificar” la hipótesis de la inflación. Esta tuvo que ser tan eficaz que verdaderamente el Universo tiene que ser extremadamente plano; dicho de otro modo, el cociente d/dc entre su densidad y el valor crítico de la misma tiene que ser igual a 1. Mediciones futuras de éste cociente (del que actualmente sólo se sabe que está comprendido entre 1/10 y 2 ) vendrán sin ayuda a confirmar o a refutar esta hipótesis.

Partículas: Otra consecuencia de esta inflación: si en aquella época había ya partículas presentes en el Universo (por ejemplo, monopolos magnéticos) su número se habría conservado pero dentro de volúmenes que se han agrandado enormemente; por tanto, ha habido dilución. Por esto sólo subsistirían algunos pocos monopolos muy diluidos en todo el Universo visible, totalmente incapaces de crear el menor problema ( y por lo tanto de difícil detección).


Fluctuaciones: En cuanto a los electrones, protones y neutrones, sus abundancias se fijaron después de la etapa inflacionaria, de modo que el efecto de dilución no les afecta. Finalmente, tal era de inflación resolvería también el problema del origen de las primeras fluctuaciones (que evolucionarían más tarde en galaxias). En efecto, la física especial que reinó durante este período hace probable la generación de fluctuaciones de densidad, exactamente con las características descritas precedentemente (en realidad esto sólo es cierto en algunas versiones de los modelos de inflación).

Describir el desarrollo de la inflación a grandes rasgos, al menos tal como lo imaginan los cosmólogos para resolver sus problemas, supone que el Universo se habría llenado, muy pronto después del B.B., de una energía de un tipo especial insensible a la dilución. Habría empezado entonces un período de muy corta duración - un ínfima fracción de segundo - pero en la cual longitudes y volúmenes, al aumentar exponencialmente con el tiempo, habrían podido crecer en un factor gigantesco.

Obstáculo a la Solución De Guth: Está claro que la existencia de un período de inflación en la historia del Universo suprimiría las principales dificultades que presenta el modelo standard del B.B.. ¿Se produjo realmente este período? En otras palabras ¿hubo un período de evolución del Universo en el que su densidad no experimentó un decrecimiento proporcional a la inversa del volumen, sino que permaneció sensiblemente constante?.

Esto no es posible mientras contenga energía “ordinaria”, es decir energía debida a la masa o a la energía cinética de las partículas, que se diluyen durante la expansión. Existe, no obstante otra forma de energía - que no está asociada a ninguna partícula - que no sufre el efecto de la dilución. Tal forma de energía, si está presente en el Universo, permanece constante en densidad durante la expansión y responde, por tanto, a las condiciones anteriormente requeridas.

Las Nuevas Soluciones : Teoría de Linde.- Si la teoría original de la inflación de Guth no resuelve el problema lo hacen otras propuestas, entre ellas la del físico soviético Linde, o las del propio Guth ( nueva versión ), o bien, las de otros físicos, entre ellos Albretch y Steinhardt.

De este modo puede tomar cuerpo la idea de la inflación, ya que la base física existe: la existencia de una forma se define por la ausencia de partículas, que no es lo mismo que la “nada”, ni mucho menos.

Campo: Para comprenderlo hay que recurrir a la noción de “campo”, concepto básico en la física de partículas. Paradójicamente, esta física no razona en términos de partículas sino en términos de campos: el estado de un sistema se describe no por las partículas que contiene sino por un campo F (X), es decir, sencillamente, una cantidad matemática F definida en cada punto X del espacio.
Por supuesto es en general posible asociar a una configuración determinada de un campo la presencia de las correspondientes partículas: al igual que se asocian fotones al campo electromagnético, se asocian partículas (electrones, protones...) a los campos de materia (electrónico, protónico...). Sin embargo, son estos últimos (de la misma naturaleza física que el campo electromagnético por lo demás) los que son objeto de la teoría. En particular, la energía V de un sistema descrito por un campo F(X) es una función V(F) del campo asociado. Sin embargo, a algunos estados del sistema, no está asociada ninguna partícula.

Estados Vacíos: Para esto estados “vacíos”, el campo toma un valor F constante en el espacio, y la energía toma el valor V(F) correspondiente que - y éste es el punto esencial - no tiene a priori ninguna razón para ser nulo. Aparece así esta nueva forma de energía, la energía del “vacío” que no está asociada a ninguna partícula y cuya densidad no depende del volumen que se considere. Si el estado no es el vacío, sino que describe un conjunto de partículas, la energía correspondiente es la suma de esta energía del “vacío” y la energía de las partículas (energía de la masa y energía cinética).

Por tanto, en el Universo pueden existir dos formas de energía con propiedades diferentes. Actualmente domina la energía “normal”, es decir conforme a una ley potencial del tiempo. Pero, como la energía controla la expansión, si la energía del vacío fue la dominante en el Universo pasado, tuvo que producirse entonces una era de inflación, con los efectos beneficiosos que mencionamos.

La idea de la inflación nació cuando Alan Guth, hacia el año 1981, hizo esta observación. En cierto sentido era fácil ya que las teorías de física de partículas puestas en entredicho eran todavía poco conocidas, todavía desconocidos, de los parámetros de teoría de modo que todo fuese bien.
Si hubo inflación, ésta tuvo pues que terminar. ¿Cuándo y cómo?. Fue contra esta sencilla pregunta que chocaron de hechos los primeros modelos propuestos. La existencia de la inflación se basa en la naturaleza - energía del vacío - del contenido del Universo. Esta energía depende del comportamiento del campo F que se halla en el estado vacío. Es por tanto la dinámica de este campo F la que determina la existencia y el final de una era de inflación. Y es, por tanto, la que discrimina los diferentes modelos propuestos.

Transición Brusca vs. Suave: En todos los modelos de inflación, el campo evoluciona desde un valor inicial F (que asegura la inflación ya que la correspondiente densidad de energía es no nula) hasta otro valor F ( de densidad de energía nula) en el que termina la inflación.

Este era el caso del planteamiento original de Guth, pero la transición era demasiado brusca, y esto implicaba profundas perturbaciones de la densidad que anulaban los efectos beneficiosos de la inflación. El modelo fue abandonado casi tan pronto como fue postulado; pero ya la idea había sido aceptada y ahora hay otros modelos que garantizan un comportamiento más regular. Tal es el caso del modelo de A. Albrecht y P.J. Steinhardt, de la Universidad de Pensilvania, en Estados Unidos, así como por A.D. Linde, del Instituto Lebedev de Moscú, en el que el paso se hace suavemente. También es el caso del modelo de “Inflación caótica”, debido a A.D. Linde, en el que el campo F evoluciona lentamente hacia su valor final F en el que la inflación termina suavemente.

En Busca del Campo: Todas las sutilezas de los modelos provienen pues de los detalles de la evolución del campo F previstos en teoría pero no detectados aún. ¿Cuál es el campo F responsable de la inflación?: el campo de fotones asociados a electromagnetismo, o a los asociados a las partículas tipo electrón, protón o dos asociados a sus interacciones...?

Los primeros desarrollos consideraban que F podía ser uno de los campos normalmente presentes en las teorías de la GUT. Pero, los modelos se revelaron irreconciliables con la realidad y el campo F tiene que buscarse en otro sitio.

Como ningún campo conocido de la física de partículas resulta adecuado se tiene que suponer que proviene de una teoría todavía inexistente: por tanto se introduce por las necesidades de la empresa, de una forma totalmente ad - hoc. De este modo, la cosmología sugiere a los físicos de partículas la existencia de un nuevo campo que se podría llamar “inflatón”, cuyas características y forma del potencial V (F) asociado - garantizan un modelo de inflación adecuado.

Está por verse si los físicos de partículas pueden integrar un campo como éste en sus teorías basándose en teorías ambiciosas que incluyen la gravitación (propuesta de S. W. Hawking), pero la situación no es muy satisfactoria ya que la parte “arbitraria” sigue siendo muy importante.

IMPLICACIONES COSMOLOGICAS DE LOS MODELOS

En lo que respecta al modelo del B. B. o el Universo B. B. o bien el Universo Inflacionista, dada la liberalidad con que los cosmólogos bautizan tales modelos, la situación es esta época es la siguiente:

1) El concepto Universo no se refiere al “todo” (hiperespacio) sino a una región autocontenida del espacio tiempo inmersa en el hiperespacio del cual no se sabe nada pero en el que se presume han ocurrido y ocurren permanentemente procesos similares sin que su desarrollo necesariamente desemboque en la formación de Universos como el Universo físico que conocemos. El reciclaje del Universo conocido - cada vez que ocurre el fenómeno de explosión si es que ocurriese - no sigue una secuencia igual en cada caso porque la entropía modifica las condiciones para la existencia del Universo. Expresado de otra manera: en cada proceso de ir de A (explosión) hacia B (contracción), el estado en A y el estado en B son diferentes cada vez que ocurre tal proceso. (Si es que ocurre así).

2) No se sabe si la “flecha de la información” es una consecuencia o un residuo de la entropía, o si - por lo contrario - la información existe a pesar de la entropía. En el segundo caso esta situación implicaría - necesariamente - una “intencionalidad” cuyo origen o causa no se conoce por parte de la ciencia. De existir esta “intencionalidad” ésta puede asumir dos eventuales formas: una sería al “azar”, otra sería “programada”. La eventual programación es la causa principal que origina la disputa acerca de si el Universo total (hiperespacio) y/o el Universo físico conocido obedecen a causas naturales o a causas extranaturales. En cada proceso de ir de A hacia B, se pueden dar dos eventualidades, una que las leyes físicas permanecen iguales o dos que las leyes cambian parcial o totalmente (caso más probable).

3) De existir una flecha que marca un proceso que va de lo simple a lo complejo, en cada proceso en que A va hacia B, el Universo conocido es el resultado de un caos que evoluciona por causa de una eventual retroalimentación informativa. En caso de que esto sea así, tal “caos” - nuevamente - puede obedecer o bien a un accidente (azar) que ocurre en cada proceso en que A va hacia B o bien a una “intencionalidad”. Si existe una “intencionalidad” el Hombre sería o bien una razón “intermedia” o bien una razón “final” de tal intencionalidad. Si el hombre es la razón final de esta intencionalidad ésta se daría como resultado de la concatenación precisa de procesos “estrictamente naturales”, que no requieren de un “Creador”, sino únicamente de un recorrido informativo pautado que va de la simple a lo complejo; pero también el recorrido informativo con “intencionalidad sobrenatural” (creación debida a Dios).

4) Si se opta por el Principio Antrópico que no requiere de un Creador, o por la creencia de una “Causa Primaria” (o “Principio Eficiente”; o a un “Eje Cósmico”) se pasa de la explicación científica a la explicación metafísica. La explicación científica” se fundamenta en una teoría que fue lanzada en los años 20 del siglo actual a raíz de los planteamientos teóricos de Albert Einstein y de la observación telescópica de Edwin Hubble, que originan varias teorías relativistas evolucionistas. Una de las teorías relativistas evolucionistas toma la delantera a partir de los planteamientos teóricos de Lemaitre, y los complementos teóricos de Gamow, que toma el nombre de Teoría del B. B..

5) La Teoría del B. B., luego llamada Modelo B. B. y más tarde Universo B. B. crea una propuesta conocida como Modelo Standard que parte del supuesto teórico de una explosión en condiciones extremas cuyos parámetros están dados por la “frontera de Plank” porque implican un quiebre de las leyes clásicas de la física. El Modelo Standard que implica un inicio caliente y una condensación infinita de la materia, gracias a la aparición de nuevos conocimientos debidos a la observación telescópica visual primero, a la observación “radiotelescópica” luego y a la inclusión de fundamentos tomados de la “Física Cuántica”, originan teorías complementarias conocidas como Universo temprano o inicial (Early Universe) y Universo muy temprano (Very Early Universe).

6) El “Modelo Standard del B. B.” comienza a tener cambios profundos a raíz de la inclusión de conocimientos derivados de la Física de Partículas Subatómicas y las modificaciones teóricas llevan también a modificar los planteamientos de los modelos complementarios del Early Universe y del Very Early Universe (aunque en la práctica no se conoce oficialmente modelos de este último).

En la actualidad no se teoriza que la explosión ocurrió en un “sólo punto del espacio tiempo”, sino en lo que era “todo”, porque lo que justamente apareció en tal explosión fue el espacio, el tiempo y la materia (caracterizada primero por radiaciones), todo condensado en un punto (“singularidad desnuda”), que luego se habría expandido.

Quienes arguyen que no existen singularidades desnudas dicen que en vez de ésta lo que existió fue que antes del B. B., bajo su propia gravedad el Universo se contrae y, en algún momento, la gravedad se cambia a “antigravedad” lo que causa la oscilación que inicia la expansión actual.
Esta hipótesis admite la existencia - desde siempre - del Universo, pero es refutada por otros que señalan que en el Universo todo es finito y no renovable ya que una posibilidad de esta naturaleza, no es posible por la segunda ley de la termodinámica (entropía).

7) Las discrepancias teóricas acerca de si la singularidad desnuda existió o no, ocasionan una serie de modificaciones a la teoría del B. B., dado que la discusión acerca de la singularidad aparte de tener serios problemas de cálculo matemático conlleva explicaciones de orden metafísico en los que la ciencia es cauta. Si se hace abstracción de las implicaciones de carácter metafísico y se mantiene la teoría de la existencia de la singularidad desnuda el uso de ordenadores electrónicos que permiten hacer “simulaciones de modelos”, arrojan también serias discrepancias sobre las clases de Universos que pueden resultar. Dado que la aparición del Universo en condiciones caóticas no tiene relación con la uniformidad que se observa en el Universo Físico, en los últimos años, se postula un proceso que explica la posibilidad - desde un punto de vista matemático - para pasar del caos a la uniformidad. Este proceso que se conoce como “Período de Inflación del Universo”, luego toma el nombre de Modelo de la Inflación y más recientemente se le conoce como Universo Inflacionario (o expansionista) y parte de la hipótesis de la inflación, independientemente de si el Universo apareció a partir de una singularidad o no.

8) Pese a dudas y discrepancias el Modelo Standard del B. B. ha recibido dos confirmaciones desde su postulación: la primera la confirmación directa resultado del cálculo de la abundancia relativa de los elementos químicos; la segunda con el experimento de Penzias y Wilson mientras que las Cosmologías alternas a la Teoría del B. B. prácticamente carecen de significación por la siguientes razones:

a) La Teoría de la Creación Continua plantea problemas de aparición de materia no a partir de una singularidad desnuda sino a partir de incontables singularidades de esta naturaleza.
b) La Teoría de la Cosmología del Plasma solamente enfatiza el papel de las “Corrientes de Bikeland“, como moderadores de macro estructuras, en sustitución del papel de la gravedad, pero no tiene explicaciones para el inicio del Universo.
c) Otras teorías y modelos que plantean variantes al Modelo Standard del B. B. (por ejemplo las teorías de Wheeler, Moffatt, Layser, Godel y otras, generalizando - son de origen relativista evolucionista - por lo que comparten el mismo origen teórico.
d) La Teoría del Estado Estacionario puede sustituir - desde el punto de vista metafísico - a las Cosmologías B. B., pero desde el punto de vista científico plantea otros problemas que, a estas alturas del camino recorrido por la ciencia implicaría aceptar - a priori - la infinitud del espacio y la eternidad del tiempo lo que no es posible plantear desde el punto de vista científico puro

En consecuencia, en lo que toca a la ciencia cosmológica a la mitad de la década de los noventa no hay concordancia entre las diversas teorías propuestas y si bien el mecanismo de la inflación resuelve unos problemas, plantea otros.Sera necesario volver sobre el tema en otros capítulos .


II.- EVOLUCIÓN HUMANA


Para muchos de nosotros, quizá hasta la década de los sesenta o setenta, aunque llenos de dudas y temores, el mundo, el Universo parecía ser entendible y descifrable si nos empeñábamos. Si acaso la tarea era dura ahí estaban los libros, o el diccionario - o mejor aún - la enciclopedia que desempolvábamos en la biblioteca pública y entonces, a la par de las explicaciones recobrábamos la seguridad, o los profesores de la escuela o del colegio terminaban con las dudas que aún subsistían.

Cuando fuimos a la Universidad todo cambió: el mundo seguro firme y unitario, ahora explicado por especialistas - muchos de ellos atrasados en sus conocimientos o poco más o menos al día - albergaban más dudas y de pronto la imagen unitaria, cómoda y sencilla del Universo, del país, de los padres, del presente y del futuro se comenzó a resquebrajar.

Acudir a otras fuentes, leer mucho, discutir más, abrazar modelos y rehacerlos fue - desde entonces - tarea que desbordaba nuestro entendimiento y solo quedaban para espantar el caos, aferrarse a una, cualesquiera de tres posibilidades para volver a “armar el rompecabezas”.

a) Hay un Dios creador del Universo, el Planeta Tierra y del Ser Humano.
b) El Universo, la Tierra y el Ser Humano son los resultados del juego ciego e incesante del azar y la necesidad.
c) En alguna de las dos versiones - o en ambas - cabrá una variante: la vida se originó en el espacio exterior y llegó a la Tierra de una u otra forma natural (teoría de la “panspermia”) o traída por seres extraterrestres.

En esta sección se trata de exponer una secuencia cronológica actualizada de la eventual aparición y evolución humanas; pero bajo la advertencia que si es altamente aventurado hoy día tomar partido por una teoría que explique a cabalidad la aparición del Universo y dentro de ella de nuestra Galaxia y del Sistema Solar y de la Tierra; tanto lo es en cuanto a explicar lo que concierne a nosotros mismos ,por tres razones fundamentales:
a) una es que muchos no reconocen , bajo ninguna circunstancia (caso del protestantismo fundamental) que haya habido ninguna evolución humana y esa materia de fe se enseña en las escuelas y colegios en EUA ,aunque luego esos mismo alumnos vayan a las Universidades a conocer otros senderos distintos.
b) otra es que la Iglesia Católica , a raíz del diferendo con Darwin, si bien no incluye en sus enseñanzas posiciones tan fundamentalistas, si ha prohibido las ideas de aceptación de evolución planteadas por Theildhard de Chardin.
c) en definitiva la población en Occidente que se encuentra bajo la enseñanza cristiana (no importa su denominación) a la vez que sostiene que Dios es el creador del ser humano ( Adán y Eva) no tiene reparo alguno en aprender y difundir la idea de la evolución humana procedente de la ciencia, aunque no hay claridad meridiana acerca de si descendemos del mismo tronco que los monos o un mismo tronco, pero de ramas separadas.

La mejor forma de introducirnos en el tema es seguir la secuencia que se imparte en colegios de enseñanza media sobre el tema y adaptar textos más especializados para de esa conjunción hacer un cuadro que permita conocer que es lo que se enseña en la época bajo examen en torno a la Evolución Humana. Como ejemplo familiar: en mi casa lo que se conoce y discute sobre el tema tiene tres visiones no coincidentes del todo: la generación que frisa en los 70 años en adelante no desea saber nada de la nueva enseñanza que califica de atea, la generación de los 40 años, tiene la mente abierta, pero mucha confusión entre lo que ellos aprendieron y lo que ahora se enseña a sus hijos y la tercera generación de entre 20 años hacia abajo, no tiene la menor duda de que lo que se les enseña es la verdad científica ,que no concilia con lo que dice la Biblia que leían más jóvenes.

Época remota: En el nuevo modelo evolutivo ya que no es lineal, como en los planteamientos de Darwin, sino que parte de saltos evolutivos grandes, por grupos pequeños: especies nuevas surgen “de repente” de grupos pequeños que, por diversas razones, han quedado apartados del grueso de su especie. En esa “evolución puntual”, la fuerza impulsora no son las mutaciones casuales, sino las cambiantes condiciones ambientales, que determina los “esquemas básicos” del plan de montaje genético de un ser vivo. Para ello, la evolución tiene ante sí una cifra elevadísima de posibilidades evolutivas que se hallan en la masa genética de todo animal: según la “demanda”: unas muelas blandas se convierten en molares duros, o pies trepadores se convierten en pies andadores, o crece el cráneo para dejar sitio al cerebro en desarrollo. Estos cambios repercuten muy rápidamente en los grupos pequeños, porque bajo las duras condiciones de vida solo pueden sobrevivir y reproducirse los individuos que ya tienen dientes más duros o piernas más resistentes, con lo que se refuerza la tendencia a una mejor adaptación.”

Las ramificaciones: Estos rápidos cambios de vía evolutiva pueden explicar cómo en la historia de la Tierra aparecen una y otra vez al parecer “de la nada” especies nuevas, que se extienden muy rápidamente a costa de otras, y se ramifican pronto en una familia extensa.

Después de este rápido empuje evolutivo, la nueva familia entra en un equilibrio con el ambiente y se mantiene casi inalterada a lo largo de millones de años, para desaparecer ante el desarrollo “repentino” de una nueva especie en competencia. Otra explicación puede ser la desaparición repentina de especies enteras por los cambios generados por choques de asteroide o cometas (tesis catastrófica).

Todo eso conduce a una imagen de la evolución de los hominoides mucho más complicada que la que nos imaginábamos. Ya no parece una escalera, sino un arbusto”. La nueva imagen del desarrollo de los antropoides y hombres muestra, en lugar de la escala dirigida atinadamente hacia el gorila o el hombre, cuatro arbustos:

1°: Hace unos 20 millones de años, los primeros “monos de bosque” consiguieron una ventaja evolutiva sobre sus competidores y se ampliaron en los millones de años siguientes en la familia de los cryopitecinos, entre los que también se cuenta el Procónsul.

2°: Unos siete millones de años más tarde, se separa un pequeño grupo de “monos de bosque”, que aprendió a sobrevivir en la zona limítrofe entre el bosque y la sabana. De aquél surgió la familia de los ramapitecinos.

3°: Cuando el ramapiteco buscaba frutos al pie del Himalaya, algunos grupos de hominoides que habían permanecido en el bosque se especializaron mucho y originaron las especies de antropoides actuales: gorila, chimpancé y orangután.

4°: Por la misma época, los miembros de una horda de primates - muy probablemente en la sabana de África Oriental - se colocaban con cada vez mayor frecuencia sobre las manos traseras cuando buscaban alimentos o enemigos en terreno abierto. Esos pioneros del terreno descubierto, que caminaban más sobre dos que sobre cuatro patas, se parecían, según todas las suposiciones, al pequeño ramapiteco. Fundaron una familia de muchos miembros, una sola de cuyas especies logró sobrevivir: el Homo Sapiens”.

La transición: ¿Dónde y cómo cruzaron los primeros ejemplares del nuevo género Homo la línea de transición del animal al hombre? Entre finales del Mioceno y principios del plioceno: hace unos ocho millones y medio de años surgió en África, - y según todos los hallazgos, solo allí - un ser que pertenecía decididamente a la familia humana (un homínido). Según estas suposiciones, un pequeño grupo de descendientes del ramapiteco se especializó hace unos seis millones de años en el lugar de unión de África y Asia: en el triángulo de Afar, una región, hoy tórrida, entre el altiplano etíope y el mar Rojo, el también llamado “cuerno de África”.

Ramapitecinos: - En 1974, el norteamericano Donald Johanson encontró en esa zona los restos de 16 seres de diversas edades; una hembra adulta ("Lucy") que, con toda seguridad, andaba erguida, no llegaba a 1,20 m de estatura y padecía de artritis. En proporción a sus piernas, sus brazos eran algo más largos que los de los hombres actuales, pero no tanto como entre los monos antropoides. La mano, esa herramienta todo - uso humana, se parecía mucho a la de los hombres modernos; el pulgar incluso se podía oponer al índice, lo que permitía la “maniobra de precisión”. La dentadura de Lucy, al igual que los otros dientes y mandíbulas hallados, también tenían ya mucho más parecido con las dentaduras de los hombres actuales que con los antropoides. Es probable que Lucy y sus contemporáneos comieran carne además de la alimentación vegetal recolectada, y puede ser que cazaran en grupo y usaran piedras y palos encontrados, sin elaborar, como herramientas. A juicio de Johanson: esos homínidos vivían ya en grupos familiares de hombres, mujeres e hijos, lo que se suele considerar una característica típicamente humana.

Lucy entre exmono antropoide y cuasi-ser humano: Respecto de Lucy, aunque no era todavía un ser humano, menos era un mono antropoide. Los científicos les denominaron Australopithecus afarensis (“mono meridional de Afar”), a pesar de que habían sobrepasado claramente la demarcación hacia el Homo. Hay una razón: los restos de seres parecidos, que, eso sí, vivieron cerca de un millón de años más tarde que Lucy, habían sido encontrados por Raymond Dart en 1924 en una cueva en Botswana y denominados Australopithecus (“mono meridional”). Y el primer nombre que se da a una especie recién descubierta es de imposición obligatoria para todos los demás miembros de esa especie que se encuentren más tarde. Así lo mandan las severas normas de la denominación científica: la taxonomía.

Zinjatropus: Desde los primeros hallazgos de australopitecos por Dart, los investigadores reunieron los restos fósiles de más de 400 individuos de este más antiguo género de la familia Homo. Dart encontró cráneos, dientes y otros huesos de “monos meridionales”, con una edad de dos a tres millones de años, en otros cuatro lugares sudafricanos. Luego Louis y Mary Leakey hallaron en el desfiladero de Olduvai, el primer cráneo de australopiteco en el año 1959, y lo llamaron Zinjanthropus (“hombre africano oriental”): se trataba de un macho, con una ancha y ruda cara y dientes enormes que le proporcionaron el mote de “hombre cascanueces” (con una edad de cerca de dos millones de años). Después Mary Leakey descubrió a principios de 1978, en Tanzania, las huellas petrificadas, de casi cuatro millones de años de edad, de un ser de marcha erguida, de aproximadamente 1,20 m de estatura, cuyo pie, bastante ancho, estaba dotado ya de dedos de aspecto humano. Después de muchas discusiones se ha llegado a convenir en una clasificación, según la cual hubo tres especies de “monos meridionales”.
a) La especie más antigua, el Austrapithecus afarensis de Lucy, se desarrolló probablemente hace seis millones de años y ya caminaba muy bien erguida hace cuatro millones de años.
b) Puede ser que los monos meridionales de Afar fueran descendientes de un grupo de ramapitecos todavía desconocido.
c) De ellos se desarrollaron, según Johanson, otras especies: el ligero Australopithecus robustus, también llamado Australopithecus boisei (el mono meridional robusto”, al que también se adscribe ahora el zinyanthropus, el “hombre cascanueces” de Leakey) y el primer representante del género Homo. Las tres especies de australopitecos tenían cerebros que, con sus 4350 a 5500 centímetros cúbicos de capacidad, no alcanzaban apenas un tercio del de los hombres modernos. el tipo grácil tenía la mejor relación entre cerebro y peso corporal. El “mono meridional robusto”, de apenas 1,50 metros de estatura y 50 kg. de peso, era vegetariano; su esbelto pariente (1,20m, 25 Kg.) comía carne y fruta.

Homo habilis: Los australopitecos, tanto los robustos como los gráciles, parecen haber sido evoluciones bastante afortunadas del “mono meridional de Afar”: existieron paralelamente durante unos buenos millones de años, y el tipo más “inteligente”, más ligero, pudo mantenerse durante por lo menos tres millones de años. En 1980, los Leakey encontraron los restos de un contemporáneo del primitivo “mono meridional robusto”: un cráneo con una capacidad cerebral estimada de 680 centímetros cúbicos, una mandíbula con una fila de dientes en la típica forma de U humana y huesos manuales que mostraban que su joven poseedor podía asir con ella con fuerza, pero también con precisión; junto habían herramientas de piedra bastante trabajadas, que habrían servido como raspadores y martillos, y pedruscos colocados en círculo para chozas de ramas. Lo llamaron Homo habilis. En 1982, un nuevo hallazgo dio su apoyo a los defensores del Homo habilis: Bernard Ngeneo, encontró en la región de Koobi Fora, los fragmentos de un cráneo, con un volumen increíblemente grande: 800 centímetros cúbicos en una cara pequeña con mandíbula apenas sobresaliente. El hallazgo se dató en dos millones de años

Migraciones: Algunos expertos trataron de explicar las notables diferencias entre hallazgos de la misma época con la amplitud de márgenes natural en las varias formas de una especie determinada, sobre todo con las diferencias entre ejemplares machos y hembras. En la raíz de este arbusto están Lucy y sus parientes del tipo Australopithecus afarensis. De ellos surgieron, independientemente, las otras dos especies de australopitecos, más recientes, y el Homo habilis. No puede excluirse, el que un australopiteco u otro haya emigrado de África a Asia. El género Homo muy probablemente vivió, después de sus comienzos hace unos cuatro millones de años, dos millones exclusivamente en el continente negro. después comenzó a conquistar otros hábitat, otros continentes y, finalmente, toda la Tierra. Pero ¿qué fue, y esa es la cuestión clave de los paleontólogos, lo que permitió que el Homo sobreviviera a sus primos?

Las glaciaciones: La Tierra es un planeta bien atemperado. De vez en cuando, sin embargo, sufre catástrofes climáticas. Hace 600 millones de años, según lo prueban los rastros de los glaciares en la roca, masas de hielo cubrían grandes regiones de África, Sudamérica, India y Australia. Hace 250 millones de años, cuando los reptiles se disponían a conquistar la tierra firme, volvió a hundirse el equilibrio térmico mundial. Después de 230 millones de años de clima suave, las temperaturas volvieron a descender en todo el mundo. Hasta hace 18 millones de años, el descenso fue casi imperceptible; pero después, y con movimientos pendulares cada vez más bruscos, volvieron los tiempos helados (Pleistoceno) para el tercio norte de la Tierra, caracterizado por grandes oscilaciones de temperatura, en las que épocas templadas sucedían a los períodos helados. En los trópicos, el tiempo siguió siendo agradablemente cálido incluso durante la época de mayor extensión de los glaciares. Cuando los investigadores se encontraron, durante el siglo pasado, con las huellas de cuatro grandes períodos de glaciación en los Alpes, denominaron los cuatro avances, en orden cronológico y alfabético, por cuatro ríos que fluyen allí: glaciaciones de Günz, Mindel, Riss y Würm.

Catástrofes cósmicas o terrestres: Los científicos mencionan catástrofes cósmicas y terrestres para explicar el brusco descenso de temperaturas después de 230 millones de años de buen tiempo: nubes de polvo del espacio, que eclipsan la luz del Sol; planetas que caen en el Sol y debilitan, durante un tiempo, el fuego de nuestro astro; volcanes que tienden sobre la Tierra un denso velo de cenizas; y después de esa época mencionan como causas probables catástrofes producidas por cometas y asteroides
Probablemente deba coincidir todo un haz de causas para que los glaciares puedan crecer. Un papel protagonista le toca a la deriva continental: solo cuando las masas de tierra firme llegan lo suficientemente cerca de los polos, pueden acumularse sobre ellas los hielos, tal como hoy ocurre en el continente glacial de la Antártida. Funciona como disparador una mayor irradiación de calor de la Tierra - por ejemplo, por el aumento de la superficie de tierra firme - o una disminución de la radiación solar.
El que disminuya el calor del Sol puede deberse a procesos en el propio Sol, pero también a irregularidades en la órbita terrestre, movimientos del eje de rotación de la Tierra o erupciones volcánicas violentas, actuando juntos o por separado. Una vez se han formado los glaciares, la glaciación se alimenta a sí misma, porque las relucientes masas de hielo y nieve reflejan al espacio más luz solar, de modo que las temperaturas siguen descendiendo.

El papel de los mares: A través de un proceso de realimentación no del todo conocido, las corrientes oceánicas y atmosféricas hacen que, al cabo de un tiempo, las capuchas de hielo ya no reciban suficientes refuerzos en forma de nieve. (Tiene un papel importante en ese crecimiento y disminución rítmicos la radiación solar que llega a la Tierra). La edad de las glaciaciones no concluyó con el último retroceso de los hielos hace unos 10.000 años. Actualmente vivimos en una interglaciación, y su temporada más calurosa ya ha quedado atrás. Dentro de unos 10.000 años, las masas glaciares podrían estar de nuevo sobre partes importantes de los diversos continentes.

No obstante, la edad de las glaciaciones produjo una sorprendente variedad de formas vegetales y animales. Los períodos fríos y calientes, en rápida sucesión, eran un peligro mortal... y una oportunidad para la evolución: las especies de la era glacial tenían que adaptarse a toda prisa a las nuevas circunstancias ambientales para sobrevivir.

La adaptación de los seres vivos: Después, los glaciares enterraron los bosques, y en la vanguardia de los hielos crecía sobre una delgada capa del suelo que se deshelaba en verano, la escasa vegetación de la tundra. Solo los animales más duros sobrevivieron al hielo, las duras condiciones ambientales fomentaban una tendencia hacia el gigantismo, cada cambio de clima era el fin de muchas especies. Otras se adaptaron al frío glacial. Pero entonces comenzó a perseguirlas un enemigo que resultaría más peligroso que los glaciares: el Hombre.

Homo eructus: Los primeros grupos de Homo erectus que abandonaron los trópicos para marchar hacia el norte tuvieron que aprender que en las zonas templadas, la oferta de alimentos cambia con las estaciones y la alimentación vegetal, base de la comida humana primitiva, solo está disponible durante el medio año veraniego. Por eso fue haciéndose cada vez más importante la caza. Además del cerebro en lento crecimiento y del aparato masticatorio, en lenta evolución, cambió también el color de la piel de los primeros europeos y asiáticos; los pigmentos oscuros no dejan pasar, en el norte, los suficientes rayos ultravioleta para la producción en la piel de la vital vitamina D (y ya no son tan necesarios como protección ante la mortífera luz solar), de modo que los hombres de piel clara tuvieron mejores oportunidades para la supervivencia. Y el Homo erectus sobrevivió a pesar del sol de invierno y la glaciación, como lo atestigua, la fuerte mandíbula humana que en 1907 se encontró en el pueblo de Mauer, cerca de Heidelberg, en Alemania: el “hombre de Heidelberg” posiblemente de 600 000 años, era uno de aquellos Homo erectus que durante las interglaciaciones perseguían a través de las frías estepas los enormes rebaños de animales. La oferta de carne, según muestran los yacimientos prehistóricos, era más importante que las bajas temperaturas, a las que ya se resistía con pieles y fuego. ¿Por qué cazaba el Homo erectus precisamente el mayor animal de su época? Probablemente fueran las enormes montañas de carne las que atrajeran a Torralba y Ambrona en España, cerca de una docena de hordas emparentadas, con unos 500 individuos, para el gran acontecimiento del año. Cuanto más duraba la glaciación, mejores útiles y métodos de caza aparecían. Cuando terminó, hace 10.000 años, el hombre había perfeccionado de tal manera su cultura paleolítica, que ya no tenía que temer las catástrofes climáticas. Al contrario: su afán por la caza colaboró en la desaparición de varias especies.

Los Neandertales: Durante unos trabajos en el valle del Neander, cerca de Düsseldorf, en Alemania, el antropólogo alemán Johann Fuhlrott encontró, en 1856, los restos que reconoció ser de un hombre prehistórico. Por aquel tiempo ardía la discusión acerca de la descendencia del hombre del mundo animal. A diferencia de los Homo erectus anteriores, los investigadores encontraron gran número de restos de neandertalienses en diferentes lugares del Viejo Mundo. Pero cientos de miles de huellas, entre ellas los esqueletos de, por lo menos, cien neandertalienses de ambos sexos y todas las edades, aumentaron la confusión.

Sobre todo en Europa Occidental, los antropólogos excavaron los restos del neandertaliense “clásico”, fuerte y chaparro. En el Oriente Medio y África encontraron, sin embargo, restos que han de adscribirse al neandertaliense, pero que parecían mucho más “modernos” (los científicos les llaman “progresivos”) que habían vivido, evidentemente, antes que los representantes europeos de frente huidiza, grandes arcos superciliares y aspecto tosco y primitivo. Para completar la confusión, en Extremo Oriente aparecieron huesos humanos de antigüedad semejante que volvían a tener un aspecto levemente diferente.

Debido a reconstrucciones anatómicas equivocadas, el Neandertal “clásico” había recibido un aspecto algo simiesco, inclinado hacia adelante. Trabajos nuevos muestran que ese cazador, por su esqueleto, era claramente miembro de la especie Homo Sapiens aunque su estructura corporal lo diferenciara en algunos detalles notables del hombre moderno: su cerebro era, en promedio, algo mayor que el de los hombres de hoy, pero estaba organizado de otro modo; el cráneo era más plano y, sobre la base de la nariz, limitaban la ancha cara, dos grandes arcos superciliares; los pómulos no se diferenciaban de los nuestros, pero en cambio eran mucho mayores los incisivos; la barbilla era huida como la frente (por ello era de grandes dimensiones la nariz). Pero, sobre todo, esos hombres de 1,50 m de estatura deben de haber sido enormemente fuertes y resistentes, según lo muestran las fuertes implantaciones musculares en los huesos de hombres y mujeres achaparrados. Esas características típicas del Neandertal “clásico” se consideran una especial adaptación al brutal clima glacial: un cuerpo achaparrado pierde menos calor que uno esbelto, una nariz grande calienta mejor el aire que ha de respirar.

Esas características, fueron mal interpretadas como síntomas de una vida bárbara. Los hombres de Neandertal fueron, por el contrario, notables pioneros culturales: vivían en cuevas y chozas de pieles y huesos de mamut, en las que construían un hogar; en lugar de una sola herramienta todo - uso ,del hacha de mano produjeron toda una gama de útiles especializados que tallaban de piezas de sílex especialmente seleccionadas. Esa cultura, denominada “musteriense” (por el yacimiento francés de Le Moustier) - que denomina el llamado “paleolítico medio” - produjo incluso cuatro o cinco “equipos” de herramientas para tareas diferentes, como cazar, matar, cocinar, preparar las pieles. Los hombres de Neandertal cazaban con éxito todos los animales glaciales, desde los gigantescos mamuts y rinocerontes lanudos, reses primitivas y caballos hasta liebres (y muchos de ellos los cazaban en trampas), el gigantesco oso de las cavernas, lo cazaban por motivos rituales, según indican las tumbas de cráneos de osos, cuidadosamente dispuestas, en cuevas suizas y austríacas. Los rituales no solo tenían importancia en la caza entre los Neandertal.

Esos seres, de aspecto tan primitivo, fueron los primeros seres vivos en este planeta que desarrollaron algo así como ideas religiosas: enterraban a sus muertos y les acompañaban dones funerarios. Los hombres de Neandertal desarrollaron también otras dos características típicas de la cultura humana: cuidaban a sus parientes cuando estos estaban enfermos y de vez en cuando se lanzaban unos contra otros armados de cuchillos. Huellas de heridas que se hallaron en los huesos de hombres de Neandertal encontrados en la cueva de Shanidar (norte del Iraq) llevan indicios tanto de acciones samaritanas como agresivas. Incluso sin heridas de caza o de lucha, los neandertalienses llevaban una vida dura. Muchos de ellos padecían de artritis y de inflamaciones de las encías, reúma y raquitismo: consecuencia de las duras condiciones climáticas que tenían que soportar.

El Cro-Magnon: Los neandertalienses, duros e inteligentes, superaron la edad más fría, cazaron con éxito el gigantesco mamut y el formidable oso de las cavernas, se mantenían unidos en sus hordas como ningún grupo de seres vivos antes que ellos. A pesar de ello, desaparecieron sin dejar rastro hace 35000 años en un tiempo, al parecer, brevísimo. ¿Por qué? Esta es una de las cuestiones polémicas más delicadas entre antropólogos pero el hecho es simple: el hombre de Neandertal fue desplazado por un ser más inteligente todavía: el Homo Sapiens Sapiens, el “hombre especialmente sabio”.

Hay cuatro teorías que tratan de explicar su desaparición:
1: Los restos de nuestro más antiguos antepasados directos, llamados, por un yacimiento francés, hombres de Cro-Magnon, suceden tan rápidamente a los restos de los neandertalianos, que algunos prehistoriadores supusieron una situación bíblica: como en la metáfora de Caín y Abel, el agresivo Homo Sapiens Sapiens asesinó a su más pacífico hermano Homo Sapiens neanderthalensis. La teoría del hombre moderno, afortunado por carente de escrúpulos, resulta plausible. Lo único que ocurre es que no hay ninguna prueba para ella.

2: Otra hipótesis postula que el hombre de Neandertal, adaptado perfectamente al frío, fue víctima de un período más cálido durante la glaciación de Würm.

3: Una tercera teoría afirma que los neandertalianos fueron víctimas de un proceso de desplazamiento económico, porque los nuevos hombres inmigrantes, de cultura más desarrollada, eran mejores cazadores.

4: Algunos investigadores, por fin, creen que los neandertalianos se mezclaron simplemente con los hombre de Cro-Magnon y se fundieron en este grupo más afortunado. Comparaciones de los hallazgos de utensilios de piedra de la cultura musteriense a todo lo largo de Europa muestran que, en el sudeste del continente, la frontera temporal entre el paleolítico medio y el - más desarrollado - paleolítico superior está situada 10.000 años antes que en el norte de España, que es el punto más alejado del portal de entrada de los hombres modernos por Asia Menor: indicio importante de que, según opina el antropólogo Karl Butzer, “el desplazamiento de los neandertalienses en Europa no fue, de ningún modo, repentino”.

Lo más probable es, pues, que el hombre de Cro-Magnon no desplazó al de Neandertal, encerrado en el callejón sin salida mediante la violencia, sino gracias a las muchas pequeñas ventajas para la supervivencia que procura un cultura superior. Pero ¿de dónde venían los hombres modernos, que hace 35.000 años ya no se diferenciaban de nosotros? ¿Dónde habían aprendido los hombres de Cro - Magnon, de elevada estatura, con su cráneo redondo, la frente alta y la barbilla prominente, a trabajar la materia prima piedra más artística y hábilmente que los artesanos musterienses de los neandertalianos?

Inicio del Homo Sapiens: Los investigadores se ven obligados a llenar una época de casi 100.000 años, a falta de datos, con fantasía (hasta tanto no se encuentren nuevos restos que arrojen mas información de complemento). Solo hace 45.000 años vuelve a aparecer el rastro del hombre moderno: en Israel (en dos cuevas del monte Carmelo), los antropólogos encontraron restos de hombres de Neandertal “progresivos”, que por aquella época se dedicaban a la caza mayor en las estepas de los alrededores. Al estudiar sus hallazgos, los investigadores encontraron que los huesos de la cueva de Tabun presentan más rasgos neandertalianos que los de la cueva de Shkul: los hallazgos de Shkul son unos 10.000 años más modernos y mucho más parecidos al Homo Sapiens.

De entre las muchas teorías acerca del origen del Homo Sapiens Sapiens cristalizaron dos modelos, y ambos ven en los restos fósiles de los hombres de Swanscombe y Steinheim (África del Sur) los antepasados de los hombres “sabios”:

Teoría A: Según la escuela llamada “pre - neandertaliense”, el hombre de Steinheim fue un precursor del hombre de Neandertal, mientras que el de Swanscombe fundó una estirpe que, a través del hombre de Fontechevade y de Shkul condujo al hombre de Cro - Magnon, y con ello al Homo Sapiens Sapiens moderno.

Teoría B: La escuela “pre - Sapiens”, en competencia, parte también de los hallazgos de Swanscombe y Steinheim. Solo que en esta, la línea evolutiva conduce de modo mucho más directo del hombre de Steinheim al de Neandertal (que se extingue mediada la glaciación de Würm), mientras que la línea del Homo Sapiens se separa ya antes de los neandertalianos, desde el hombre de Swanscombe, a través del de Fontechevade y conduce de modo bastante directo al de Cro - Magnon; según esta teoría, los neandertalianos más modernos de la cueva de Shkul forman una rama extinta del árbol genealógico que conduce al Homo Sapiens Sapiens.

Los expertos están de acuerdo en que el paso de los representantes anteriores del Homo Sapiens al hombre de Cro - Magnon se produjo hace unos 50.000 años en algún lugar de la región del sudeste de África y del sudoeste de Asia. Desde allí, el Homo Sapiens Sapiens se extendió en relativamente poco tiempo por todo el mundo habitable: hace 40.000 años los altos conquistadores habían llegado a Indonesia y Borneo, poco más tarde cazaban junto al cabo de Buena Esperanza sudafricano y hace 35.000 años colonizaron la Europa glacial.

El Homo Sapiens Sapiens: El hombre de Cro-Magnon no era más fuerte que el de Neandertal, ni tenía un cerebro mayor. No obstante, después de una evolución muy lenta las culturas anteriores de (millones de años) este hombre moderno provocó en pocos miles de años un auge técnico - cultural que aceleró el proceso a una velocidad increíble, en la actualidad, tiende ya la mano hacia la estrellas. Ya había transcurrido el 99% de la historia conocida de la humanidad cuando surgieron, aparentemente de la nada, útiles finísimos de piedra, asta y madera, cuando aparecieron objetos “sin utilidad” - es decir, artísticos - como estatuillas de marfil o pintura rupestres. Todos esos logros culturales permiten concluir que el Homo Sapiens Sapiens le sacaba al de Neandertal una pequeña pero gran ventaja: el uso del lenguaje para comunicarse.

Bajo la presión de un medio glacial sin piedad, el cerebro de los neandertalianos había alcanzado un tamaño enorme. Pero los conocimientos que se habían acumulado en esos órganos pensantes de hasta 1600 cm. cúbicos se perdían, en su mayor parte, cuando morían sus poseedores. Cerebros mayores eran - y son - casi imposibles, porque los bebés con unas cabezas tan enormes ya no cabrían por el, ya de por sí estrecho, canal del parto humano. El hombre de Neandertal “clásico” ya no pudo salir de ese callejón evolutivo, pero en el hombre de Cro-Magnon, la evolución halló una salida que, una vez más, se basó en la colaboración de muchos seres individuales: el intercambio de información de cerebro a cerebro mediante la lengua humana. Este compartir conocimientos resultó tan ventajoso que, en el curso del tiempo, se formó el espacio laringo - faríngeo moderno a través de una selección biológico - cultural.

Ahora pudo aprovecharse toda la capacidad del cerebro y la habilidad de la mano humana. Más cabezas podían reunir más conocimientos, de modo que tenían ventaja los grupos mayores (y el mayor cúmulo de conocimientos permitía también alimentar una población mayor). Los ancianos resultaron ser una ventaja para los grupos de Cro-Magnon, porque podían transmitir los conocimientos del grupo a la generación siguiente, así que los cuidaban, con el resultado de que la esperanza de vida media subió a más de 32 años.

La base de este auge cultural estaba en una sólida “economía”. La caza mayor se hizo más segura mediante nuevas armas como el proyector de lanzas: con esa “prolongación del brazo”, de madera o asta, podía herirse de muerte un animal incluso a una distancia de 30 metros. La carne de animales grandes como mamuts, bisontes o renos seguía siendo la base del menú de la era glacial. Pero el Homo Sapiens Sapiens aprendió pronto a aprovechar otros alimentos: pescados, crustáceos y aves y especies vegetales.

Donde aparecían los hombres de Cro-Magnon, pronto se veía desplazada la cultura musteriense de los nandertalianos: hace unos 38.000 años empezó el “Paleolítico Superior”. Los hallazgos demuestran que el Homo Sapiens Sapiens mejoró rápidamente la cultura neandertaliense en Europa, y que además colonizó los continentes de América y Australia. En la actualidad, los antropólogos consideran el hombre de Cro-Magnon una primera forma europea del hombre moderno. Las diversas fases de desarrollo de su habilidad artesana sólo valen, en sentido estricto, para Europa Occidental, aun cuando la evolución cultural de otros grupos de Homo Sapiens Sapiens en Europa oriental, Oriente Medio y norte de África siguió un curso sorprendentemente parecido.

El hombre religioso: En los grupos mayores se desarrollaron nuevas formas de convivencia social. Según todos los indicios, los cazadores de la era glacial veneraban los animales de los que vivían, según muestran las pinturas rupestres y pequeñas tallas. También sobrevivió el culto de los osos de la época de Neandertal. Representaba un papel especial el chamán, una mezcla de brujo, hechicero y sacerdote: por lo menos 50 pinturas rupestres representan un “mago” vestido de pieles y adornado de cuernos que, a su debido tiempo - según ocurre todavía en muchos pueblos - intentaba lograr del destino un trato favorable mediante acciones místicas. Pero las ideas religiosas del hombre de Cro-Magnon iban más allá de la simple magia para la caza. Así lo señalan los complicados ritos funerarios, en los que incluso los jóvenes recibían, en la tumba, objetos de arte bellamente elaborados. Otro indicio son los numerosos objetos artísticos que se ocupan de temas sexuales. En el simbolismo sexual del arte glacial está la clave para la comprensión de la cultura de Cro - Magnon. Muchas pintura rupestres y tallas adscritas hasta ahora a la caza podrían ser, en realidad, símbolos de la “oposición y complementariedad de los valores masculinos y femeninos”, una tesis que se ve apoyada con el análisis de más de 2000 representaciones paleolíticas de 66 cuevas estudiadas.

No sabemos nada de las costumbres maritales de los hombres de Cro - Magnon. Pero probablemente hubo durante toda la era glacial una división de trabajo entre el hombre y la mujer: la consecución de carne a cargo de él, la recolección de alimentos vegetales a cargo de ella. En el norte, condicionada por el clima y las estaciones, la alimentación pasó a depender más y más de la caza y, por lo tanto, del hombre. Pero seguramente fueron las mujeres quienes hicieron posible la caza mediante la administración prudente de la despensa y la confección de prendas de vestir cálidas y bien adaptadas a la piel.

Fueran cuales fuesen las relaciones entre los sexos, fueron motivo de que los artistas Cro - Magnon realizaron gran número de figurillas simbólicas femeninas, las más conocidas de las cuales son aquellas opulentas figuras de “Venus”, como la hallada en la austríaca Willendorf. Esas estatuillas de piedra, marfil o arcilla cocida mezclada con harina de hueso muestran figuras femeninas desnudas con pechos y posaderas enormes. Siempre carecen de pies, y las piernas terminan en punta, por lo que se supone que las figurillas se clavaban en el suelo. ¿Eran símbolos de la fertilidad o diosas terrestres? En cualquier caso, las Venus desaparecen después del paleolítico.

La conquista del planeta: - Las barreras climáticas y geográficas que limitaban el hombre de Neandertal a las zonas templadas del Viejo Mundo ya no eran insuperables para el Homo Sapiens Sapiens: hacia fines de la era glacial, el hombre moderno habitaba tanto junto al Océano Ártico Siberiano como en los extremos Sur de Australia y Sudamérica. Solo las islas del Pacífico, diseminadas por el océano, y el inaccesible continente helado de la Antártida carecían de habitantes humanos; pero llegaron allí también varios miles de años después.

Hace por lo menos 25.000 años que los cazadores del mamut recorrían la Siberia Ártica, y poco más tarde - probablemente a través de zonas de unión terrestres - , estaba habitado Japón. En la persecución de la caza mayor resistente al frío, algunos grupos llegaron en el extremo nordeste de Asia (el Estrecho de Behring) pasillo de unión entre Siberia y Alaska (actualmente inundado por el mar). Los expertos todavía discuten cuándo comenzó la primera conquista de América que pudo haber sido muy tardía, o muy temprana porque la crónica de las glaciaciones, permite varias posibilidades. Beringia estuvo al descubierto tanto hace unos 200.000 años, durante la glaciación de Riss, como durante las dos fases de la de Würm de hace de 65.000 a 50.000 años y de hace 30.000 a 12.000 años. En el momento de la mayor glaciación, hace unos 20.000 años, cuando el nivel del mar descendió unos 135 metros, América y Asia estaban unidas por un pasillo libre de árboles y hielos de más de 1000 Km de anchura.

Por ese puente que se abría y se volvía a cerrar llegaron por oleadas los animales del Viejo Mundo, tanto el mamut como el bisonte, el alce y el oso. Los hombres atravesaron Beringia con seguridad durante la última fase, que se inició hace 30.000 años.

Un grupo de solo un millar decazadores pieles rojas, partiendo de Edmonton, al norte de la provincia canadiense de Alberta, habría podido alcanzar en solo 1000 años la Tierra del Fuego en el extremo sur de Sudamérica, según calculó el investigador norteamericano Paul Martin. Supone que los primero indios hallaron fácil presa entre los grandes animales americanos, que no tenían ninguna “experiencia” con hombres. Eso tuvo como consecuencia un muy rápido crecimiento de la población, y el fin de toda una serie de especies animales, que no pudieron recuperarse de la caza prehistórica y se extinguieron: los perezosos gigantes, los camellos americanos, los caballos y los mamuts. Hace 11.000 años, cuando terminó la era glacial, los hombres habitaban la Tierra del Fuego, y el mar separaba de nuevo Siberia de Alaska. Solo entonces atravesaron el estrecho de Bering, a bordo de kayac o de témpano de hielo, los antepasados de los esquimales modernos.

A diferencia de América, donde los investigadores conocen la ruta de los inmigrantes en Australia se sabe cuándo tuvo lugar la primera colonización, mientras sigue siendo un enigma la vía de penetración. Porque incluso en el tiempo de la mayor glaciación, una franja de agua de por lo menos 100 kilómetros de anchura separaba el apartado continente de la isla de Timor, el pilar más adelantado del puente terrestre indonesio. Por lo menos un grupo de hombres y mujeres de la especie Homo Sapiens Sapiens, recién llegada a Indonesia, debió de vencer el mar de Timor a bordo de troncos o balsas hace unos 38.000 años. Lo hicieron a propósito, según suponen los antropólogos, porque la corriente marina dominante, de dirección norte - sur, no habría permitido una navegación casual hacia el este. Como quiera que fuere, los hombres modernos estaban asentados hace 32.000 años (cuando en Europa se iniciaban las primeras pinturas rupestres) junto al lago Mungo, en el sudeste de Australia.

Otra oleada migratoria hace unos 10.000 años llevó a Australia los útiles de piedra modernos y los perros, Pero entonces, los habitantes del continente austral quedaron separados del resto del mundo hasta hace apenas 200 años, de modo que conservaron hasta hoy su cultura paleolítica sin agricultura ni ganadería. En Nueva Guinea, por el contrario, que hacia fines de la era glacial volvió a separarse de Australia, la población autóctona australiana se mezcló con los inmigrantes del mundo insular del sudeste asiático. En los saltos de isla en isla, esas gentes aprendieron los secretos de la navegación de altura: hace 2000 años, los navegantes alcanzaron Samoa; 300 años después habitaban las islas centropacíficas de Hawai y la isla de Pascua ; hace 1000 años, por fin, los isleños de la tribu de los maoríes concluyeron, con el descubrimiento de Nueva Zelanda, la conquista de la última masa de tierra deshabitada, pero habitable, por parte del Homo Sapiens Sapiens.

La doma de la Naturaleza: La sabiduría de los cazadores y recolectores consistía, según lo formuló el antropólogo norteamericano John E. Pfeiffer, “en vivir con la naturaleza”. Era una vida relativamente cómoda, pero tenía sus límites: la naturaleza no puede sostener a más de diez millones de hombres que viven como cazadores y recolectores. Hacia fines de la era glacial, el número de hombres había alcanzado de tres a cinco millones, casi todos los cazaderos asequibles estaban habitados.

Todavía es discutido, sin embargo, dónde los hombres de la edad de piedra sembraron por primera vez semillas, nueces o vainas por haber descubierto que de ellas crecerían plantas comestibles. Pero es seguro que hace unos 10.000 años se cultivaba trigo y cebada en el “creciente fértil”, la región que se tiende desde Palestina, a través de Siria, hasta Mesopotamia y el sur de Persia. Dado que las plantas de cultivo (al igual que los animales domésticos) se han de seleccionar, en un largo proceso, a partir de especies silvestres, los inicios del cultivo deben de haberse dado unos milenios antes. El arqueólogo norteamericano Fred Wendorf, por ejemplo, encontró en el valle del alto Nilo, no lejos de la presa de Assuán, muelas rebajadas y restos de cebada, cuya edad se fecha en 17.000 años. Más aún: la cebada se diferenciaba ya notablemente de su forma silvestre, lo que significa que ya había pasado por un proceso de selección.

La transición de la recolección intensiva de determinados productos del campo, sin siembra previa, al cultivo de plantas seleccionadas - para lo que hay que guardar una parte de la cosecha para la siembra siguiente - , fue gradual: abarcó cuatro o cinco fases diferentes que, además, transcurrieron en épocas diferentes en distintas regiones de la Tierra, aunque las raíces de las actividades agrícolas se remontan todas, en todas las cunas de la diversas civilizaciones del mundo, a la última fase de la era glacial.

Los recolectores sabían exactamente dónde y cuándo podían contar con qué frutos, del mismo modo que los cazadores avispados tenían un íntimo conocimiento de sus presas. Algunos pueblos cazadores y recolectores, como algunas tribus aborígenes australianas, que todavía hoy viven en la edad de piedra, cultivaban incluso plantas importantes, sin ser por ello agricultores: cuidaban de que sus plantas silvestres recibieran agua suficiente. La auténtica agricultura no comenzó hasta la selección de especies más productivas, hasta la siembra de semillas conseguidas al efecto: plantas y animales silvestres fueron domesticadas con tal éxito que algunas plantas o animales domésticos ya no podrían sobrevivir sin el hombre.

Los animales domésticos y las plantas de cultivo por lo general fueron domesticados en diversos lugares de la misma región (y a veces en varias regiones a la vez), según lo demuestran los hallazgos arqueológicos y formas silvestres todavía existentes. Por el contrario, solo son a medias fiables los hallazgos de primeros cultivos fechables con precisión. Los investigadores también mantienen dudas de si el “creciente fértil” fue efectivamente la cuna de la agricultura y la ganadería, puesto que otras regiones han sido exploradas arqueológicamente de modo menos intensivo. Así, excavaciones en Indochina mostraron que hubo allí, hace ya 15.000 e incluso 20.000 años, huertos con una serie de plantas cultivables - pepinos, guisantes, nueces - y campos arroceros.

Después de los inicios lentos, dudosos, de la agricultura, los hombres del Paleolítico completaron la tarea: domesticaron casi todas las plantas y animales de importancia hoy. Las generaciones posteriores de criadores se limitaron a mejorar los modelos domesticados básicos. Mientras que en los recién nacidos centros agrícolas - Oriente Medio, sudeste de Asia, Centroamérica, Perú - la población crecía explosivamente, provocando profundos cambios sociales, los cazadores que recorrían las estribaciones de los glaciares colaboraban en dar el golpe de gracia a toda una serie de especies animales de la era glacial: en Norteamérica desaparecieron, entre otros, el mamut y el mastodonte, un camello parecido a la jirafa y un perezoso del tamaño de un elefante; en el norte de Europa y Asia el mamut y el rinoceronte lanudo.

Una consecuencia de esa ola, parcialmente paralela, de extinciones y domesticaciones, fue que se redujo drásticamente la variedad de la alimentación humana. Mientras las sociedades de cazadores y recolectores aprovechaban varios miles de plantas diferentes y unos cientos de especies animales, disminuyó la oferta por el número comparativamente reducido de especies domesticadas a pocas docenas de especies. (Hoy, las cuatro plantas cultivadas más importantes, trigo, arroz, maíz y patata, aportan más a la alimentación de la humanidad que los 26 productos vegetales que les siguen en la estadística alimentaria juntos; entre los animales económicos, el cerdo y la res aportan más de tres cuartas partes de la carne).

Con su preferencia por unas pocas especies determinadas, el hombre comenzó a dar forma a la vida sobre la Tierra según sus necesidades. Gracias a la agricultura y la ganadería, unos cinco millones de cazadores y recolectores se habían convertido en solo 5.000 años en unos treinta millones de campesinos y pastores. Cinco mil años después, hoy, más de seis mil millones de hombres y se calcula que para el año.

Los cambios acelerados: Durante el paleolítico ya hubo asentamientos aldeanos en lugares especialmente favorables. Pero la invención de la agricultura hizo posible que se asentara más de una fracción ínfima de la población mundial. En el Oriente Medio ya vivían en comunidades rurales los campesinos hace unos 9500 años. Las excavaciones arqueológicas en Jericó (Palestina), Çayönü (Turquía) o Ali Kosh (Irán) revelan detalles sobre el modo de vida de los primeros aldeanos. En Ali Kosh, los colonos se nutrían tanto de plantas silvestres como de cultivadas: de trigo y cebada, de avena y alfalfa, de lentejas, guisantes, alcaparras y otras plantas nutritivas. También tenían ovejas entre sus animales domésticos.

Pocos cientos de años más tarde, los agricultores ya construyeron sus primeras casas con cimientos de piedra y muros de ladrillo. Las primeras poblaciones se componían con frecuencia de agrupaciones de chozas redondas, muy pequeñas; más tarde los edificios fueron mayores y rectangulares.

Las materias primas para utensilios y otros objetos de uso, si no existían en la región, se cambiaban. El vidrio volcánico obsidiana, especialmente duro y agudizado, se traficaba a lo largo de cientos de kilómetros. También eran “bienes de exportación” los conocimientos agrícolas y la vida sedentaria: hubo primeras aldeas en Grecia hace unos 8000 años, en Egipto hace 6500. Independientemente del Oriente Medio, los hombres construyeron aldeas campesinas en China (hace 5000 años), en Indochina (6000) y en Centro y Sudamérica (4000 años)

Todavía se discute si los primeros agricultores vivían mejor que los cazadores y recolectores. Pero una cosa es cierta: los campesinos se reproducían más rápidamente. Uno de los factores disparadores de la “explosión demográfica” neolítica puede haber sido la relación entre fertilidad y grasa. El inicio de la pubertad entre las niñas depende más de su peso que de su edad, y la maduración del óvulo solo tiene lugar si la mujer dispone de suficientes reservas grasas, condición que posiblemente se cumpliera antes en un modo de vida sedentario, campesino. en las aldeas nacían más bebés y sobrevivían más de ellos. La abundancia de niños llevaba consigo más bocas que alimentar, más vecinos, más peleas y más enfermedades contagiosas.

Dos inventos, sobre todos los demás, hicieron del hombre lo que es hoy: el fuego y la agricultura El fuego lo hizo independiente de su zona climática tropical originaria; la agricultura lo liberó de la limitada oferta alimentaria de la naturaleza. Pero resulto fundamental la posibilidad de articular son idos cada vez mas distintivos gracias al lenguaje, que, al facilitar la trasmisión del conocimiento por fin, hizo saltar parcialmente las cadenas que la memoria limitada imponía al creciente saber de la humanidad.

Hace unos 100.000 años se inició lentamente el cambio físico en la garganta que - lo más tarde hace 4.000 años - dotó al Homo Sapiens Sapiens del aparato fonador moderno. La separación espacial y temporal hizo que las lenguas existentes se dividieran una y otra vez en lenguas nuevas. Así, la mayor parte de las lenguas europeas, por ejemplo, pero también el persa y el sánscrito indio, se remontan a un origen común: la lengua indogermánica, llamada así por sus dos sucesoras más lejanas.

Pero la palabra se la lleva el viento, y los conocimientos almacenados en la memoria se pierden con la llegada de la muerte; por eso ya el hombre de Cro - Magnon manifestó la necesidad de hacer más duraderos los pensamientos, según lo muestran las pinturas rupestres y fragmentos de hueso o asta tallados.

El comercio incipiente en el neolítico demandaba sistemas fiables para registrar informaciones. La tarja era un medio de determinar el deber y el haber en las transacciones. Otro método, que apareció por primera vez hacia 8.500 a.C., consistía en pequeños discos, bolitas o símbolos de arcilla, que probablemente designaban determinadas cantidades de mercancía y que con ello son los “albaranes” más antiguos. Los símbolos de arcilla se difundieron desde el valle del Nilo al del Indo, es decir, toda la región en la que se desarrollaron las primeras escrituras.

“La escritura es la pintura de la voz”, dijo el filósofo francés Voltaire, y las primera escrituras fueron efectivamente pinturas: dibujitos que se alineaban. Hace más de 5000 años, los sumerios habían reconocido la superioridad de tales escrituras mediante dibujos grabados en tabletas de arcilla sobre los símbolos de arcilla sueltos. En el plazo de pocos siglos desarrollaron de la pura escritura pictográfica un sistema por el que se podían expresar sílabas sueltas: se había inventado la primera escritura “fonética”, la escritura cuneiforme sumeria.



La escritura cuneiforme todavía abarcaba la difícilmente digerible cantidad de 2000 símbolos diferentes. A pesar de ello, era superior a todos los otros sistemas de registro escrito: los escribas sumerios grababan en tabletas de arcilla húmeda transacciones comerciales e inventarios, compra - ventas de terrenos y listas de impuestos, cartas de protesta y de amor.

Crecía la demanda de escribas, a raíz de lo cual se fundaron las primeras escuelas de escritura. Ahora se podían registrar mayor número de cosas cotidianas: se podían anotar las ideas religiosas, igual que los conocimientos matemáticos, astronómicos o astrológicos. Y con la epopeya de Gilgamesh, que fue grabada hacia 2000 a.C. por escribas babilonios en escritura cuneiforme, aparece por primera vez un relato escrito que narra las aventuras de un hombre - Gilgamesh - en busca del secreto de la inmortalidad, en su búsqueda de la verdad.

La invención de la escritura fue el paso decisivo hacia la civilización. El desarrollo (casi) independiente de altas culturas junto al Nilo y en Mesopotamia, junto al Indo y al río Amarillo en China muestra que el tiempo estaba maduro en esos lugares para el desarrollo de escrituras y sistemas estatales que superaran el marco tradicional de la familia, el clan y la tribu: cuando la riqueza de la cosecha depende del conocimiento exacto de las oscilaciones estacionales del nivel del río vivificador, cuando los vecinos ya no se conocen, cuando se comercia a lo largo de cientos de kilómetros, cuando en las metrópolis reina una confusión de lenguas babilonia, crece la necesidad de información fiable, de un orden fijado por escrito.

El rey babilonio Hammurabi fue el primer soberano que hizo escribir sus leyes poco después del 1.800 a.C. (en escritura cuneiforme). El arte de la lectura y de la escritura todavía estaba reservado a los escribas. La invención de la escritura y la construcción de edificios monumentales para los dioses o reyes divinos fueron más que meras reacciones a problemas cotidianos. Son los signos, visibles aún hoy, de un cambio muy profundo. Se hundieron los órdenes sociales y religiosos tradicionales. Religiones nuevas como el judaísmo y el cristianismo ponían un solo dios creador en el lugar de la habitual abundancia de dioses. Y sabios griegos como Platón y Aristóteles fundaban escuelas de pensamiento basadas en la observación precisa y la lógica severa en lugar de las interpretaciones míticas.

Parece que los hombres del Mediterráneo Oriental y la Mesopotamia habrían desarrollado desde 1300 a.C. hasta el inicio de nuestra era, por primera vez, algo así como la “conciencia” en sentido moderno. Allí donde antes los hombres estaban descritos como sólidamente embutidos en un orden divino, y sin voluntad propias, aparecen en relatos como la “Odisea” de Homero héroes con rasgos “humanos”, que ya no hacen depender cualquier afecto, cualquier decisión, de la divinidad del ramo.

La libertad espiritual recién descubierta dio alas al auge de la potencia militar, sin escrúpulos, de Asiria, pero también al de los pensadores griegos, que comenzó hacia el año 600 a.C. con el concepto del “conocimiento de sí mismo” de Solón; también con la nueva conciencia surgió la idea del dualismo cuerpo - alma del hombre, creció algo así como la conciencia del tiempo. El enfrentamiento con el fenómeno del tiempo produjo las primeras crónicas (y con ello la “invención” de la historia), pero también de mitologías convincentes sobre la creación, la búsqueda atinada de la humanidad por su lugar en el Universo, por sus raíces en el tiempo y en el espacio. El proceso de ascenso posterior del ser humano es materia a consultar en otras obras más adecuadas.




Actualización y discrepancias: Las modificaciones al proceso evolutivo descrito que se anotan a continuación, proceden de planteamientos que aparecen en los círculos de especialistas y que -por razones diversas son divulgadas sin que exista necesariamente criterios uniformes respecto a sus aseveraciones. La revisión que sigue cubre el período de 1992 a 1996. Se advierte-sin embargo-que las modificaciones en el campo de las teorías de la evolución humana, a partir de 1997 se han vuelto tan aceleradas y constantes, que solamente los especialistas pueden darle seguimiento . Aquí hemos incluido el tema de la evolución humana porque es relevante para poder entender la cosmología en un contexto más general y no como simples teorizaciones y experimentaciones constreñidas a la astrofísica.

• Junio 1992, Litua Yang: El Homo Sapiens no es originario del África, sino de varios sitios del planeta / Revista Nature, Washington D.C., U.S.A.
• Julio 1995, Ronald Clark; Phillips Tobías: Encontrarlos huesos del pie de un homínido de 3.5 millones de años en Sterkfontei, África del Sur. Tesis: Es una transición de mono (cuadrúpedo) a hombre (bípedo) y prueba que todos los antepasados provienen del África / Reuter, Universidad de Johannesburgo, África del Sur
• Agosto 1995, Owen Lovejoy: La teoría anterior debe ser refutada por "ingenua" / Revista Science, Washington D.C., USA
• Agosto 1995, Alan Walker: Encontrados restos de nueva especie de homínido "Australopitecos" Anamensis "bípedo muy temprano que devoraba a los congéneres de "Lucy". Los nuevos datos claves son: Ardipithecramidus (ramaphithecos), entre monos y hombres = 4.4 millones de años. Lugar de hallazgo: Etiopía / Revista Nature Washington D.C., U.S.A.
• Julio 1993, Don Tyler: Encontrado cráneo de 11-13 millones de años en Java, Indonesia de un Homus Erectus / Reuter / Universidad Leiden, Holanda.
• Setiembre 1995, M.E.P.: a) La evolución no es lineal, porque del mismo tiempo, hombres de distinto grado evolutivo fueron contemporáneos. Ejemplos: a) Pitecantropo en Java; b) Neanderthales en Europa, partes de Asia y Norte de África, entre 12 a 4 millones de años. b) Los australopitecos se dividen en: a) robustus (3.5 millones de años); b) Africanus (5-6 millones de años). Ambos eran bípedos. c) Homo habilis (primer hombre dotado de lenguaje primitivo vivió al mismo tiempo que el astrolopitheco) hace 3.0 millones de años. d) Homo erectus, vivió hace 1.5 millones de años. Descubrió el uso del fuego. e) Homo sapiens sapiens; se distinguen dos: Cro-Magnon, originario de Oriente y Grimaldi, originario de Oriente Medio, aparecen en Europa en migraciones sucesivas. / M.E.P., C.R.
• Setiembre, 1995, Phillip, Tobías, José Gibert: El comienzo de la difusión de homínidos desde el África se produjo hace 2.0 millones de años. Prueba: "El Hombre de Orce" de 1.8 millones de años (bípedo, pero no erguido aún) encontrado en Orce, León, España. El paso de África a Europa se pudo dar por: a) Uso de balsas de madera, o b) a pie por la formación de la emergencia de una plataforma terrestre. / EFE, Congreso Internacional de Paleontología Humana, Granada, España.
• Noviembre 1995, M.E.P.: El Homo Sapiens llega a América al final del Pleistoceno. / M.E.P., C.R.
• Noviembre 1995, Midrel Brunet: Encontrada mandíbula de un australopitheco bípedo, tan antiguo en el Norte de Chad (Koro-Toro) como los que vivieron en el Valle del Rift. Este hallazgo del espécimen llamado "Abel" permite hacer estas afirmaciones: 1) Los primeros humanoides no estaban concentrado en el Este de África, sino desparramados por casi todo el África Negra. 2) Los austrolopithecos del Este africano progresaron hasta transformares en hombres posesionados por el ambiente. 3) Los del centro y oeste, en un ambiente selvático, más cómodo, apenas evolucionaron o se quedaron como simios. 4) Su gran biodiversidad les permitió hace 3.5-3.0 millones de años formar de 1 a 3 especies. / AFP, Universidad de Poitiers, Francia.
• Febrero 1996, José Gibert: Encontrados restos humanos de homo sapiens sapiens que se remontan a 200.000 años (esto es 110.000 más de la antigüedad que se le atribuía). / EFE, Santiago de Compostela, España
• Abril 1996, Wang Jihowey: Encontrado hueso de mandíbula del primer antropoide (tamaño pequeño como un conejo actual), edad: 5 millones de años. el hallazgo confirma que el Eosimio es el fósil de antropoide (antepasado de los homínidos), más antiguo encontrado hasta la fecha. / Agencia Nueva China, Instituto de Paleontología de China, Beijing.
• Mayo 1996, Ana Roosevelt: Encontradas puntas de flechas que demuestran que, junto a la tradición CLOVIS de Norteamérica (11.200 a 10.990 años), que se supone pobló América de Norte a Sur (viniendo de Europa por el Estrecho de Behering), otra cultura diferente floreció en plena selva amazónica, lo que favorece la tesis de Paul Rivet (aloctonista)
• Mayo 1996, ND: Australopiteco Anamensis: Primer homínido en vías de erección. 4.1-3.9 millones de años. Lugar de hallazgo: Kenia. Australopiteco Afarensis. Primer homínido totalmente erecto. 3.9 -3.0 millones de años. Lugares de hallazgo: Etiopía y Tanzania. / Revista Science, Universidad de Illinois, U.S.A.
• Mayo 1996, Michel Brunet: Se confirman -en principio- los datos aportados en noviembre de 1995, acerca de la antigüedad de los restos de "Abel" y por lo tanto queda en duda la teoría de un único lugar de nacimiento y difusión de los homínidos. / Reuter, París
• Octubre 1996, Ian Tattresall, Jefrey Schwartz: La idea de que el Hombre de Neanderthal es una especie separada (teoría divisionista) y no de la misma especie (teoría de la Linearidad) que el Homo Sapiens, recibe un fuerte respaldo con los últimos estudios de cráneos de cinco fósiles. / Reuter, Academia Nacional de Ciencias, Washington DC, U.S.A.
• Octubre 1996, M.E.P.: Hoy día se aceptan dos tesis sobre el poblamiento de América: a) Tesis asiática (Alex Hrdlicka) que señala que el hombre americano vino de Asia pasando por el Estrecho de Bering; b) Tesis oceánica (Paul Rivet) que señala que no solo pasaron por el estrecho de Behring, sino también vinieron desde Oceanía, Australia, Melanesia y Polinesia en oleadas migratorias. / M.E.P., C.R.
• Octubre 1996, M.E.P.: Hay muestras de utensilios y herramientas similares a los encontrados en México, Argentina y resto de Centroamérica que demuestran la presencia de hombres en Costa Rica desde la última era glacial (9.000-7.000 años a.C.), en total hace entonces, 11.000-9.000 años de antigüedad / M.E.P., C.R.

Evolución y futuro del Hombre: Para el francés Georges Olivier, profesor de antropología de la Sorbona la evolución se fundamenta en la comprobación científica de los cambios que se han producido en los seres -incluido el humano- en el transcurso del tiempo. Los mecanismos de la evolución son:
a) adaptación;
b) variación
c) factor tiempo.

Pero los datos se deben interpretar distinguiéndose con claridad los mecanismos de las teorías interpelativas En líneas generales interesa señalar que la adaptación es el reajuste del ser al medio ambiente y sobre este hecho hay fuertes controversias, porque puede ser estricta o relativa y dentro de estos términos darse grados de variación, algunas debidas al medio ambiente, otras a la herencia: las que a su vez pueden originarse en combinaciones genéticas, o en mutaciones.
Respecto al factor tiempo revisemos brevemente el pasado, el presente y lo que se avizora para el futuro próximo:





Pasado :

Interesa para efectos de esta obra ahondar en el factor tiempo, por lo cual son de gran utilidad algunas de las opiniones de autores europeos citados por Olivier para situar en contexto la evolución .
Teissier: El guerrero galo Vercingetorix (en los albores de la era cristiana) está al nivel del septuagésimo antepasado de cada uno de los franceses modernos; la prehistoria se inicia con nuestro milésimo antepasado, en plena glaciación última, nuestro diezmilésimo antepasado es aún un hombre, pero el veinticincomilésimo es un pitecántropo, eso significa que así, pues, a despecho de la lentitud del crecimiento humano, nuestra evolución se ha realizado con bastante rapidez, en veinte mil a treinta mil generaciones, calculadas a intervalos de treinta años por cada siglo.

J. Huxley: En el largo prólogo de la evolución humana, cada cambio importante exigía unos cien mil años; inmediatamente después del final de la época glacial, una duración del orden de mil años bastaba; durante gran parte de los tiempos históricos, la unidad de tiempo para un cambio importante era, aproximadamente, de un siglo, mientras que actualmente esta unidad ha quedado reducida a un decenio, poco más o menos.

Presente:

Meyer: El factor tiempo incide sobre la disociación entre variación anatómica y variación de la conducta en los seres humanos e infrahumanos. La misma aceleración de la evolución se encuentra también en otros terrenos muy diversos y que se remontan mucho más en el tiempo: evolución bioquímica, aumento del número de especies vivientes y crecimiento de la población mundial y del coeficiente de cefalización.

Zeuner: En la evolución, el número de generaciones parece ser menos significativo que el tiempo absoluto" y no habría ninguna correlación entre la duración de la vida, el número de generaciones y la rapidez de la evolución.

Florkin: La aceleración de la evolución es un factor temporal en el que intervienen un factor anatómico: el coeficiente de la cefalización y un factor demográfico: el crecimiento de la población mundial.

Futuro próximo:

Hay tesis no coincidentes una de sustrato biológico, establece la detención de la evolución; otra de sustrato intelectual la propulsa.

Sustrato Biológico: Debe mencionarse muy especialmente que a propósito de los datos anatómicos y demográficos se ha previsto la detención de la evolución en un breve lapso, según cuatro, los antropólogos y paleontólogos así: en el año 2030 para Von Foerster , entre el 2000 y el 2200 para Cailleux y hacia el año 2050 para Meyer.

Se comprende, pues, que haya que plantearse una cuestión previa: si la evolución se acorta no podemos formular predicciones a largo plazo, ya que el hombre no tiene futuro porque se conjugan:
a) noción de rapidez de evolución que hay que relacionar no con el tiempo cósmico, sino con el biológico. (La duración del crecimiento de cada generación del ser evolucionado),
b) la rapidez de la evolución es tanto mayor cuanto más evolucionadas son las especies,
c) la del hombre se expresa también por su crecimiento más prolongado.

Sustrato Intelectual: La evolución biológica al conjugarse con el desarrollo de la vida en sociedad y el progreso en general ha permitido el ascenso de la intelectualidad. La capitalización comunitaria del saber y la experiencia crea un medio cultural (que Theilhard de Chardin llama Noosfera) y que no es otro que un estadio más elevado del mundo del espíritu. Este herencia social de la inteligencia es innovadora (por la potencia de sus efectos futuros), y porque es un factor nuevo de evolución, un factor de otro orden que se distingue del antiguo factor biológico (por la herencia de lo adquirido) La organización social se opone a la selección natural por lo que el progreso técnico permitirá intervenir directamente en los procesos evolutivos. La "Noosfera" va a ser el lugar donde se opere un rebote sinérgico: una rápida evolución psíquica y cultural sustituirá a la lenta evolución morfológica y la desbordará.
Acerca de este criterio hay dos posiciones:

Posición A:

Hiernaux: Hay una analogía con la emergencia de la vida a partir de la materia y luego del hombre a partir de las cédulas vivas ordinarias porque el dintel evolutivo será un estado en el que los hombres tendrían las mismas propiedades humanas triviales de los hombres de hoy en día, pero cuyo conjunto organizado representaría un salto adelante cualitativo, tan radical como el paso de la materia inerte a la vida y el de la vida al hombre.Posición

Posicion B:

La sostienen principalmente:

Olivier: El punto de vista de Hiernaux postula que la visión de una suprahumanidad es menos azarosa que la predicción de un superhombre con un cerebro mayor. En esto tiene razón aunque se trate de dos fenómenos diferentes: es posible que un buen día sobrevenga un superhombre, pero nosotros no somos lo bastante inteligentes para concebirlo. La previsión de suprahumanidad es una noción aparentemente más accesible; en esta noción se sobrentiende que el hombre ya no es un animal como los otros y que su evolución será particular. No obstante, difícilmente puede imaginarse lo que produciría -según Hiernaux- el acceso a cierto nivel de organización que desembocase en un estado cualitativamente distinto, dotado en sí de cualidades y de propiedades nuevas. Debe preguntarse: ¿Qué cualidades? ¿Qué propiedades? Estamos en pleno misterio, igual que en el caso del cerebro del superhombre. Cuando solo se conoce el agua y el hielo no se puede concebir el vapor. Por otra parte, hay una buena dosis de idealismo, de voto piadoso, en este concepto de "la interdependencia cada vez más estrecha de los seres humanos, condición de su evolución, puesto que esta, de ahora en adelante, se funda en la comunicación del conocimiento". Esta evolución sería, por lo tanto, esencialmente cultural y no genética.

Bize: "No habrá hombres nuevos" lo que confirma el punto de vista de Olivier.

Leroi-Gourhan: Teme a la idea de convertirnos en una colectividad de hormigas supremamente pensante. A causa de la sujeción a la técnica, y cree que el hombre corre el peligro de quedar completamente traspuesto sin que tenga ya relaciones libres con el mundo natural, liberado como quedará de sus instrumentos, de sus gestos, de la programación de su actos, de su memoria. En realidad, surge aquí un detalle importante: la próxima acción del hombre sobre el hombre, que hay que apresurarse a prever para intentar frenarla o controlarla: la ingeniería genética.

A juicio de Olivier grandes progresos se realizarán en el futuro, progresos notables en cuanto no atañerán a la anatomía del cerebro, sino únicamente al funcionalismo cerebral. Tendremos, ciertamente, un conocimiento más profundo del mundo exterior y, en consecuencia, una visión diferente del Universo. Pero los progresos se refieren no solo a la inteligencia pura, (con todo lo que tiene de frío y abstracto) porque el espíritu humano no es esto solo: afortunadamente comporta otros aspectos, más cálidos y poéticos: la síntesis de lo racional y de lo afectivo, el juicio, la personalidad, (cualidades que se sitúan en el lóbulo frontal) y también las incidencias morales, la responsabilidad y el sentido social, lo irracional, lo imaginario, el sentido del futuro. Por otra parte, el lóbulo frontal puede tener un mejor rendimiento fisiológico, sin transformación anatómica visible, sin que nosotros tengamos una frente mayor (la frente es específica del hombre).

¿ Homo spiritualis u Homo Socialis ? .- Finalmente, se ha convenido en reconocer que el estadio supremo del trabajo cerebral es el poder reflexivo, el cual conduce a las nociones de conciencia moral y de libertad de juicio. Ahora bien, tanto el desarrollo de las áreas gnósticas (por la educación precoz y por la herencia del pasado) como la organización de una suprahumanidad entrañan el peligro de transformar el hombre en un robot creado por él mismo, por ello hay que prever un justo equilibrio entre el condicionamiento necesario y la libertad del espíritu.
Si la "subida de la conciencia" se parase un día y nuestro coeficiente de cefalización evolucionase demasiado precozmente según una logística, sería tal vez porque nos habríamos extraviado por no dejar espacio suficiente para la libre elección individual. Desde los tiempos antiguos hemos estado progresando más desde el punto de vista intelectual que desde el punto de vista moral.
El materialismo científico, necesario para nuestro trabajo científico y para nuestra evolución biológica, no debe hacer olvidar que las facultades espirituales son superiores a las facultades estrictamente intelectuales y que algunos fenómenos, aparentemente irracionales, pueden ser de gran valor (el éxtasis místico es, probablemente, una de las más hermosas realizaciones de la hominización) y cabe preguntarse: El Homo futurus, ¿será un Homo spiritualis o simplemente un Homo socialis...?

Para responder es necesario ver que nuestra evolución futura no depende ya únicamente de los mecanismos biológicos habituales; dos datos se añaden a ello para complicarlo más: el factor social (el nuevo medio ambiente que se creado el hombre) y la acción del hombre sobre el hombre; de ahora en adelante puede preverse un proceso de "mutación-selección dirigida", un quebrantamiento de nuestro patrimonio genético normal por medio de clonaciones. Frente a esto debe preguntarse: ¿Todo el mundo aceptará la eliminación de los genes nocivos. Esta cuestión se hará espinosa cuando se quieran crear genes nuevos y tipos superiores...?

Concluye Olivier :
a) La evolución es un hecho que se establece por el pasado y que también puede prolongarse en el futuro, de allí que: "Aunque nos hallásemos en un "rebote" de la evolución, las leyes de la paleontología deben permitirnos la construcción de hipótesis sobre el porvenir del hombre.
b) Las bases sobre las que se puede trabajar son muy simples: nuestros antepasados de hace diez mil años eran físicamente muy parecidos a nosotros, pero los de hace doscientos mil años presentaban diferencias muy instructivas; en efecto, aparte de toda cuestión sobre descendencia directa, los neandertalenses pueden considerarse hasta cierto punto como los intermediarios entre los pitecantrópidos y el hombre actual.
c) Esta constatación ha sido el hilo conductor de perspectivas para el futuro: hay una ortogénesis, una fuerza evolutiva que va a parar al hombre y de la cual postulo que se prolongará más adelante.

Esto no es más que una hipótesis, pero es la única de que se dispone, ya que nadie sabe la orientación que nos será dada por la nueva evolución, la evolución cultural y psíquica, que el neodarvinismo no había previsto.
Para prever lo que será el hombre futuro, se han seguido dos reglas:
1.- En primer lugar, limitarse prudentemente en el tiempo a algunas decenas de milenios, por consiguiente, a unas transformaciones que quedarán dentro del marco del género humano.
2.- En segundo lugar, admitir que no aparecerían más diferencias que las que existen entre el hombre actual y el hombre de Neandertal, y no solamente más, sino probablemente menos, a condición de que no hayan divergencias ni ramificaciones, ni gran aceleración tampoco".

Hay un hecho evidente en el proceso de la evolución humana y es la interrelación entre el medio ambiente y el ser humano. Debido a la proliferación del uso de todo tipo de sustancias nocivas a la salud, todo pareciera indicar que pueda haber cambios significativos que primero afectan genéticamente ,luego se heredan en el ADN y por ende provocan cambios. Pero ese tema comienza a estudiarse en el Tercer Milenio.



EVOLUCION DE LA RELIGION CRISTIANA

En un Universo sometido a profundos y acelerados cambios ,de los que nos venimos enterando apenas entrado el siglo XX ,pues antes de ello- a excepción de algunas personas que lo intuían, no había conocimiento bien cimentado para afirmarlo y en un Planeta en donde nosotros, los seres humanos que pensamos el Universo, somos herederos de lo que comenzó como una mera inquietud de nuestros antepasados primitivos y luego iría tomando forma hasta convertirse en una visión del mundo: las creencias religiosas.

El texto bíblico para el cristianismo sobre el tema de la Creación, , es el Capítulo 1 del Génesis (obra literaria y teológica del siglo VI, antes de Cristo, es decir, relativamente reciente en la historia de la literatura de Israel y de la composición misma de la Biblia) que se produce en un Israel ya evolucionado, marcado por una historia fundamentalmente dura, difícil, por la destrucción de los reinos y el exilio. En esa época desarrolla Israel, con base en su tradición ancestral, la teología sacerdotal. que presenta junto a la cosmogonía (el origen del cosmos) creado por Dios y como culminación de ella , el origen del hombre a imagen de Dios. Dios hace al hombre a su imagen, según su semejanza, (le hace varón y mujer) y le encarga la creación.

1) Ese "ser" del hombre como "imagen de Dios" está explícitamente referido en la Biblia, en el texto sacerdotal, al dominio del mundo, a ser señor del mundo, a ser señor de la creación. Esto sucede entonces, en tal forma, que el señorío del hombre sobre la creación es la manifestación por el hombre mismo y a través del hombre, que le permite continuar su señorío de Creador sobre todo lo que Dios ha hecho. El encargo de Dios al hombre es crecer, multiplicarse, llenar la tierra y someterla. De esa manera, para ese filón de la teología de Israel, todo lo que el hombre va a ser en el mundo es, entonces, el cumplimiento de la misión que el Creador le encomendó.

2.- Sin embargo, a pesar de que este es el primer capítulo de la Biblia y que luego sigue otro capítulo que también cuenta la creación y es tomado de un documento más antiguo, resulta que la Creación no es el elemento básico de la fe de Israel. Eso lo sabemos perfectamente hoy en teología bíblica. Y eso nos lleva también a pensar que la creación tampoco es para la fe cristiana, (dado su origen y raigambre en la fe de Israel) el elemento clave de la fe ni el elemento básico de la teología. Para Israel, Dios fundamentalmente es el Dios Salvador. Esa es la experiencia fundamental que da origen a la fe de ese pueblo. Y lo mismo pasa con la fe cristiana: Dios es el Dios Salvador.

3.- Eso no quiere decir que la creación quede marginada, sino que ocupa un lugar determinado en el Plan divino. La Teología de Israel desde antiguo, logró hacer ese empalme. El empalme de salvación y creación. Pero el empalme no se hace de la creación a la salvación, sino lo contrario: de la salvación a la creación. Es decir, la experiencia del Éxodo, de la liberación que Dios concede a su pueblo, de la servidumbre y la esclavitud de Egipto, y la alianza subsiguiente, se convierte en el momento clave de la lectura de la historia y también, entonces, en elemento clave de la lectura misma de la creación. Para el Yahvista, cuando escribe el relato de la creación, la obra del dios que crea es tan solo un preludio de la obra salvífica que dios va a hacer en favor de su pueblo y a través de su pueblo, de toda la humanidad.

4.- Este es el campo en el que ha salido una discusión grande entre estudiosos protestantes del Antiguo Testamento: C. Westermannt y G. Von Rad quienes enfatizan en tal forma el elemento salvación como base con la teología de Israel, que parecen minimizar la Creación. Es muy importante entonces, conocer las raíces, el origen de la fe de Israel en la religión ancestral de los que fueron los padres de ese Pueblo. Esto es importante porque allí es donde, a partir de una estructura social y de unos condicionamientos culturales precisos, se da el campo donde la fe específica de Israel pudo echar raíces y donde se pudo desarrollar, evidentemente, por la vía providencial de Dios, la futura fe del pueblo de Israel. La investigación fundamental en este campo la hizo un erudito protestante, el alemán Albrecht Alt, en la obra que marcó un hito de la comprensión del pueblo de Israel, “El Dios de los Padres”.

5.- Alt trató de buscar el origen de la religión de Israel en sus ancestros. Su investigación se concentró en las denominaciones de la divinidad, que aparecen en las antiguas tradiciones patriarcales israelitas que se conservan en la Biblia. El pueblo de Israel en las recopilaciones históricas posteriores conservó tradiciones que remontan más allá de la constitución propia histórica de Israel, que ocurrió en los siglos XI y XII antes de Cristo, que es la época de la dominación israelita de la tierra de Cannaán. La Biblia permite, mediante el esfuerzo crítico avanzar hacia el pasado. Eso es lo que hace el investigador Alt cuando busca la forma de la religión de los ancestros de Israel.

6.- Las denominaciones divinas en los ancestros de Israel conjuntan el hombre de Dios, en el antiguo hebreo “El”, con los nombres de los ancestros o de los troncos de las tribus. Por eso se encuentran con mucha frecuencia combinaciones como esta: el Dios de Abraham, “El Abraham”. Si investigamos lo que quiere decir “El Dios de Abraham” no debemos entender “Dios” como una denominación genérica, sino como la divinidad específica “El”. Abraham es el nombre del ancestro de la tribu, o el tronco del clan. Mediante este tipo de denominaciones se remonta Alt a la forma de la religión de grupos seminómadas, cuya vinculación a Dios no estaba por tanto marcada por el lugar, por el santuario donde la divinidad era adorada, como en general en Canaán, sino que la religión estaba ajena a la vida y a las vicisitudes del grupo humano. Es decir, Dios andaba con ellos, su Dios era el Dios que los acompañaba por la historia, el Dios de las vivencias de cada día, el Dios que les abría perspectivas de subsistencia en el futuro.

7.- El mismo hecho de la estructura tribal o clánica de los grupos, le da a este tipo de religión una perspectiva histórica. Una tribu o un clan se define a sí mismo haciendo la lista de los ancestros, es decir, proyectándose al pasado y abriéndose al futuro. Por tanto, su Dios es el Dios de sus padres, de sus antepasados, que también marcha con ellos hacia el futuro. Esta característica es esencial no simplemente en la religión de los ancestros sino también en la posterior fe de Israel. La vinculación de la divinidad con la tribu y con el clan, es decir, con las personas y con su historia, le da desde los ancestros a la religión de Israel su característica indeleble, permanente, definitiva. En eso se distingue de la religión de Canaán y luego de las religiones greco-romanas.

8.- Ciertamente, Israel reconoció a su propio Dios Yahvé en el Dios de sus padres y en el Dios de Canaán. Por eso cuenta que los Patriarcas adoraban su Dios en los santuarios cananeos. Desde el punto de vista histórico y aún teológico esta constatación que hacen los modernos, especialmente la investigación del norteamericano Frank Moore-Cross, que es muy reciente y significativa. Ella puede ayudar a los cristianos de hoy a hacer el empate total, a saber: nuestro Dios, que es el Padre de Nuestro Señor Jesucristo es Aquel al cual Israel llamó Yahvé, que lo sacó de la tierra de Egipto, de la casa de la servidumbre. E Israel fue capaz de empatar su fe en Yahvé con la religión de los padres que adoran a “El” dicho en otra forma nuestro Dios es el Dios de la religión, el dios de los pueblos: Dios es uno solo.

9.- Ahora bien, la divinidad cananea “El” es conocida por muchos textos no israelíes, sobre todo los de Ugarit. “El” en la antigua religión de Canaán es el Dios principal del panteón y el Dios creador. Por eso la idea de creación es un principio teológico mucho más antiguo que la fe de Israel. Israel no inventó la idea de creación; además no fue su gesta religiosa fundamental. La idea de creación, de un Dios creador está en la religión cananea; fe en alguna forma vivida por la religión pre-israelita ancestral y pasó luego a la fe de Israel. La gran gesta de Israel fue haber logrado echar hacia atrás, o trazar retrospectivamente la línea de la historia desde la constitución del pueblo, por la liberación de Egipto y por la alianza, hacia la creación misma. Y hacer que la creación misma fuera el primer acto de la historia salvífica. Por eso, si tenemos en cuenta este punto así como para Israel, es imposible hablar simplemente del Dios creador, prescindiendo del Dios salvador, tampoco a nosotros los cristianos nos es dable tratar el tema de la creación separado del tema de la soteriología.

10.- El cristianismo primitivo heredó la fe de Israel. Hay un texto que cita San Pablo en el capítulo octavo de la Primera Carta a los Corintios, donde presenta una confesión de fe elaborada, seguramente usada por circuitos de la iglesia naciente. En ella aparecen los dos primeros artículos del credo: el primero se refiere a Dios Padre, el Creador y el segundo al Señor Jesucristo. El Credo posterior introduce el tercer artículo referido al Espíritu Santo. El problema que está tratando el Apóstol en el mencionado capítulo es el de las carnes sacrificadas a los ídolos, si era lícito comer esas carnes o no. Era, por tanto, un problema real en las comunidades cristianas que vivían en el mundo pagano, donde sacaban al mercado las carnes que quedaban de los sacrificios idolátricos. Pablo intenta solucionar el problema citando el antiguo credo cristiano. Aunque para los paganos haya “muchos dioses y muchos señores”, para nosotros los cristianos no hay, sino “un solo Dios, el Padre del que todo procede y a quien nosotros estamos destinados” (1 Cor.8, 6b). En el primer artículo está la confesión de la fe judía: dios es el creador, el principio de todo y el fin de todo.

11.- Así entonces en este primitivismo credo cristiano tomado del judaísmo, cuando se habla de Dios se enfatiza fundamentalmente la obra creativa y la obra de salvación, señalada como la finalidad de la acción divina sin nosotros. En un texto muy importante, el capítulo 17 de los Hechos de los Apóstoles, el autor pone en boca de Pablo el célebre discurso ante los atenienses. El Apóstol aparece desarrollando en forma muy amplia el primer artículo del credo, donde se enfatiza el hecho de la creación. Este énfasis de la predicación misional cristiana entre los paganos proviene de la praxis misionera del judaísmo helenista, que busca prosélitos y simpatizantes entre los paganos. Queda claro que la idea de la creación y del único Dios creador proporcionó al judaísmo helenista y después al cristianismo, un punto de acceso a la mentalidad religiosa del paganismo greco-romano. Así entonces, aunque la predicación de la obra salvadora de Dios en la historia no era relegada ni por el judaísmo helenista ni por el cristianismo naciente, la obra creadora de Dios parecía ofrecer a los misioneros un punto de arranque, ante el cual los paganos pudieran mostrarse muy receptivos.

12.- En todo caso debe quedar bien claro que, tanto para la fe de Israel, como para la fe cristiana, es imprescindible establecer una vinculación entre la obra salvadora de Dios que libera a su pueblo de la esclavitud de la opresión y la obra creadora. O dicho de otra forma: para Israel y para los cristianos el Dios Salvador es el Dios Creador y ambas obras están entrañablemente conexas. Cuando Jesús empieza su empeño de evangelización, tiene en su mente este mismo principio. El programa de la predicación y de la praxis del reinado de Dios en la actividad de Jesús dice de inmediato a este principio fundamental de la fe. El Dios del Reino es finalmente el Creador que vuelve por los fueros de su obra. Es decir, en alguna forma, la creación ha sido perjudicada, está interrogada, en ella Dios no se manifiesta como debería manifestarse, Rey y Señor. Por eso cuando llega el momento de plenitud de la historia, entonces Dios resuelve hacerse Rey. Es lo que predica Jesús. El hecho de que Dios venga a hacerse Rey significa que en alguna forma la creación está oscurecida.

13.- Este punto también es importante para la reflexión teológica sobre el tema de la cultura: la creación está oscurecida. En la creación reina el mal, el dolor, la injusticia, el pecado, la muerte. Dios viene a hacerse Rey, predica Jesús. Ese es su evangelio, como lo llama el evangelista Marcos al comienzo de su obra: esa es la Buena Noticia que Él anuncia. Y lo característico de Jesús no es que anuncie que Dios venga a reinar. El tema del reinado de Dios era un tema común en los Profetas, en los Salmos, y luego adquiere una cierta perspectiva sumamente penetrante, escatológica, en la apocalíptica del judaísmo. Lo característico de Jesús no es, pues, que hable de ese tema, sino que afirme que el momento de irrupción del reinado de Dios coincide con su persona, con su palabra en el sentido de que Dios viene a reinar, lo hace significativo obrando. Para Jesús sus obras: curación de enfermos, acercamiento de marginados, consuelo de afligidos, perdón de pecadores -podríamos seguir enumerando diferentes tópicos del evangelio- era la manifestación en signo del reinado de Dios que ya ocurría en el presente y que hacía seguro el futuro. El Reino de Dios anunciado como futuro inminente se realiza en alguna forma en signo en el presente a través y por medio del obrar de Jesús. De esa manera el futuro y el presente se intercompenetran. La novedad escatológica en alguna forma toma ya posesión del tiempo y de la historia. Lo nuevo que Dios va a hacer como nueva creación, la toca y la transforma. El Dios que viene a reinar comienza a reinar ya y elementos de su reinado aparecen significados en el obrar de Jesús.

14.- Para el tratamiento teológico del tema de la creación y de la cultura es imposible prescindir del tema de la soteriología y también, cristianamente hablando, de la escatología. Las consideraciones hechas hasta ahora demuestran eso. Pero detrás de estas consideraciones está también un punto que es trascendentalmente importante para la elaboración de este tema. Es el tema del pecado humano. Eso lo trata el pueblo de Israel fundamentalmente en la historia del Yhavista, pero en alguna forma influye en todas las consideraciones bíblicas. El hombre ha sido pecador y de esa manera, su misión en el mundo, el objetivo para el cual Dios lo creó queda perjudicado e interrogado por su falla frente a Dios, lo cual redunda en su falla frente a los demás y frente al mundo.

15.- Para la Biblia eso es claro; es evidente, sobre todo en el relato yahvista de la creación. Según éste, Adán es el hombre que no tuvo ojos para ver a Dios. Ese fue su pecado. El no tuvo agradecimiento en su corazón y ante el Dios creador respondió con corazón ingrato. Interpretó mal la relación de Dios para con él y así se manifestó pecador. Caín es el hijo de Adán, Caín, entonces, no tuvo ojos para ver a su hermano. Esta es la lógica inexorable: Adán no tuvo ojos para ver a Dios, Caín no tiene ojos para ver a los demás. Eso significa que el pecado fundamental es la ingratitud para con Dios, e inmediatamente redunda de allí la injusticia para con los semejantes.

16.- Cuando la relación de Dios se ve oscurecida, la relación del hombre frente al hombre se ve oscurecida y también la relación del hombre frente al mundo mismo. El que mejor trata el tema de la relación del hombre frente al mundo, a raíz del pecado, es ciertamente San Pablo. Hay dos textos fundamentales sobre el punto: el texto de primera Corintios 1,21 y el texto de Romanos 1,18. Pablo se basa en el Capítulo XIII del libro de la Sabiduría que habla del conocimiento de Dios a partir de las cosas creadas. En Romanos 1,18 el Apóstol caracteriza el momento actual de la predicación cristiana como la Apocalipsis de la justicia de Dios. En el Evangelio Dios manifiesta su justicia, es decir su bondad salvadora, la amnistía total que ofrece al hombre pecador. Como contraposición a esa Apocalipsis nueva de la justicia de Dios, el Apóstol habla de la apocalipsis de su ira, que se ha revelado a través de la historia.

16.- En qué consiste la apocalipsis de la ira de Dios? Dios ha revelado su ira en la historia. Y la ha revelado -dice el Apóstol- contra la impiedad y la injusticia de los hombres. Los hombres han sido impíos. Su relación con Dios es equivocada. Los hombres han sido injustos. Su relación entre sí es equivocada también. Esta impiedad e injusticia de los hombres se funda “en que los hombres mantienen cautiva la verdad injustamente”. La historia humana como historia paradójica del desconocimiento de Dios en el conocimiento de Dios implica, entonces, un injusto cautiverio de la verdad. La verdad del mundo, la verdad del hombre mismo, la verdad de la relación del hombre para con sus semejantes, está determinada por la impiedad del hombre que no fue capaz de relacionarse con Dios. Para Pablo ese punto es fundamental; la idolatría, es decir, la divinación o la apoteosis del cosmos en el mundo pagano en que él vivía, tiene como consecuencia una interpretación equivocada no sólo sobre Dios sino sobre sí mismo y sobre el mundo. todo queda entonces ofuscado y entenebrecido. La historia queda marcada por el pecado humano.

17.- En Primera Corintios hace algo semejante. Allí llama a la creación “la sabiduría de Dios”, en cuanto que Dios al crear manifiesta su sabiduría y deja las huellas de su sabiduría en lo creado. Pues bien, hablando de la creación en esos términos, dice el Apóstol que “puesto que el mundo en la sabiduría de Dios no conoció a Dios por la sabiduría, quiso Dios salvar a los creyentes por la locura de la predicación”. Esta expresión significa que la sabiduría del hombre, su capacidad de entender y de entenderse no estuvo a la altura de la sabiduría que Dios manifestó creando. El mundo entero es una expresión del Dios sabio. El hombre presuntamente no fue capaz de valorar la huella del Dios sabio y chocó contra Él. Por eso, entonces, Dios se desencantó de su sabiduría y escogió el camino de la necedad y de la locura. Ya no se va a manifestar como el Dios sabio de la creación, sino como el Dios loco de la cruz de su Hijo.

18.- Pero que hay algo más en el fondo. El Apóstol dice que el hombre es inexcusable porque pudiendo conocer a Dios y conociéndolo de hecho, como dice en Romanos, no fue capaz de reconocerlo como Dios y darle gracias. Sin embargo, la envergadura del mal va más allá; afecta misteriosamente la creación misma. No solamente los ojos del hombre están ofuscados, sino que en la creación también hay una cierta ofuscación. No es ya del todo clara, no es del todo diciente, no es del todo significativa. El Capítulo 8 de la Carta a los Romanos dice que la creación gime con dolores de parto esperando la manifestación de los hijos de Dios. Por eso, este punto es un elemento clave para iluminar en alguna forma el eterno problema de la teodicea: El mal del mundo para el hombre siempre ha sido el gran interrogante que redunda para muchos en ateísmo. ¿Cómo afirmar la existencia de un Creador bueno si hay tanto sufrimiento, tanto mal? Si uno profundiza más, puede darse cuenta de que el mal sufre el mundo no es solamente el que el hombre causa o el que el hombre padece, sino que hay como una estructura de dolor que afecta toda la creación.

19.- En el libro de Isaías se nota que el autor sagrado siente también una cierta congoja al mirar la creación presente, no solamente la creación humana, sino toda la creación presente, cuando en su perspectiva escatológica el profeta ve al cabrito pastando con el león y al niño hurgando la caverna del áspid. La creación será algo distinto. Esto significa que la comprensión teológica profunda de la creación solamente la da el futuro. Es decir, la nueva creación de Dios. Si esto es así, entonces nosotros tal vez podemos iluminar de un pincelazo el problema eterno de la teodicea, es decir, el escándalo del hombre frente a una creación de Dios que no se asevera lo suficientemente buena, a pesar de que el Creador así la hizo. Para nosotros el Dios del principio es el Dios del final. El Dios de la creación es el Dios de la nueva creación. El proyecto creador de Dios no lo podemos medir por lo que constatamos en esta creación sino por lo que esperamos del futuro.

20.- Para la fe cristiana en su origen, en sus albores iniciales, en su primera expresión entusiasmada, no fue la Encarnación lo determinante sino la Resurrección. La Encarnación fue una profundización en el misterio de Jesús a partir de las instituciones de la vida de Él y de las consecuencias que la Resurrección implicaba. Pero para el origen mismo de la fe en los momentos iniciales de nuestra confesión lo determinante fue el hecho de que Dios sacó de la muerte a su Hijo, que Dios lo resucitó. Jesús en su anuncio y en su praxis, llegó a ser la víctima de toda injusticia y de todo el mal de este mundo, Dios lo reivindicó y le hizo justicia resucitándolo. Dios acreditó la verdad del mensaje y de la praxis de Jesús en su obra de Resurrección. Dios la hizo cierta. Dios dijo que eso era obra suya, que en eso estaba Él mismo comprometido.

21.- La Resurrección de Jesús en la fe cristiana naciente hay que mirarla en el contexto interno de la vida de Jesús, es decir, en su predicación y praxis del Reino. En la predicación y la praxis del Reinado de Dios observamos una profunda incidencia terrena de la salvación. El anuncio del Reino y la praxis del Reino en Jesús tienen que ver con este mundo, tocan este mundo. Por eso el oprimido queda liberado, el que está sometido al yugo de lo demoníaco, o de la enfermedad, o del dolor, o de la angustia, o de la muerte, o de la miseria, ese es tocado en su ser y reivindicado. La salvación que Jesús anuncia con el mensaje del Reino y que Jesús realiza en signo con sus obras, revelan la incidencia terrena de la salvación. Pues bien, en la Resurrección del Crucificado ocurre exactamente lo mismo.

Conclusión de esta síntesis: La Resurrección es la afirmación definitiva de Dios en su Hijo, de la nueva realidad de la creación. Dios la toma para sí y la acepta y le da dimensión definitiva y escatológica. Las expresiones de la fe cristiana primitiva en este campo llegan hasta el paroxismo en el recuento de la tumba vacía. Por qué, cuando las mujeres van al sepulcro del Crucificado no hallan el cadáver de Jesús? Porque finalmente no sólo el Resucitado es el mismo que murió en la Cruz, sino sobre todo, porque Dios Salvador es el Dios creador y en la Resurrección como obra fundamental y definitiva de salvación, el Creador sale por los fueros originales de su obra, afirma lo suyo, Dios toma lo suyo. En la Resurrección de Jesús el Dios Creador es afirmado como Salvador , y finalmente, la nueva creación irrumpe en la antigua. Dios realmente hace su obra definitiva y aquí nace una interrelación Religión-Cultura.

Teniendo en cuenta esta serie de premisas de corte teológico, entonces, ante la cuestión de la cultura y la creación, qué podríamos decir? Cuando el creyente en Jesucristo afronta las realidades del mundo, las tiene que mirar desde la perspectiva del Reinado de Dios. El Reinado de Dios significa la reivindicación que Dios hace sobre su creación, precisamente en bien del hombre mismo. El cristianismo primitivo captó desde el comienzo esto. Ante el mundo helenista, con una cultura nueva, con nuevas valoraciones de las cosas, el cristianismo fue muy receptivo, sumamente abierto. Eso nos lo demuestra hasta la saciedad la investigación bíblica moderna. Por ejemplo, en las Cartas de la Cautividad Deuteropaulinas, se utilizan los elencos de virtudes familiares del mundo histórico de la época. El cristianismo naciente acepta las virtudes y estigmatiza los vicios como se hacía en el ambiente de la cultura popular estoica de la época. Y no solamente en ese campo el cristianismo fue abierto; en muchos otros campos también la apertura del cristianismo ante el mundo helenista fue tan grande que aún tuvo incidencia en las expresiones mismas de la cristología.

Pablo resume todo esto en una frase muy incisiva de su primera carta a los Tesalonicenses. Él le habla a una comunidad mezclada de judíos y paganos y les dice: “examinad todas las cosas pero quedaos con lo bueno” (I,Tes.5,21). Los cristianos están llamados a retener los valores de la cultura helenista de la época. Algo semejante hace el Apóstol al comienzo de su paréntesis en la Carta a los Romanos, Capítulo 12, cuando les dice a los hebreos cómo debe actuar un cristiano. El cristiano debe ofrecerse a Dios como un sacrificio puro, como una víctima santa y esto se hace en dos niveles. En primer lugar, dejándose llevar por la realidad de Jesucristo. Esto le permite al creyente conocer cuál es la voluntad de Dios, lo bueno, lo agradable, lo perfecto. Es decir, cuando uno no se amolda al mal de este mundo y se deja determinar por aquello que Jesucristo implica para la vida, tiene juicio de discernimiento en el mundo. Uno sabe, entonces, discernir, juzgar y actuar.

Actualmente hay una coyuntura cultural importante para el cristianismo, porque Estamos el mundo cambia a pasos agigantados y cada vez con mas aceleración. . La Iglesia no ha tenido capacidad de acercarse adecuadamente a la nueva imagen del mundo que proveen las ciencias.


Según un inventario de las creencias hoy en día publicado en 1990 ,muestra estas cifras ( en millones de personas) dato que que no reflejan esencialmente la calidad de la membrecía a ninguna de las creencias religiosas mencionadas:
a) cristianismo católico (944)
b) cristianismo no católico (889)
c) islamismo (954),
d) hinduismo (749)
e) confusionismo (351)
f) budismo (341)
g) hebreos (20)
h) sikh (17)
i) animistas (816)
j) ateos, agnósticos,indiferentes ( 270)


Múltiples factores, entre ellos: progreso científico tecnológico, auge y caída de sistemas e ideologías, modernidad y crisis tanto de esta como de la así llamada postmodernidad, frustraciones y pérdida de sentido, aturdimiento ante el salto informático, autosuficiencia consumística, han conducido a un movimiento contradictorio: de una parte, alejamiento de Dios y de la otra, nostalgia de lo divino o de lo religioso en general. Rechazos hasta la persecución, acompañados o seguidos de inclinaciones y manifestaciones religiosas, unas claras y auténticas, otras oscuras, menos genuinas hasta aberrantes. Porque al lado de lo que pudiera denominarse una verdadera “religatio” (reconocimiento del Dios personal, de la perspectiva ética y de un horizonte supra o transtemporal), se dan también la acomodación pragmática sincrética, el “self service” religioso estilo “new age”, hasta la multiforme brujería.


EL PROBLEMA DE LA MENTE


Durante casi tres milenios en que hay registros históricos para conocer lo que se ha pensado sobre el problema de la mente, sobresalen varios autores cuyas ideas dan forma al debate moderno que hoy ocupa a filósofos, psicólogos, lingüistas, neurofisiólogos y neuroanatomistas. Para facilitar el acceso a las principales ideas en torno al problema, esta sección se ha organizado en siete categorías, y - a la vez- en cada una de ellas, se mencionan los aportes teóricos más significativos que enriquecen el debate. Se prescinde (salvo si son muy relevantes) de las ideas externadas antes de 1980, para ofrecer una visión más actualizada. Debe advertirse que el estudio de la Mente (para algunos basta estudiar el Cerebro) recién se inicia.


MONISMO O DUALISMO .- El debate sobre el monismo o el dualismo en el campo de la relación cuerpo/mente, se puede dividir en cinco grandes problemas:

1) Problema de la sustancia (o Problema Cuerpo/Mente)

Desde la antigüedad el debate es si hay una sola sustancia de la cuál están conformadas las cosas (entre ellas nosotros), o si hay más que una. Al respecto hay cuatro escuelas que aún hoy subsisten:

1) Materialismo: Hay una sola sustancia: la física y los estados mentales son apenas diferentes formas del estado físico.
2) Idealismo: Hay una sola sustancia: la mental y lo que calificamos de materia son apenas impresiones captadas por nuestros sentidos.
3) Dualismo: En el ser humano coexisten dos tipos de sustancia: la física y la mental, sirviendo la segunda para elaborar y organizar el pensamiento acerca de la primera.
4) Funcionalismo: Es una posición intermedia entre el materialismo y el dualismo. De frente al primero afirma que se deben homologar los estados físicos de la materia con los estados mentales y de cara al dualismo señala que la mente no existe independientemente del cuerpo.

Criterios Representativos:

• Block: Cualquier definición funcional de los estados de la mente (dolor, angustia, felicidad, por ejemplo) no debe asociarse con extrema liberalidad a criaturas (naturales o artificiales) que en realidad no lo tienen; ni tampoco de forma chauvinista señalando que no las poseen más que las criaturas superiores. Para evitar tal confusión debe trabajarse en una clasificación de tipos de funcionalismo y optar por el empirismo psicológico (se requiere mas trabajo experimental) para lograr una salida al problema.
• Chomsky: El problema reside en que la ciencia no ha definido aún la esencia del cuerpo con claridad; y si es necesario hacer una elección entre el conocimiento de los estados mentales y el conocimiento del cuerpo físico, se requiere acomodarse al segundo, porque - en última instancia- el conocimiento final del cuerpo está directamente relacionado por las teorías de como opera la mente.
• Churchland: El argumento de la “instanciación múltiple” no debe ser restrictivo sino poder aplicarse, por ejemplo, a la teoría de la termodinámica (que en la practica ha sido reducida a un comportamiento mecánico de las moléculas predicho por la estadística). Así, el calor observado puede reducirse a otro estado : energía cinética y esta a su vez a otro estado. Es decir, se debe llegar a conocer cada vez con más precisión cual es la menor “reacción” posible de identificar en los niveles más básicos de la materia.
• Kripke: La ciencia es la que descubre la esencia verdadera de las cosas; así al descubrir que la luminosidad es el resultado de una descarga eléctrica se sabe que su esencia es la misma. Alternativamente si su esencia fuese diferente ambas serían cosas distintas. Respecto a la esencia de la mente esta puede ser distinta a la del cuerpo y mientras no se descubra que no es así, el dualismo es correcto como enfoque.
• Place: Dos cosas pueden ser idénticas entre si, aunque sus definiciones no lo sean. Ejemplo: la luminosidad de un bombillo es diferente a la descarga eléctrica, pero en el fondo son idénticas. Respecto al pensamiento “cuerpo” y al pensamiento “mente” hay definiciones diferentes; pero, sin embargo es posible afirmar que ambos (cuerpo y mente) son idénticos.
• Putnan: La naturaleza de los estados mentales es compatible con el funcionamiento de una “máquina de Turing” (una computadora abstracta), que puede ser “inicializada” (o “instanciada”) en diferentes tipos de “hardware” (chips de silicón, o cuerpo humano). Por lo tanto (entre otras consecuencias) el dolor no es algo que pueda asociarse al concepto de “dolor psicológico humano”, sino ser “instanciado” y experimentado por diversas criaturas naturales o artificiales. De lo que se desprende que no hay que reducir el estado psicológico del dolor, a un único tipo de estado neuropsicológico, propio del ser humano o de los seres vivos.
• Ryle: El dualismo introduce un error categorial; por ejemplo, es posible hablar de los estados mentales (dolor, tristeza, etc.) y de los comportamientos humanos al respecto, pero es erróneo creer que estos existan separados como tales.

Discusión: Con independencia de cuál escuela lleve la razón, el problema de la dualidad se complica cuando el concepto de materia cambia. En la física clásica la materia se entiende organizada en niveles y por más pequeña que sea la masa, en todos los casos la materia en cuantificable, porque se presenta en “unidades discretas”. La física cuántica, sin embargo, introduce el concepto de la discontinuidad, por lo que la materia se reduce a fluctuaciones estadísticas solo predecibles por la matemática, que - para la mayoría - es un lenguaje y no una entidad física; y que para dar cuenta del mundo se asume como una “continuidad matemática”. Por otra parte queda el problema adicional del cerebro (en el que supuestamente se llevan a cabo los procesos mentales) porque no se conoce cual sea el nivel más básico de sus estructuras neuronales, pero hay que asumir -a priori- que funciona de la manera como lo hace, porque se corresponde con la esencia de lo que capta y analiza para pasar luego a hacer inferencias lógicas.

2) Problema de la Causación Mental:

En el primer problema Aristóteles fue el creador del funcionalismo y destacaron los filósofos Hume, Mills y Descartes en una aproximación dualista con matices variables. En este segundo problema, que trata de como se producen los poderes causales de los estados mentales (independientemente de su naturaleza), cabe mencionar a Platón, Descartes, Malebranche, Leibntz, Kant y Husley, quienes sostienen - mutatis mutandis - una posición dualista:

• Descartes: La mente y el cuerpo interactúan de manera casual y este efecto se lleva a cabo en la “glándula pineal”.
• Haxley: Los estados mentales no tienen poderes de causación, no obstante que existan y la conciencia es un epifenómeno de los estados del cerebro.
• Kant: El espacio y el tiempo no son objetos en si, sino condiciones subjetivas de nuestra intuición sensible por medio de nuestra percepción. Por lo tanto solo podemos conocer la apariencia de las cosas por medio de la impresión que nos causan (ipifenómenos); de manera que las cosas en si (“noumenon”) están escondidas para nosotros. Ahora bien para el conocimiento de lo aparente, los epifenómenos pueden parecernos como causados por estados cerebrales o por situaciones diversas, para el caso lo mismo. Y en lo que toca a nuestra reacción o comportamiento respecto a esos epifenómenos también pueden ser interpretados como causados por la libre voluntad de las cosas.
• Leibntz: Dios estableció una armonía en el que cada objeto reacciona con otro en la forma apropiada en el momento apropiado, por lo que el diseño de la mano por ejemplo, está dado por esas reglas preestablecidas, de manera que al alzar la mano espontáneamente puede dar la impresión (ilusión) de que es un acto causado por un deseo específico de la mente.
• Fodor: Hay dos formas para describir los eventos mentales, pero para ser causalmente eficaz un evento debe estar situado dentro de las leyes de la causalidad. Pero esas leyes no pertenecen al ámbito de la física, y mas bien difieren de ella, porque las leyes de la física no requieren de condiciones básicas en lo niveles más bajos; mientras que estas otras si lo necesitan y son - ciertamente - genuinas leyes causales y sus conexiones pueden ser apropiadamente descritas en lenguaje mental.
• Davidson: Hay dos maneras de describir los actos mentales: en lenguaje físico o en lenguaje mental. En el primero la descripción física permite la aplicación de las leyes de la causalidad; no ocurre así con el lenguaje mental, pues aquí la descripción está condicionada por el lenguaje físico, lo que lleva a otra situación epifenomenológica (o monología de lo causal).



Discusión: Los últimos dos autores contemporáneos nos introducen al tema de los lenguajes de la mente y a los de las leyes de la mente - ambos muy interrelacionados - porque de aquí se asume que el mundo es conocido como lo es en razón de la estructura cerebral, el lenguaje cerebral y los lenguajes de la mente así como por las imágenes del mundo que procesa.

3) Problema de las Imágenes Mentales:

Si bien en los dos problemas anteriores hay diversos puntos de vista, en este tercer problema se puede señalar que en la antigüedad - y casi hasta nuestros días - había consenso acerca de lo que son las imágenes mentales con las que el ser humano “aprehende” en su mente, el mundo que le rodea.
• Tomás de Aquino, Hobbes y Descartes: solo las criaturas con cuerpo pueden tener imágenes mentales (Hobbes y Hume estiman además que las imágenes son igual que sensaciones sensitivas pero degradadas), James: Las imágenes tienen una base fisiológica y los procesos que las sostienen son idénticos a los que gobiernan la percepción. Külpe: no todos los actos mentales son factibles de ser reducidos a máquinas (los casos de espera o deseo, por ejemplo).
• Dennett: Se apoya en algunas de las ideas señaladas y especifica que no hay nada como “retratos de cosas” en el cerebro; ya que por una parte las imágenes guardan relación con algunas de las propiedades físicas de los objetos que representan y, porque las imágenes son incompletas. Aboga, entonces, por la necesidad de introducir más trabajo experimental para resolver el problema. Por ejemplo: Aunque un tigre real tiene un número determinado de rayas en su piel, imaginado (con los ojos cerrados) el tigre resultante es una figura vaga con pocas o ninguna raya. A partir de las ideas de Dennett se inicia un fuerte trabajo en psicología cognitiva para tratar de establecer si existen o no las imágenes mentales visuales. Por ejemplo, hay dos experimentos clásicos:
• Roger Shejard y Jacqueline Mitzler: Reportan un experimento en el que se suministra a los sujetos dibujos de varias figuras geométricas idénticas, pero con diferentes ángulos de rotación. Hallazgo: A mayor rotación, más dificultad de identificación de la figura original. Explicación: Los seres humanos forman imágenes mentales de esas figuras y pueden rotar la imagen mental pero solo hasta cierto grado.
• Kozilyn: Reporta los resultados obtenidos al someter a sujetos a “escanear” mentalmente un mapa y localizar un punto determinado (un lago) y luego a señalar en la imagen mental la localización de otro lago. Hallazgo: A mayor distancia entre los dos lagos, mayor el tiempo requerido para la respuesta. Explicación: Hay limitaciones espaciales en la dimensión de los objetos que pueden ser imaginados.

Discusión: Las críticas externadas por el psicólogo Phylyzhyn a ambos experimentos sirven para poner de relieve dos puntos: a) Que los períodos reportados no corresponden en realidad con el proceso de imaginación dada la interferencia (no medible) del inconsciente; b) El tipo de instrucciones dadas a los sujetos hace dudar de los hallazgos; c) No es posible separar el tiempo verdadero empleado por los sujetos para dar sus respuestas y las características (medidas en tiempo) que gobiernan los actos de imaginar ya que se supone son intrínsecas a la organización de esta facultad mental.-

4) Problema del ¿Asociacionismo o Coneccionismo?

Asociacionismo (Antecedentes): Primero Hobbes y luego mas sistemáticamente Locke desarrollaron la doctrina del Asociacionismo, que tiene que ver con la cadena de pensamientos, o los pensamientos en cadena .
• Locke: Algunas ideas son asociadas a otras ideas porque hay una conexión natural entre ellas; mientras otras ideas llegan a ser asociadas por los gustos, la educación, las preferencias, la cultura, incluso algunas otras ideas se asocian entre si por razones de patología (miedo, temores).

• Hume: Desarrolla más el concepto y llega a clasificar las conexiones por razones de: recuerdos, contigüedad, causas y efectos.
• James: Detrás de cada cadena de relaciones hay un principio ordenador de éstas y la cadena tiene una base fisiológica (neural).
• Coneccionismo (antecedentes): Es una rama reciente que agrupa investigadores en ciencias de la computación, psicólogos y neurólogos. Si bien para algunos es una rama desligada de las teorías asociacionistas, para otros no es más que un asociacionismo armado de “tecnología de punta”. En sus escritos - sin embargo - hay razones para pensar que a veces se acercan y en otros se distancian.
• Debate: En la actualidad el debate se da entre los seguidores de una versión especial del coneccionismo, mas conocida como P.D.P., que corresponde a Paralell Distributing Process (o proceso de distribución paralela) que hace semejar el cerebro a una computadora que trabaja según este principio ordenador básico. Sus máximos representantes son: Mac Clelland, Rumelhart y Hinton. En el polo opuesto se encuentran Fodor y Pylyzhym y en una posición intermedia Smolensky.
• Grupo P.D.P.: Propugnan un modelo de memoria en el que las propiedades se asocian con unidades neurales que se excitan mutuamente como procesadores y es gobernada por un algoritmo general. Las unidades se tratan como entidades autónomas (atómicas), no interrelacionadas previamente, distribuidas en el tejido neural y con conexiones aleatorias. El acento está puesto en el “hardware”.
• Fodor y Pylyshyn: Defienden el concepto que el cerebro funciona como una computadora clásica, esto es una serie de operaciones formales sobre un complejo de objetos sintácticos, que obedecen a un lenguaje estructurado. Este modelo permite, según sus defensores mantener el concepto de “productividad lingüística” (la habilidad para crear y entender procesos y fases secuenciales) de “sistematicidad alternativa” (para hacer inferencias de A respecto a B y viceversa): de “composicionalidad” (el significado de una fase como resultado de la combinación de cada una de sus partes) y de “coherencia inferencial” (por ejemplo P & Q de P). El acento está puesto en el “software”.
• Smolensky: En el debate entre los dos primeros modelos señala que el problema no reside en dar importancia al “hardware”, o al “software”, sino en postular que la dureza de las operaciones mentales (hardware), está condicionada por la suavidad de estas (software). Postula además que la mente es una máquina estadística sensible que opera sobre una estructura numérico-sensitiva a base de sensaciones.
• Minsky y Papert: A juicio de ambos las propiedades matemáticas del modelo PDP no han sido totalmente exploradas y aún para el modelo de red paralelo más sencillo, hay grandes dificultades para entenderlo; pero ello no es razón para abandonar la búsqueda.

Discusión: A principios de la década de los setenta se inicia el nacimiento de una nueva ciencia, o “para algunos” de una nueva forma de dar cuenta de los problemas de la forma de adquirir y procesar el conocimiento: la Ciencia Cognitiva (o Cognoscitiva) en la cual el debate incluye a representantes de varias disciplinas y se ha fundamentado en la discusión sobre la arquitectura de la computadora biológica (cerebro + mente). Así para los asociacionistas las relaciones son causales y para los conectivistas son programadas y además con base en un “lenguaje del pensamiento” (que sería una combinación sintáctico - semántica).

Para un modelo el conocimiento está gobernado por el “hardware”: reglas de la lógica, reglas del lenguaje; para el otro domina el “software”: basta un formalismo (tipo inteligencia artificial que gobierna a los robots) para adquirir conocimiento.

Visto con neutralidad se trata de un dilema siempre presente en el conocimiento de la mente, desde que se conoce la división de funciones asignadas al hemisferio izquierdo (dominado por relaciones lógicas) y el derecho (dominado por relaciones afectivas).

A criterio de Smolensky, cuando se analiza la “Máquina Cognitiva” a un nivel bajo refleja su dureza; cuando lo hace a un nivel muy alto, refleja su suavidad (Software). Pero ambas están interrelacionadas y determinadas no como en las computadoras elementales: el (“hardware” condiciona el “software” que corre), sino al contrario.

5) Problema de las Ideas Innatas:

El problema de las ideas innatas es uno de los más conocidos en la historia del debate sobre la pregunta: ¿Cómo se adquiere el conocimiento?

Criterios Representativos:

• Platón: En un pasaje de los “Diálogos”, Sócrates demuestra a su alumno Meno que aun un joven sin educación tiene un conocimiento innato sobre geometría y que la experiencia es la oportunidad para obtener el conocimiento acerca de geometría y sobre todas las cosas de la naturaleza.
• Descartes: Las ideas no se encuentran alrededor del ser humano en espera de ser aprendidas; pero si existe una capacidad innata para generar ideas. Así no nacemos con conocimientos de geometría, pero si con la habilidad del raciocinio innato (el poder de pensar) que es el que permite el conocimiento de la geometría y de todas las cosas.
• Locke: Si nuestras ideas son generadas por el uso de la razón (Descartes) y si por la razón se entiende razonamiento deductivo, entonces el conocimiento vendrá de la experiencia, ya que los mecanismos de deducción pura no permiten inferir ideas de la nada.
• Piaget: Parte de una posición intermedia entre Descartes y Locke; rechaza que las ideas son innatas y que estas sean el punto de percepción solo. Postula que nuestras mentes tienen estructuras cognitivas (o cognoscitivas) que organizan la experiencia; pero rechaza que estas estructuras sean el resultado de una capacidad biológica innata; sino que el conocimiento es posible gracias a un proceso de desarrollo escalonado que se “catapulta” a si mismo por medio de la educación programada.
• Chomsky: Postula la existencia de un lenguaje universal que tiene su asiento en un hipotético órgano generador de unas reglas gramaticales universales sintáctico-semánticas que estructuran el pensamiento. Así la educación no hace sino “recordar” lo que subyace en el inconsciente.
• Fodor: Se opone a la teoría del conocimiento que se catapulta a si mismo (llamada teoría “bootstrap”, traducida en física cuántica como "pararse sobre los talones para autocatapultarse") de Piaget, porque para aprender un conocimiento es necesario tener - de previo- un lenguaje de la mente - que es tan rico, como el lenguaje natural y se corresponde con este.

Discusión: La disputa clásica entre Piaget y Chomsky (finales) de los 70 sobre este tema, hoy día subsiste, pero además hay otros criterios de tipo complementario que han aflorado para traer nuevas luces sobre la materia. Al viejo debate reseñado en la parte anterior, se une hoy un nuevo debate:

Por ejemplo la obra de Flanagan: “The Science of the Mind”, rescata nuevas ideas sobre la emergencia de la conciencia; Searle, en “The Rediscovery of the Mind”, trata de volver a la polémica sobre la mente a cauces más naturales, acusando a mucho investigador de prestarse a generar “basura”. Por su parte Jackendoff amplia el concepto de “lenguaje de la mente” (en singular como propuso Fodor) a un concepto más plural en su obra “Languages of the Mind” y llama la atención acerca de la necesidad de no confundir las tesis filosóficas y las tesis psicológicas sobre la mente, porque ambas aproximaciones son - de por si - excluyentes y postula en consecuencia una nueva propuesta: la psicología constructivista. Lo importante es que de los debates y pese a las confusiones pasajeras, como en toda disciplina humana, va emergiendo una idea nueva: El Universo es como es, porque nuestra mente lo percibe así y está adaptada para recibirlo así.


Al tratar los problemas de la percepción surge una interrogante: ¿esta percepción es obra del “hardware”, o del “software”?, si se adopta la tesis materialista, o de la conciencia, si se adopta la tesis naturalista.

Para contestar la pregunta es necesario profundizar más en las teorías y en su origen histórico, que determinan, - con fuerza - sus planteamientos distintivos y que para simplificar dividiremos en dos: a) Los modelos materialistas y b) las refutaciones naturalistas.

A) Los Modelos Materialistas:

De acuerdo con estos modelos que no aceptan de ninguna manera la existencia de la “conciencia” la capacidad mental no está determinada por el tamaño del cerebro (que comprendería no solo la masa encefálica, sino todos los demás elementos interconectados), sino por los “programas” y por los “lenguajes”. En su acepción original (debida al cibernético Norman Wiener en 1954) es la información (cuyo comportamiento es estadístico) lo que interesa conocer. Posteriormente los estudios buscan descifrar de que manera funcionan los procesos de memoria (corta y larga). Actualmente el interés se centra en las formas en que la información es procesada, almacenada y entrelazada por el cerebro.

El cerebro tiene la capacidad de captar el espacio - tiempo - estados de la materia, bajo una organización propia, inherente; pero con diferentes grados de independencia para cada uno de los rangos de posibilidades. Estos rangos de posibilidades pueden ser discretos (binarios o de “n” posibilidades); o bien continuos (analógicos y estadísticos). En esencia este espacio puede ser imaginado como un espacio de hipótesis de los diferentes estados (o entornos) del mundo. Así, cuando se recibe un estimulo (visual, auditivo, calórico, presión, etc.) éste viene cargado de información para que el mecanismo responda con otra impresión almacenada, que sirve para que se forme una representación mental del estímulo. Esta representación mental permite codificar el entorno.

La impresión mental sería, entonces una combinación organizada de espacios de distinciones para uso del cerebro. Sobre este aspecto particular hay varias desviaciones del modelo: Algunos creen que hay una “intencionalidad” de fondo detrás de estos procesos (John Searle); o “mecanismos trascendentes” (Jerry Fodor), o un “lenguaje universal subyacente” (Noam Chomsky).

Un esquema muy representativo de la escuela de psicología materialista (llamada también fisicalista) debido al investigador Ray Jackendoff de la Universidad Brandeis, plantea que los límites físicos dentro de los cuales funciona la mente puede representarse con este modelo:

Modelo de Jackendoff: La información llega a la mente en formas diferentes:

a) Arreglos espaciales luminosos captados por los receptores retinianos; arreglos temporales de frecuencias de sonidos captados por los mecanismos auditivos; arreglos espaciales de contorno físico provistos por los sensores de la piel y otras combinaciones.

b) La información que sale de la mente afecta primariamente los músculos, dado que es por medio del nacimiento (incluido el tracto vocal en el caso del lenguaje), o bien de la segregación hormonal (en el caso de las glándulas), que el ser humano reacciona respecto del contorno.

c) Ni la información que llega ni la que sale explican el mundo en términos de objetos y sus movimiento o de nuestras relaciones y acciones respecto de estos, sino que esta modalidad de percepción que desemboca en nuestro conocimiento y formulación de ideas están codificados en un “formato central”, que no es único sino subdividido a su vez.

d) Todas las diferentes clases y formas de información interactúan mediante mecanismos mentales que sirven para trasladar o para transformar información desde fuera hacia el “formato central”, de modo que sea posible percibir y entender el contorno ya decodificado. De la misma manera el “formato central” permite trasladar al exterior la información procesada para ser utilizada de acuerdo con nuestro conocimiento del entorno.

Asociacionista Vs. Modelos Conexionistas:

El tipo de conexiones que se dan en las estructuras cerebrales ha originado dos clases de explicaciones materialistas. Para algunos psicólogos fisicalistas el modelo es de tipo conectivista; es decir hay sustratos “discretos” especialmente diseñados a niveles neuronales (John MacClelland); para otros el modelo es de tipo asociativo (Patricia Churchland); es decir el sustrato está o bien condicionado por el azar, o bien tiene un condicionamiento de carácter analógico-estadístico.

En todas las variantes de estos modelos, sin embargo, se toma como regla que donde quiera que exista una constancia psicológica, debe haber una representación mental que la codifica. Así, por ejemplo en el caso del lenguaje una “p”, no importa donde esté escrita, o donde se la escuche, o donde se sitúe en una frase, siempre es percibida como “p”. Esto sucede así porque se supone hay una fonología segmentada que encadena, sonidos, sílabas, palabras. En el caso del lenguaje existen además otras modalidades de representación mental, cada una con sus características. Estas categorías son, por ejemplo: la entonación, la estructura sintáctica, las características del “fraseo”; y además el “significado”, con el cuál se corresponden categorías de “conceptos”.

Lo que se ha señalado para el caso del lenguaje se repite - dentro de otros parámetros - para la captación y procesamiento de imágenes, sonidos, presiones y sensaciones táctiles, olores, etc. Y además todo ello tiene niveles de coordinación e interacción, que Jerry Fodor denomina “modularidad mental” y Noam Chomsky “divisiones en órganos mentales”, pero, en ambos casos en un esquema de representación tridimensional.

En consecuencia para estos modelos la investigación debe centrarse en estos aspectos:
1) Cómo coexisten diferentes formas de información;
2) Cómo podemos diferenciarlas;
3) Cuáles son sus características básicas distintivas;
4) Porqué usamos unas sí y otras no;
5) Cómo se llevan a cabo los traslados de información en términos de espacio y de tiempo;
6) Cuáles son los principios de combinación que coexisten en la mente para permitir la interacción de los diversos lenguajes;
7) En el caso del lenguaje, cómo se hace el paso entre al estímulo y los diferentes niveles de estructuras conceptuales, sintácticas, semánticas, y fonológicas.

Modelos Matemáticos: ¿Un lenguaje secundario? :

Otra vertiente de las explicaciones del funcionamiento de la mente también materialista o fisicalista, se origina en las explicaciones respecto a la sede en la que se localiza la inteligencia. Así John Van Neumann había predicho (1958) que las matemáticas son un lenguaje secundario, montado sobre el lenguaje biológico primario neuronal utilizado por el sistema nervioso central.

Esta idea encuentra asidero en los modelos recientes que efectivamente señalan que la mente tiene varios lenguajes, pero ninguno es intrínsecamente matemático; en consecuencia se ha planteado (Jackendoff) que los lenguajes matemáticos son desprendimientos lógicos de diversos ajustes del funcionamiento de la mente, por ejemplo:
1) La aritmética es una idealización de la lógica para tratar montos, cantidades, unidades;
2) La geometría es una idealización de la lógica de la representación tridimensional, que codifica mente concepción del espacio;
3) La lógica misma que se aplica a los lenguajes matemáticos, se asienta en la intuición que se refiere a los principios de inferencia (Mac Namara) y estos principios, (de carácter computacional), permiten deducir nuevos conceptos estructurales de viejos conceptos.

Modelos Constructivistas: ¿La solución? :

En los últimos años se ha ido abriendo paso las explicaciones de tipo “constructivista”. Esta explicación deja por fuera la idea clásica de que el cerebro funciona con base en esquemas matemáticos y mas bien ha originado muchas explicaciones que sitúan la inteligencia en la capacidad de interpretación del conocimiento espacio - temporal (Gruber, Lakoff), o bien que las nociones lógicas son abstracciones de la conceptualización de las fuerzas dinámicas interactuando espacialmente (Piaget).

En el caso del comportamiento social se ha postulado (Seyfert) que en el transfondo de la inteligencia humana se encuentra la capacidad de interrelacionar los aspectos sociales trascendiendo los aspectos físicos, y por lo tanto originado en el proceso evolutivo ascendente, órganos mentales adaptados para diversas necesidades (Gould). Al punto que (Gardner) plantea que hay varios tipos de inteligencia y no una sola como se creía; y por la otra parte, la inteligencia evolucionando sería la causa del progreso en función de mas y mas capacidad para procesar ideas cada vez mas abstractas e idealizadas (Jackendoff); así como adaptándose para apreciar un entorno que tenga sentido lógico.

La Esencia de las Cosas o de la Realidad del Universo:

Para los materialistas en este punto sobre la experiencia humana acerca de la realidad es importante tomar en consideración la propuesta que formula Jackendoff, pues se relaciona directamente con el problema acerca de: ¿cuál es la realidad del Universo?, y del problema: ¿por qué el Universo lo apreciamos como lo apreciamos? Dice Jackendoff: la solución por la vía filosófica es engañosa porque postula que el ser humano no puede conocer la esencia de las cosas, dado que nuestro marco de referencia es limitado Y da tres ejemplos que aclaran su propuesta:

Caso 1: Un ser humano no puede percibir el mundo tal como es (representación inadecuada o minusvalorada). Explicación: no percibimos la luz ultravioleta o la luz infrarroja, pero la razón es una selectividad física previa que impide tal percepción.
Caso 2: Un ser humano externo a un fenómeno que ocurre a una persona observa aspectos que la segunda no percibe. Explicación: se trata de ilusiones debidas a la utilización de técnicas conputacionales inconscientes que permiten arribar a conclusiones que no son necesariamente reales.
Caso 3: Una persona tiene estímulos que producen una representación que - en nada - se relaciona con el carácter real de lo experimentado. Explicación: se trata de construcciones mentales. En todos los casos la mente se “adapta” al entorno mediante un proceso de complemento (de tipo “amodal”). Por ejemplo el lenguaje es una construcción de esta naturaleza “amodal” e igualmente sucede con nuestra representación del mundo tal y como lo percibimos.

Comentario: De lo anterior se deduce que la realidad es simplemente una construcción mental (constructivismo psicológico) originada por la forma en que percibimos - construimos - y reaccionamos ante el entorno; que nos permite a los seres humanos adaptarnos al entorno para tener viabilidad ecológica. De estas ideas fisicalistas han nacido los modelos que semejan el cerebro-mente (o más propiamente el cerebro, sin tomar en consideración el segundo concepto) a una computadora.

El Cerebro: ¿Una computadora? :
La respuesta a esta pregunta se ha intentado abordarla desde cuatro perspectivas distintas de modelos.

a) Modelos Computacionales:
Los diversos modelos computacionales imaginados para explicar el funcionamiento del cerebro se pueden clasificar a su vez en 4 tipos, a saber:

1.-Modelos Clásicos: Dentro de esta característica se encuentran cinco explicaciones:
a) Computación tipo Türing (Wiener, 1925; Von Newman, 1945);
b) Regla de la Formulación Explícita (Winston, 1935);
c) A.C.T. (Anderson, 1938);
d) Gramático - Universal (asentado en el órgano del lenguaje) (Chamsky, 1968);
e) Metalenguaje Sintáctico - Semántico (Fodor, 1985)

Características: Para estos modelos el conocimiento y el aprendizaje se efectúa mediante la formulación de reglas explícitas (proporciones, producciones) presentes en generalizaciones de tipo innato o primitivo, que sirven para hacer comparaciones de cosas particulares, que sirven luego para formular reglas generales hipotéticas.

2.-Modelos de Distribución Paralela:

Dentro de esta propuesta se encuentran cuatro modelos:
a) Regla de Hebb (Hebb, 1949), que luego se modifica por varios autores para originar las reglas tipo “delta” y la regla del “aprendizaje completitivo” y desemboca en un modelo “paralelo estocástico” (Boltzman, 1940; Ballard, 1986);
b) Tipo asociativo (C. Hinton / Anderson, 1981);
c) Patrón asociativo de Memoria Paralela Distributiva o P.D.P. (Mac Clelland / Rumelhart / Hinton, 1986)
d) Lenguajes Múltiples (Jackendoff, 1991), colocado en la línea “constructivista” de Piaget.

Características: Para estos modelos no hay reglas explícitas, sólo una red de fuertes conexiones de unidades sencillas que se activa en los procesos de pensar, por lo que genera la impresión de que "hay reglas"; pero lo que si hay son fuertes mecanismos de modulación que ajustan los rangos de las conexiones, que actúan como unidades separadas y se asocian mediante “atracción espacio-temporal”. Estos modelos se fundamentan en las concepciones físicas cuánticas y por eso a cada nivel físico (quark, partículas subatómicas, atómicas, molecular y objetos de tamaño discreto variable - desde una piedra hasta galaxias, etc. - corresponde un “formalismo descriptivo propio” que hace al mundo inteligible.

Discusión: Las bases para estos dos tipos de modelo proceden de trabajos de investigación previos, tales como:

a) Teoría de redes de los estados energéticos y armónicos (Achley Hinton, Sejnoski, 1985; Cohen Grossberg, 1983; Gerran, 1984; Smolensky, 1983; Hopfuld, 1982);
b) Teoría de las representaciones internas (Rosemberg, 1987);
c) Teoría de las estructuras complejas (Fodor Phylyshyn, 1986);
d) Teoría de la percepción del tiempo (Sutton, 1986);
e) Teoría de los “perceptrones” (Minsky Paper, 1969; Hebbian, 1986).

Los dos tipos de modelos anteriores pertenecen a la línea de investigación denominada “representacionalista”, que postula que en el cerebro hay “estados de la mente” que codifican “estados del mundo”. La diferencia principal consiste en que la teoría clásica parte del principio que hay “relaciones estructurales en la arquitectura del modelo” y las teorías tipo P.D.P. parten del principio que hay solamente conexiones causales; además ambos tipos de arquitectura implican diferencias respecto a la naturaleza de las representaciones mentales y los procesos mentales.

3.- Modelos Estructural- Estadísticos:

Intenta sintetizar los dos anteriores, cuya base es: la mente es un ingenio sensitivo que combina lo estadístico (“software”) y lo estructural (“hardware”). Si se analiza desde la óptica del “hardware” opera como el primer modelo (clásico), si se analiza desde la óptica del “software” opera como el segundo modelo (P.D.P.). Esta explicación que configura un modelo se debe a Smolensky (1988).

Características: Las confusiones y polémicas entre los defensores de los dos modelos son el resultado de la utilización de modelos basados en la computación “discreta”, simbólica (tipo clásico), versus la computación basada en un tratamiento matemático aplicable a un sistema dinámico continuo, basado en un punto de ...?

4.- Modelos Asociacionistas - Eliminativistas

Este modelo plantea por una parte que por reducción es posible descomponer todo a sus expresiones más elementales y por otra parte que la mente no existe (sólo el cerebro que procesa aleatoriamente) por asociaciones causales, atomísticas y por lo tanto al azar (estocástico). Lo postula P. Churchland (1981). El modelo está en la línea de las llamadas teorías computacionales “Type-type” y “Token-token” tomadas de la neuropsicología.

Discusión: Metodológicamente en los modelos materialistas no hay una clara distinción entre los aspectos ontológicos ¿el qué de las cosas?; con los epistemológicos ¿cómo uso el qué de las cosas? y la causación ¿qué es lo que causa las cosas? Además hay excesiva liberalidad al tratar con conceptos sin definirlos previamente, tales como: computadora, inteligencia artificial, procesamiento de información, simbología, sintaxis.

Desde que entró en descrédito el dualismo cartesiano - en este caso referido a las sustancias mente y cuerpo, se adopta una tesis que cobija a todas las escuelas que huyendo de “lo mental - subjetivo” encajona de previo a los científicos en posiciones irreductibles: modernismo vs. dualismo; materialismo vs. mentalismo; “filosofistas vs. psicologistas”; pero aún se mantiene anclada en la concepción de la física pre-cuántica, por una parte, y por la otra homologa al ser humano con una máquina (“sistema”) cuyo comportamiento solo es medible y entendible por otro “sistema” (un ser humano, un homúnculo, un robot, una computadora).

El materialismo se asienta, - entonces - en el estudio de la mente como si fuese un fenómeno neutro e independiente de la conciencia y la subjetividad. Antes de Freud que postuló la existencia de la subconsciencia y la inconsciencia se aceptaba la existencia de la conciencia; que hoy el materialismo la niega por completo.

Refutaciones Naturalistas:

De frente a todos los modelos anteriores de origen fisicalista - materialista, en realidad no hay “modelos naturalistas”, como en el caso anterior, aunque si hay posiciones naturalistas que coinciden en asignarle un papel primordial a la conciencia. Por ejemplo John Searle plantea ocho tesis materialistas y procede a refutarlas así:

1) Tesis: “Toda realidad es objetiva”. Refutación: los estados mentales tienen un fundamento objetivo irreductible.
2) Tesis: Los principios que dominan el sistema solo son accesibles por la observación de su comportamiento. Refutación: No, solo por la consciencia de su existencia.
3) Tesis: La consciencia no existe. Refutación: Solo por la consciencia es factible accesar y reflexionar sobre los actos inconscientes, sin tener que recurrir a sistemas externos.
4) Tesis: Los deseos, los sentimientos, los estados emocionales, solo pueden ser captados en cualesquiera de estas modalidades (según cada “escuela”): a) respuestas del comportamiento (conductismo); b) relaciones causales (funcionalismo); c) construcciones debidas a una cierta manera de hablar o de ver (constructivismo); o bien d) del todo no existen tales estados (eliminativismo). Refutación a todas esas posiciones: Estos errores nacen de la confusión entre ontología, epistemología y causalidad.
5) Tesis: La tradición asume que el estudio de la mente lleva al científico a escoger únicamente entre introspección o conductismo. Refutación: Esta es una posición falsa, dado que es erróneo: a) desde el punto de vista metafísico suponer que hay entidas privadas con subjetividad irreductible; y b) desde el punto de vista epistemológico asumir una simetría entre la forma de conocimiento del “yo”, por parte de uno mismo, y por parte de un tercero, que juzga no la interioridad del “yo”, sino el comportamiento del yo.
6) Tesis: Los seres humanos, los animales, los robots, los homúnculos, las computadoras piensan igual y su pensamiento solo es medible por su comportamiento. Refutación: No es cierto que a igual comportamiento corresponda el mismo nivel de pensamiento, toda vez que este comportamiento, aunque fuese idéntico, se fundamenta en realidades mentales de distinta naturaleza. El error es epistemológico: se parte de una pregunta falsa: ¿cuál es la existencia del fenómeno a ser comprobado?, y no de la pregunta correcta: ¿cuál es la naturaleza del fenómeno, cuya existencia se ha comprobado?
7) Tesis: La realidad del mundo es física. Refutación: Es un error ontológico que se destruye con la existencia de otros tipos de realidad no física, por ejemplo: a) la habilidad para jugar ajedrez; b) el marcador de un partido de fútbol; c) la audición de una pieza musical; d) el gobierno de la República; e) Los quarks de la teoría cuántica; f) La deformación del espacio - tiempo en la teoría einsteniana. En consecuencia, la pregunta debe no ser: ¿Qué clase de cosas existen en el Universo?; sino plantearse antes: ¿Cuáles son las cosas en el Universo, que permiten que nuestros planteamientos empíricos puedan dar fe exacta de su existencia?
8) La omnisciencia es posible por medio del ominiconocimiento, porque lo físico es conocible. Refutación: Si bien, por razones heurísticas el planteo es aceptable, no se puede hacer tal afirmación porque no es un hecho comprobable. En la práctica otros seres (animales, por ejemplo), experimentan su relación con el Universo de una manera que los seres humanos no podemos accesar directamente, sino tan solo apreciar su comportamiento.

Conclusión: Las tesis materialistas se han originado en errores históricos y para refutarlas se requiere conocer la cronología de la aparición de postulados que se van acumulando y reforzando uno sobre el otro. ¿Pero cómo se generó el problema?


En una apretada revisión, esta es la trayectoria seguida por la ciencia en un afán de conocimiento no dualista, pero al parecer erróneo desde el principio, que ha llevado a la confrontación entre materialistas y naturalistas:
1) Watson 1925: plantea la relación entre entradas o estímulos con respecto a salidas o conducta (nace el conductismo metodológico).
2) Hempel, Ryle 1949: Todo lo mental se reduce a conducta resultado de estímulos (nace el conductismo lógico).
3) Place, Smart 1965: Los estados mentales son el resultado de estados contingentes, sintéticos, empíricos y por ello son idénticos con los estados del cerebro (nace la teoría de la identidad).
4) Mac Ginn, Davidson 1977: Los estados mentales son idénticos a los eventos neuropsicológicos (nacen teorías del “type-type” y del “token-token”).
5) Lewis, Grace 1978: Los estados mentales son el resultado del funcionamiento de un sistema lógico de relaciones causales (nace el funcionalismo).
6) Johnson, Laird 1980: La mente (“software”) se reduce a las funciones que lleva a cabo el cerebro (“hardware”) (nace la teoría de la Inteligencia Artificial, o Funcionalismo Computacional).
7) Churchland, Stich 1983: Los estados mentales no existen del todo, son tan solo el resultado de la psicología folklórica (nace el materialismo eliminativo).
8) Chomsky 1980: Los significados se encuentran en el cerebro en la forma de un lenguaje universal primitivo, de manera que la educación lo que hace es permitir “recordar” lo preexistente (nace la teoría de la gramática generativa como “lenguaje” del cerebro).
9) Jackendoff 1980: En el cerebro no hay ninguna intencionalidad oculta, tan solo procesadores de diferentes lenguajes que interrelacionan estructuras conceptuales con imágenes mentales en dominios específicos, que gobiernan las reacciones que producen los estímulos procesados en un modelo tridimensional (nace la teoría de los lenguajes mentales).
10) Marr 1982: Las neuronas sensoras actúan como transductores en los niveles periféricos y éstas modulan representaciones periféricas que luego estimulan la construcción de representaciones centrales en un formato tridimensional .
11) Millikan, Fodor (1987): Los contenidos mentales pueden ser individualizados por funciones biológicas intencionales (teleológicas), porque los significados no están todos en el cerebro, sino que requieren todos de un contendor mayor (nace la teoría de la naturalización de los contenidos mentales).

En 1992 Searle plantea un ejemplo hipotético que pretende demoler, de frente, todas las propuestas materialistas anteriores que niegan - de plano - la consciencia. Veamos:
Una persona sana inicia un proceso de deterioro de su vista por un tumor cerebral y se le colocan “chips” de silicón en la corteza visual y recupera parcialmente la vista; pero el tumor sigue invadiendo el cerebro, por lo que conforme progresa la enfermedad se aumenta la cantidad de chips que reemplazan el cerebro deteriorado. Posibilidades: a) La persona se recupera y sigue teniendo una vida mental plena, incluyendo sus afectos y sentimientos; b) Se recupera la vista, pero conforme aumenta el implante artificial, su conciencia se va deteriorando hasta desaparecer; c) La persona - interiormente - no experimenta ningún cambio observable externamente, pero pierde sus capacidades, se paraliza y no puede comunicarse al punto que se declara que tiene muerte cerebral.

Comentarios: Hay una relación causal entre procesos cerebrales y procesos mentales pero la conducta observable por un tercero, no coincide con la experiencia de la primera persona. Ontológicamente la conducta, los roles funcionales y las relaciones causales son irrelevantes por la existencia de los fenómenos mentales conscientes; pero epistemológicamente aprendemos de los estados mentales de otras personas solo en parte por su conducta, por lo que las experiencias entre la primera y tercera personas no solo no son coincidentes, sino también irrelevantes. Por su parte la conciencia sirve para moldear las relaciones causales entre el estímulo (“input”) y la conducta “output”, pero en si la conciencia no es medible per-se; de lo que se sigue que aunque se conoce la conducta, esta no es idéntica al pensamiento.

La tesis de Searle que defiende la existencia de la consciencia (aspecto negado por el materialismo), con variantes; es sostenida por Fodor, Putnan, Kriplke, Lycan, Shur, Benett, Druyfus, Flanagan, entre otros. La secuencia de exposición nos lleva ahora a tratar de plantear en qué consiste la consciencia. Se advierte que al igual que no hay modelos naturalistas, tampoco lo han para el concepto "conciencia"

¿Qué es la conciencia?

Prescindiremos de versiones antiguas sobre la consciencia por su romanticismo, o - porque siendo anteriores - a los descubrimientos modernos - pueden inducir a confusiones. Modernamente Armstrong y Changeaux (1988) y cada uno por aparte plantean respecto a la conciencia que es “...un sistema regulatorio global que interrelaciona las imágenes mentales y la modalidad que las establece (que puede ser de tipo “computacional” o no) y permite hacer discriminaciones entre tales imágenes”. En 1992 Searle señala que sus características pueden ser comprendidas en varias categorías, a saber:




1) Modalidades Finitas: La conciencia se presenta por medio de: a) Los cinco sentidos; b) El “sexto sentido”; c) El sentido del balance o la simetría; d) Las sensaciones “propioceptivas” (o sensaciones corporales diversas; e) La sensación de ser una “corriente de pensamiento que fluye”. Y a su vez todas estas formas presentan diversos grados de intencionalidad.
2) Intencionalidad: La intencionalidad es de “carácter aspectual”, esto es la intencionalidad se apoya en una perspectiva (o punto de vista) que baña a los objetos (no solo se ve un objeto, sino que este se “ve como...”).
3) Subjetividad: Todas las experiencias son bañadas por la subjetividad que califica los diversos aspectos de la experiencia.
4) Unidad: Todas las sensaciones se experimentan en dos ejes: a) Horizontal: una frase, un deseo, un pensamiento es experimentado en un eje dinámico, que parece fluir en un sentido y aunque no se termine el recorrido, puede recuperarse después; b) Vertical: Varias sensaciones - pese a su eje horizontal - pueden ser experimentadas en sincronía, pero si bien aparecen juntas, no son revueltas.
5) Estructuración: Las percepciones son siempre organizadas con respecto a un fondo; pero este fondo tiene a su vez otro y así sucesivamente hasta un límite que no es posible traspasar, aunque se esfuerce la imaginación.
6) Familiaridad: Las experiencias tienen a la primera persona como referencia y aunque sean desconocidas y en distintos escenarios, la presencia del “yo” les da un tono de familiaridad gradual que produce satisfacciones categorizadas.
7) Desborde: el contenido es siempre desbordado por una sensación que envuelve el objeto de la experiencia. Esto es: un árbol no es solo tal, sino que hay "algo" más que éste.
8) Centro - Periferia: La experiencia de varias sensaciones, o deseos o pensamientos no impide que uno de ellos sea central, mientras que otros son periféricos a éste, tanto en niveles de distancia, tiempo o de relación.
9) Contexto: Siempre hay coordinación de contextos que dotan a la experiencia de equilibrio en coordenadas diversas: el "yo", espacial, temporal, biológica, social, universales y su interrelación puede causar placer o molestias en diversos grados.
10) Modo: Las características del estado de ánimo no siempre son intencionales y estas pueden reforzar o debilitar una experiencia que altera el estado de ánimo presente. Aunque tales estados no siempre son perceptibles, un cambio brusco o dramático puede ponerlo de manifiesto.
11) Introyección: La conciencia puede ser introspeccionada como un acto consciente, o bien pasar desapercibida, o ser sentida como si no fuese una persona diferente de quien la experimenta.
12) Alteración: La conciencia puede aumentarse, disminuirse o modificarse por estados patológicos, o por drogas, o por inducciones eléctricas, o bien la persona puede hacer una manifestación falsa sobre una experiencia por errores de apreciación.

Una vez planteadas las doce categorías Searle plantea que la conciencia “es una manifestación irreductible de la realidad física”, con lo cual rechaza el dualismo y se asienta en el monismo. Esta posición reduccionista obliga a ubicar los cuatro tipos de reduccionismo que conoce la ciencia:

1) Ontológico: Un objeto dado no es más que una manifestación de sus moléculas (u otros elementos menores). Así la materia es una colección de partículas elementales organizadas de diferente manera.
2) Propiedad analógica: Se refiere al comportamiento de un objeto dado. Que puede ser reducido a alguna de sus propiedades. Así: el calor procedente de un gas no es mas que la energía cinética del movimiento de sus moléculas.
3) Teórico: se refiere a la relación entre teorías y las leyes que resultan de ellas. Así: el comportamiento de un gas es lo mismo que la ley de la estadística termodinámica.
4) Causal: Se refiere a la relación entre dos cosas interrelacionadas entre sí por un poder de causalidad, de donde resulta que la entidad puede ser explicada por sus manifestaciones fenomenológicas. Así: un objeto sólido es impenetrable porque tal particularidad es el resultado de los poderes de los movimientos vibratorios moleculares en diversos niveles espaciales; o bien: el color rojo es el resultado de la vibración fotónica a una velocidad de 600 nanómetros por segundo.

Este último tipo de reduccionismo - causalista - monista es el seguido por Searle cuando afirma que hay fenómenos que son “emergentes”. Así: la consciencia es la emergencia causada por el comportamiento neuronal; pero la consciencia - en sí- no es reductible nada más que a sí misma. A su vez advierte que es un error hacer un reduccionismo sobre la base del dualismo, lo que plantea ipso-facto la “intratabilidad” del problema mente/cuerpo; así como surge el error de confundir groseramente el comportamiento con la consciencia, o de tratar de eliminarla por completo.

Algunos intentos anteriores de seguir este camino son los siguientes:

• N. Magel, 1974; Kripke, 1971; Jackson, 1982: demuestran la irreductibilidad de la consciencia desde el punto de vista epistemológico.
• Kim, 1972; Hangenland, 1982: Sobre trabajos previos de Moore (1922) y Hare (1952), plantean que las bases éticas del comportamiento son propiedades intrínsecas que sobresalen o traspasan (atravesándola y superándola) las propiedades de la naturaleza.
• Searle, 1990: La materia organizada causa la existencia de un complejo neuronal, este complejo neuronal causa el fenómeno mental. Desde Kant se plantea que hay una clara asimetría entre la experiencia de la consciencia en lo que respecta al espacio y al tiempo, ya que la referencia es siempre al tiempo y no al espacio; lo que coincide con el hallazgo del neurofisiólogo colombiano Rodolfo Llinas (1995) que expresa que las conexiones neurales solo pueden ser explicadas en el eje del tiempo y no en el del espacio.

Por su parte el concepto de “emergencia” que maneja Searle, había sido claramente instuido por Theilhard de Chardin en su fenomenología de la evolución humana en su propuesta del Alfa al Omega, la que -según Searle- recibe el apoyo de los experimentos que realizan los neurofisiólogos Stein y Meredith (1993). El problema de la conciencia también puede verse desde la arista del demorfismo cerebral.

Consecuencias del Dimorfismo Cerebral

En el campo de la neuroanatomía se ha determinado que existe una diferencia biológica (dimorfismo) entre el cerebro de la mujer y del hombre que, por supuesto, no hay que entenderla en términos de superioridad / inferioridad, sino de simple diferencia. Llos aspectos más relevantes según el físico cuántico Máximo Santi, son las siguientes:

- Esta diferencia se manifiesta especialmente a nivel del cuerpo calloso; es decir, de la estructura que une los dos hemisferios cerebrales. La mujer tiene un cuerpo calloso con el 15% más de fibras de interconexión que el hombre. Consecuencia: la Mujer tiene una mayor capacidad de síntesis.

- El cerebro de la mujer es cíclico y el del hombre es tónico por efecto de los diferentes mecanismos hormonales. Consecuencia: la Mujer está más disponible al cambio, mientras el Hombre es más conservador.

- Las neuronas del hombre tienen ramificadores más articuladas y un número mayor de sinapsis (puntos de contactos entre las neuronas) que las neuronas de la mujer. Consecuencia: el cerebro del Hombre consume más energía; pero las diferencias ligadas al sexo, no producen diferencias entre Hombre y Mujer a nivel de inteligencia.

- La influencia de las hormonas sexuales en la fase del desarrollo del cerebro, determina las diferencias en las actitudes cognitivas entre hombres y mujeres. En la primera etapa del desarrollo embrional todos los cerebros son femeninos y sólo en la última fase se manifiesta la diferenciación masculina.

- El cerebro del Hombre tiene una mayor habilidad espacial. El cerebro de la Mujer identifica más rápidamente las particularidades, las semejanzas (tiene mayor "velocidad perceptiva").

- El cerebro masculino es más asimétrico que el cerebro femenino; (está más lateralizado a nivel del hemisferio izquierdo). El cerebro femenino utiliza los dos hemisferios cerebrales en una forma más equilibrada.

Con base en el dimorfismo cerebral, las repuestas del hombre y de la mujer frente al mismo problema, son diferentes:

1. El hombre responde principalmente con el hemisferio izquierdo - empleando la lógica, la racionalidad - y con un alto consumo de energía, su tendencia es “agresiva”. Busca su afirmación por medio de la confrontación y competencia. Tiene una visión determinística, racionalista y lógico-productiva, que le lleva al desarrollo de la concepción de dominador, colonizador, con imposición de sus propias ideas con la fuerza, es más conservador.
2. La mujer es capaz de hacer una síntesis más rápida, utilizando la creatividad y fantasía del hemisferio derecho. Su respuesta es más global e integral, con un menor consumo de energía. Su tendencia es “creativa”. La mujer tiende a una comunicación armónica a través del proceso de identificación. Tiene mayor conciencia de su cuerpo, con una percepción más profunda de los problemas y la utilización de la persuasión para afirmar sus propias ideas. Es más dispuesta al cambio.

A juicio de Santi: "En la alborada del Siglo XXI es urgente sustituir la cultura de la dominación, opresión y violencia entre los sexos, por una cultura de la integración Mujer / Hombre en el respeto de las diferencias biológicas y cerebrales para construir un ser humano planetario donde la conciencia sea el único parámetro, el único verdadero valor que nos caracteriza. De esta manera se puede dar comienzo al Alba del comportamiento humano en armonía con nuestra naturaleza."

Hacia el Futuro.- No hay la menor duda que si bien es cierto -coincidiendo con Searle- toda la psicología materialista se encuentra enmarañada en la confusión entre ontología, epistemología y causación, también es cierto que es la que más puede aportar luces en un campo específico, que no agota el problema de la mente, pero puede dar mucha luz para su solución y es la pregunta: ¿Qué es la inteligencia?

La neuropsicología debe buscar solución porque indiferentemente de las conclusiones fáciles que surgen respecto a las investigaciones neuropsicológicas, es en ese campo tan reducido, y a la vez tan amplio (¿infinito?), que el ser humano puede acercarse al desciframiento de la mente. Ahora bien, los estudios actuales y de futuro en este campo se encuentran encerrados en estas seis series de interrogantes aún no despejadas, pero cuya sola mención permite intuir hacia dónde se dirige la investigación actual:

1) ¿Qué es la inteligencia?, ¿Qué tipo de información procesa el cerebro?; ¿Cómo se procesa la información?, ¿Cómo se dan las conexiones neurales, en espacio y/o tiempo?; ¿Dónde se encuentra almacenada la información: en sitios específicos o en diversas áreas especializadas?; ¿Cómo se procesa la información: en serie o en paralelo?; ¿Puede aplicarse al funcionamiento del cerebro sano las investigaciones de anomalías naturales o artificiales, o no?; ¿Son los modelos neurocomputacionales de animales inferiores asimilables a modelos de animales superiores?

2) ¿Cómo se codifica y descodifica la información? ¿Existen espacios reservados para el manejo, por separado, de conceptos relacionados con el cómo y el por qué de las cosas?; ¿Hay una memoria de tipo corto y otra de tipo largo (en el tiempo) y cómo se relacionan?; ¿Cómo se interrelacionan los sensores externos en el nivel central para responder a los estímulos: mecánicamente o mediante una previa representación mental?

3) ¿Son estas representaciones mentales estructuraciones previas sobre la base de lenguajes icónicos?; ¿Qué tipos de lenguajes y cómo se construyen?; ¿Están las construcciones de la realidad limitadas por parámetros para la visión, sonido, lenguaje y otros niveles de relación corporal prefijados?; ¿Cuáles y qué funciones tienen estos parámetros?

4) ¿Cuál es la relación entre las pruebas que obtenemos de la vida diaria, la experiencia que alimentan y la obtención de conocimiento sobre esa base?; ¿Pueden los modelos etológicos (comportamiento de otros animales) servir de base para entender el comportamiento humano más complejo o es poco seria esa aproximación para dilucidar las interrogantes?

5) ¿Son las construcciones algorítmicas artificiales comparables en todo, o sólo parcialmente, a las redes neuronales humanas?, o ¿Pueden homologarse lícitamente las estrategias de aprendizaje de ingenios con inteligencia artificial a la adaptación ecológica de los cerebros - mentes humanas?; ¿Es la arquitectura del cerebro fija o cambiante para la diversidad de procesos que llevará a cabo?

6) Y también la neurofisiología debe abocarse a contestar la pregunta crucial: ¿Hay, en verdad, una realidad ahí fuera, independientemente de nuestra percepción? Para la vida ordinaria la respuesta es sí, por supuesto. Para la ciencia solo cabe la duda y, a partir de ella encontrar la mejor forma para despejar la incógnita. Pero aquí surge un nuevo problema: ¿Cómo con aliar la verdad de lo físico con mi concepto del mundo? Esto es, si en efecto la realidad es como afirman los físicos cuánticos, utilizando un metalenguaje que es casi imposible seguir; y de frente a ello: ¿Cómo compaginamos esa verdad con lo que me dice mi rutina de todos los días?

Al menos la última pregunta tiene una respuesta - siempre elusiva - de parte del físico atomista Hugh Pendleton: “Es sencillo: Por mucho tiempo continuará la discusión informal - no comunicada en las revistas y libros especializados - acerca de cómo y de que manera establecer un límite para pasar del dominio de lo que es la realidad cuántica del Universo a la explicación racionalmente comprensible; de allí que la salida sea seguir describiéndolo en términos de las imágenes que construyen nuestra percepción diaria.”

Y esa es una tesis realista que devuelve al ser humano común cierta tranquilidad telúrica y trascendente, aunque, a juicio del filósofo de la mente Grim: “La lógica que guía muestro conocimiento, que nos impele a tener una noción coherente y total del Universo se debe enfrentar a una realidad: estamos condenados a vivir en un mundo esencialmente abierto e incompleto y por tanto misterioso..”

LA MENTE ANALIZADA POR UN COSMOLOGO

Roger Penrose ,inglés que ha estado laborando ,en ocasiones solo y en otras en la compañía de Sthepen Hawking en los temas de los agujeros negros y la gravedad cuántica ,no coincidiendo siempre con las teorías del segundo, publica en 1994 , un libro denominado :” La Nueva Mente del Emperador” que es una valiosa incursión en el tema que este capitulo ha tratado de presentar . Penrose- al igual que todos los físicos, insiste desde hace mucho tiempo que esa disciplina, que se explicita en sus planteos con las formulaciones matemáticas, es la indicada para darnos a entender el Universo, y como el Universo se comprende con la mente humana, es preciso entender de previo cómo funciona la mente para descifrar el universo.

Penrose desestima dos ideas: una que la mente humana funciona como una computadora y otra que la física quántica es una teoría acabada pues la vislumbra más bien como un conjunto de ideas en proceso de convertirse en una teoría acabada , por lo que aplicar los conocimientos quánticos actuales para señalar que la mente funciona como una computadora y que ello es posible explicarlo por medio de la física quántica ,es realmente una falta de comprensión de ambas cosas .De igual manera deja entrever la posibilidad de que mas bien sea la mente un formato que procesa información, todo esto independientemente de que el cuerpo humano ,la mente misma, reemplacen permanentemente las células que nos constituyen, pues aun así persiste la información guardada.

Penrose propone que el proceso de almacenamiento e intercambio informacional se producen en unas estructuras proteinicas neuronales microscópicas llamadas microtubulos . Y en cuanto a la conciencia sus tesis no aceptan que pueda ser reducida a procesos químicos o físicos ,sino que van más allá, pues aún no comprendemos que sea ni como opere. De plano rechaza las tesis materialistas, así como su conjunción con la investigación y muchos de sus nortes, pues la tecnología termina siendo mercantilizada , desaprovechándose la posibilidad de su uso con fines mas altruistas.

Según este autor, el cerebro en el interior de nuestras cabezas posee una estructura que controla nuestras acciones y de algún modo genera una conciencia del mundo que nos rodea. El cerebro tiene una estructura mucho más intrincada de lo que suponemos y una compleja organización y su fruto : la actividad mental, da a su vez paso –de alguna manera- a la conciencia humana que tan solo ha sido abordada desde el plano de la metafísica ,pero actualmente hay una enorme necesidad de convertirla en tema de investigación científica. De la misma manera es preciso adentrarse en el estudio y significación del mundo de las matemáticas, que es el lenguaje de la ciencia, pues curiosamente siendo simbólico ,abstracto, debe dar cuenta de la realidad ( que es solo aparente) , como si se tratara de revivir el concepto de las ideas en la cueva de Platón.

Y para ponernos a pensar deja planteadas estas propuestas: ¿Es la matemática una invención humana o un descubrimiento de la mente humana ? . Cuando los matemáticos obtienen sus resultados ¿están produciendo solamente elaboradas construcciones mentales que no tienen auténtica realidad, pero cuyo poder y elegancia basta simplemente para engañar incluso a sus inventores haciéndoles creer que estas construcciones mentales son "reales"? ¿O están descubriendo realmente verdades que estaban ya "ahí", verdades cuya existencia es independiente de las actividades de los matemáticos?.

Por otra parte nos coloca de frente con una interesante interrogación: "¿Cómo deciden los matemáticos cuáles enunciados matemáticos son verdaderos y cuáles falsos? ¿Siguen algún algoritmo o tienen otra ruta hacia la verdad por medio de una "intuición" misteriosa que no puede ser tratada algorítmicamente?". Penrose mismo se contesta afirmando que los procesos que ocurren en el cerebro humano no son algorítmicos, sino totalmente intuitivos, y es a través de estos por los cuales los matemáticos llegan a formular sus hipótesis. Y agrega que el misterio se va a develar cuando la física este unificada, ya que hoy día hay quienes acuden a explicaciones quánticas que no tienen aun sostén por sí mismas.

En cuanto a la formulación de planteamientos matemáticos nos deja como tarea aprender a discernir cuando un matemático se está acercando a una verdad fundamental, absoluta, cuasi-divina y cuando tan solo roza un aspecto menor de la misma. En un primer caso se trataría de un “descubrimiento”,en el segundo de una “invención ”. En ambos-sin embargo-utilizando el lenguaje de la ciencia, la matemática pareciera ser, a la vez el lenguaje superior, el lenguaje de Dios, aspecto que los científicos materialistas rechazan por completo.

Penrose se adhiere a la tesis de Searle de que aunque poseamos un sistema complejo de algoritmos haciendo funcionar una computadora, no existe forma alguna de representar una mente humana a través de una máquina, sino tan sólo a través de los mismos procesos intencionales del cerebro. Pone en duda, por tanto, la tesis de Turing retomada por Church para redondearla, sobre las máquinas pensantes, tesis que no puede ser comprobada formalmente, que es aceptada por los matemáticos debido a su eficacia y que en las futuras décadas es posible que sea dilucida.

Independiente de que un físico, con fuerte formación en matemáticas se ocupe del tema de la mente y el cerebro es francamente estimulante y retador, porque como cosmólogo Penrose sabe muy bien cuáles son las dudas y vacilaciones teóricas y ahora intenta explicar cómo sus teorizaciones son influidas por la forma en que funciona el aparato cognoscitivo humano, sin recurrir a tesis religiosas-porque no lo es en el sentido convencional- pero tampoco se le puede catalogar dentro de los científicos materialistas.

Todo el tema del cerebro, la mente, la conciencia que antes eran dejadas de lado por los físicos y los matemáticos van a permear fuertemente la cosmología como lo veremos en los capítulos que siguen porque las formulaciones de teorías sobre el nacimiento, la existencia y el futuro del Universo, cada día más ,van a depender de simulaciones computacionales y no de la elucubración de mentes solitarias armadas de papel y lápiz .Y la formulación matemática deberá luego ser corroborada en campo mediante las nuevas aplicaciones tecnológicas a los telescopios , a los radiotelescopios y a las observaciones con plataformas artificiales fuera de la Tierra.

0 comentarios:

Publicar un comentario

Visite

Ultimos artículos de VERDAD-BLOG

Visite Directo Blog