Capítulo IV: Modelo standard del Bing Bang y Contexto Social

(1975 -1985)

Pasada la época de las grandes diferencias en torno a las dos escuelas de pensamiento cosmológico; habiendo ganado la partida - al menos por ahora - la teoría que propugna que el Universo se originó hace 15 mil millones de años (13.7 al final de los noventa) , todos los descubrimientos y las mediciones astronómicas, así como los avances en la física cuántica comienzan a unirse para ofrecer una interpretación del nacimiento y evolución del Universo y es notorio el esfuerzo que comienza a tomar forma para tratar de traspasar el Muro de Plank, buscando explicaciones para el Universo Inicial (modelos del "Very Early Universe").

Durante estos años el “retrato” se irá modificando en algunas partes: aclarándose muchas pero complicándose en otras también. En esta labor hay mucha paciencia para tratar tan grave asunto como es definir el Universo, su nacimiento y evolución. Las explicaciones sobre modelos o variaciones de modelos que trascienden al lego en la materia, están precedidas de cálculos físico - matemáticos que se alimentan - a su vez - de datos que sufren modificaciones constantemente conforme avanzan los métodos observacionales y entran en operación nuevos diseños de artefactos para detectar radiaciones cósmicas (telescopios, radiotelescopios, aviones especialmente equipados, sondas , naves espaciales y laboratorios orbitales) que recogen datos sobre el macrocosmos; o procedentes de informaciones de laboratorios terrestres que tratan del mundo subatómico y sus elusivas partículas elementales.

El debate sobre los modelos del origen del Universo deja como secuela positiva al menos tres aspectos:
a) El nacimiento del interés de parte de la ciencia por descifrar el problema del origen del Universo;
b) la proliferación de propuestas de mecanismos que explican parcialidades del proceso evolutivo que va desde T=0, (esto es desde el inicio del tiempo); hasta las posibilidades de su desaparición;
c) una mejor comprensión de las fases evolutivas que van desde las radiaciones iniciales hasta la aparición de planetas con posibilidades de albergar vida (tanto de tipo "inteligente", como más modesta: bacterias , virus y otros eventuales organismos extremos , por ejemplo).

En el área de los acontecimientos sociopolíticos la década de los setenta es la “década perdida” ; no así para la cosmología que lejos de los avatares ideológicos, sigue aumentando el caudal de los conocimientos y en campos en los que no se pudo avanzar se debió bien a que la construcción de instrumentos de detección y medición estaban en proceso de construcción, o al temor natural en algunos cosmólogos para arriesgar teorías, dado el sonado fracaso de parte de los defensores de la Teoría del Estado Estacionario, (con excepción del inglés Fred Hoyle, quien proseguiría su producción científica).

Como un dato curioso puede resaltarse que a nivel del vulgo -y aún entre personas de alto nivel escolar- se manejan sin aparentes contradicciones dos conceptos francamente antagónicos : uno, que el Universo es eterno, otro que el Universo tuvo un comienzo hace unos quince mil millones de años. E igualmente se manejan indistintamente –y sin contradicciones- la concepción bíblica que da cuenta de la creación del ser humano con barro terrestre de un soplo divino y la idea simplificada de la evolución darwinista: la que se refiere a nuestra "descendencia del mono", como si se tratara de una secuencia lineal, en donde solo faltaría encontrar un eslabón perdido (posiblemente un esqueleto o parte de él) .

En esta época también deben resaltarse dos preocupaciones: una se refiere a la preocupación del rumbo de los conocimientos científicos y tecnológicos, éstos como un derivado de las ciencias físicas y químicas aplicadas. La segunda se relaciona con el temor a un holocausto atómico, como consecuencia de la proliferación y sofisticación de las "armas de defensa" termonucleares y bacteriológicas en poder de las castas militares de no más de siete países desarrollados y uno que comienza a mostrar sus dientes en este campo..

Igualmente esta época se caracteriza por el movimiento de una conciencia planetaria incipiente que puede rastrearse en esfuerzos desperdigados:
a) la eclosión de esfuerzos tendentes a la preservación ecológica y de especies zoológicas en extinción;
b) la eclosión de la idea de un "cambio" cuyo rostro aún no está claro, pero que se evidencia en América Latina y en los países del Tercer Mundo en dos campos específicos: uno la necesidad de un Nuevo Orden Económico , y el otro ,la prédica de un Nuevo Orden Informativo. Ambos cambios se ansían tengan un espectro mundial, y esa es la tónica que unifica la aspiración al reordenamiento político del globo.

Lejos de estos acontecimientos, los años bajo examen permiten dar cuenta de lo que socialmente se detecta como una reactivación religiosa -que incluye la proliferación y la división del cristianismo en sectas- y que en el seno de la cristiandad se denomina más propiamente como "avivamiento de la presencia del Espíritu Santo" y que se visualiza en los medios electrónicos de comunicación bajo la fuerte aparición del "Tele evangelismo".

La ausencia total de la influencia del cristianismo en la elaboración de modelos cosmológicos que caracteriza la época (al hacerse bajo estrictos parámetros científicos) deja -sin embargo- un vacío que ya había advertido intuitivamente Einstein, cuando afirmaba que "la ciencia sin religión era ciega y la religión sin ciencia era coja" . Por tanto, al igual que en las décadas anteriores en que la ciencia termina sustituyendo la filosofía, y muy particularmente la metafísica, también la ciencia termina sustituyendo a la religión . La ausencia del pensamiento religioso en los asuntos que atañen a la creación del Universo y los acontecimientos relacionados con la creación de los seres vivos ,incluyendo al ser humano ,no deja un vacío, porque ese espacio comienza a ser llenando por las inquietudes de algunos físicos , con planteos holísticos ,entre ellos los ingleses David Bohmn, Hugh Everett, y el norteamericano Fritjoh Capra , en consuno con científicos procedentes de otras áreas (particularmente del área de la biología).

Así el nuevo pensamiento resultante servirá para alimentar al surgimiento de una nueva visión planetario-cósmica denominada "New Age" (Nueva Era) que mezclará con franca liberalidad concepciones científicas serias con planteos astrológicos y con ideas místicas y religiosas (particularmente provenientes del Budismo y del Brahmanismo), junto con inquietudes ecológicas y escatológicas y algunas pinceladas de corte panteísta, en donde el nombre de Theilhard de Chardin sale a relucir ,como si este jesuita –científico hubiese impulsado una visión neo- panteísta cristiana, lo que constituye una apreciación errónea de sus planeamientos, pero en el abigarrado folklorismo que caracteriza las ideas de la Nueva Era, este gazapo pasa totalmente desapercibido.

En este capítulo ,siguiendo la práctica de circunscribirnos a lo que ocurre en el período bajo examen los temas señalados se tratan en cuatro áreas:
a) La primera se refiere al Estado de situación del Modelo Big Bang, que muestra cómo se elabora un modelo standard dentro de la cosmología de inicio caliente, a mediados de la década, así como nuevas ideas que van fijándose en torno a los modelos dentro de la cosmología del B.B. También trata del surgimiento de concepciones de Escatología Planetaria, ligadas a la eventual desaparición del Universo .
b) La segunda constituye una revisión de los problemas que implica para el destino humano la aparición de estas ideas
c) La tercera nos lleva a revisar los obstáculos para los cambios en un planeta con graves problemas para una coexistencia pacífica fundada en la justicia social .
d) La cuarta se refiere a la necesidad del ser humano para que el conocimiento que adquiere sobre el origen del Universo le sirva además para darle norte y sentido a la vida.

1.- MODELO ESTÁNDARD DE LA CREACIÓN DEL UNIVERSO

Hasta el momento solo hemos revisado ideas acerca de las ideas con las cuales se formulan hipótesis para armar modelos de universos según las ideas de autores diversos. En esta sección incluiremos un modelo científico formulado en 1973 por un astrónomo ,lo que nos va a permitir conocer de primera mano la forma de postular un modelo. Debe si hacerse la advertencia de que el modelo carece de la formulación matemática para facilitar al lector no familiarizado con este lenguaje la comprensión de cual es la argamasa con la cual los científicos arman sus modelos cosmológicos.
De la revista Annual Review of Astronomy and Astrophysics ,publicación anual norteamericana sin fines de lucro, se extrae un ejemplo de la formulación de un modelo teórico estándar que muestra cómo acomete un cosmólogo, en este caso Edward R. Harrison de la Universidad de Massachusetts (en 1973), el trabajo de diseñar una explicación satisfactoria a la interpolación de deducciones y observaciones para apuntalar la hipótesis de un Universo en una gran explosión caliente, que comienza a ganar prestigio y adeptos, así como a difundirse entre los legos. Se advierte que tanto la traducción como la adaptación ,para ajustarla al modelo expositivo que hemos venido siguiendo , son responsabilidad del autor.

Introducción.- Gamow y sus colegas Alpher, Follin y Herman plantean desde 1946 - y luego reiteran en 1953 - la idea de un B.B. en que el Universo inicial es denso y caliente; en 1965 Penzias y Wilson y por separado Dicke y otros dan a conocer el descubrimiento de una radiación de fondo de 2.7° grados Kelvin (en la literatura cosmológica aparece simplificada como 3° K) como remanente de la explosión original postulada en teoría.

La teoría standard postula que, en los primeros instantes tras la gran explosión se produjo una extensa aniquilación de materia y antimateria conforme el Universo se iba enfriando, convirtiéndose casi toda la antimateria -lo mismo que casi toda la materia- en energía. Esto dio origen a un Universo de elevada entropía, tesis que recibió su espaldarazo experimental en la observación de la radiación de fondo de microondas a 2,7 grados Kelvin. En este contexto, la alta entropía significa muchos fotones (partículas de luz por partícula de materia: electrones, protones y neutrones; o, por usar parámetros terrestres y estelares, una bajísima densidad para cualquier temperatura. En virtud de esa alta entropía, los productos principales de la nucleosíntesis cosmológica fueron hidrógeno y helio, (combustible de las estrellas, no sus cenizas) y materia primordial del Universo.

Con el término nucleosíntesis se designan los procesos a través de los cuales los núcleos atómicos se transforman a escala cósmica. Implica el estudio de los procesos acometidos por la materia primordial en las concentraciones observados en los objetos celestes (Sistema Solar, estrellas, gas interestelar, rayos cósmicos). Las abundancias de núcleos observadas representan las cenizas de estadios anteriores de combustión nuclear. La teoría de la nucleosíntesis cosmológica es de un éxito notable: Explica las concentraciones del 98 por ciento de la materia observada del Universo; pero sólo desentraña la producción de cinco núcleos: hidrógeno, deuterio, helio-3, helio-4 y litio.

Se cree que las condiciones iniciales de la nucleosíntesis estelar sea el resultado de la nucleosíntesis cosmológica: esto es que en las estrellas encontramos las condiciones capaces de suministrar las abundancias de casi todos los núcleos y que la evolución de las estrellas es la historia de sus transmutaciones nucleares y los efectos consecuentes en la estructura estelar. Para explicar este proceso, los físicos Suzuki en 1931, Tolman en 1932 y Hawking en 1967 al hacer un rastreo de la historia, distribución y abundancia relativa de los elementos químicos, plantean un comienzo caliente y denso; pero no todos los cosmólogos aceptarán esa condición inicial. Aún a mediados de los setenta, hay cosmólogos que abogan por un B.B. “frío” y no aceptan que la radiación del 2.7°grados Kelvin sea el remanente cósmico de un estallido caliente.

Discusiones Físicas Previas.- El modelo que prepone Harrison parte de estas premisas:
1.- De 1917 hasta el año 1972, el estudio de las condiciones físicas existentes en el inicial (Early Universe) es objeto de estudios publicados por parte de: Alpher y Herman (1950); Novikow y Zeldovich (1967); Dautcourt y Wallis (1950); Longair (1971); Sato, Masuda y Takeda (1971), Pebles (1971), Weinberg (1972)), Alpher, Follin y Herman (1953); Dicke y otros (1965), Harrison (1968), Field (1969), Shatzman (1969), De Graaf (1970), Zel'dovich (1970), Kunt (1971, Steizman (1971), Patridge (1969), Thadeus (1972), lo que arroja un total de 18 comunicaciones científicas publicadas en revistas reconocidas por la academia oficial internacional. (Unión Astronómica Internacional, UIE)
2.- Hasta 1972, el tema del Universo muy inicial (Very Early Universe) es objeto de una sola comunicación que cumple con los requisitos de aceptación científica y es debido a Zel'dovich y Novikow en 1973 (aspectos generales).
3.- El tema de la Singularidad es objeto de dos comunicaciones científicas debidas a Hawking y Ellis (1968) y Hawking y Penrose (1970).
4.- Por otra parte, el tema de la barrera de la existencia de partículas elementales en condiciones muy extremas (Very Early Universe) es objeto de dos comunicaciones debidas a Bahcall y Frautschi (1971) y a Harrison (1970).
5.- De igual forma el tema de creación de partículas a la densidad crítica de Plank (Muro de Plank) es objeto de dos trabajos que llenan los requisitos oficiales y son debidos a Parker (1972), Zel'dovich y Starobinsky (1972).
6.- Para explicar el “Early Universe” caliente hay un modelo standard, no así para el “ Very Early Universe”, dado que las condiciones de quiebra de las leyes físicas hacen altamente especulativa la teorización.
Nota: Si un lector curioso desea conocer cuantas son las publicaciones que existen en cualesquiera de los años del Tercer Milenio va a quedar asombrado: son cientos de miles,lo que da una idea no solo del avance de la astronomía y la cosmología, sino de la gran cantidad de personas dedicadas a estas disciplinas. En uno de los anexos al final de este libro se publica una tabla que muestra esos datos.

Cálculos Matemáticos .- En los cálculos utilizados en el Modelo Standard del “Early Universe”, el procedimiento consiste en hacer un conteo regresivo de la densidad del Universo, que pasa por las siguientes etapas:
a) Densidad presente del Universo;
b) Etapa del equilibrio térmico;
c) Era de la prevalencia de leptones;
d) Era del desacople de partículas;
e) Era de la radiación (aniquilación de electrón - par);
f) Aparición de la materia

Valores Introducidos .- El modelo sufre variaciones conforme se afinan los valores que sirven para hacer los cálculos. Además tales cálculos se modifican por los nuevos descubrimientos. El modelo que se examina se fundamenta en las siguientes ideas complementarias:
a) La edad del Universo se mide siguiendo el método de Hubble (conocido como parámetro de Hubble H) que determina la distancia de las galaxias que receden, así como su velocidad. Esta ley se expresa así: Velocidad = Parámetro de Hubble (H) dividido entre la distancia de una galaxia dada. El inverso de la cantidad así obtenida (I/H) es el Tiempo de Hubble, en que se presume que la luz proveniente de las galaxias comenzó su viaje hasta nosotros. Se asume que la luz ha viajado a la misma velocidad, pero también (por algunos) se asume que al aumentar el espacio recorrido por el “estiramiento” de éste, la luz se “enlentece” en su viaje pero además hay “variaciones de carácter local en las galaxias que modifican la factibilidad de que la “constante” se asuma como tal. De allí nacen precisamente las discrepancias en lo que corresponde a la Edad del Universo.
b) Para calcular la distancia de una galaxia se utilizan dos métodos: uno conocido como Escala Larga (LS), en que se asume un valor de 50 para el parámetro de Hubble; el otro, llamado Escala Corta (SH) en que se asume un valor de 100 para el Parámetro de Hubble. En cada caso se utilizan diferentes indicadores.
c) Aunque por convencionalismo se ha seguido utilizando el promedio de ambas escalas, en donde (H=75) para medir la edad del Universo, la nueva tendencia es favorecer la Escala Larga (H=100). La consecuencia de usar ambas escalas es tener que dar al Universo una edad promedio artificial (15 mil millones de años). Si se acepta la Escala Corta, éste tendría 20 mil millones de años y con la Escala Larga el Universo quedaría con una Edad de 10 mil millones de años de edad. Nota: estos valores son válidos para la época bajo examen, no así en el tercer Milenio, lo que veremos en otros capítulos.

Exactitud de los valores.- Para considerar valores el problema no es de gustos sino de exactitud, (aunque este concepto debe tomarse como relativo), dados todos los factores que inciden en el largo recorrido de los rayos luminosos antes de ser detectados y mediados en la Tierra, lo que introduce a dos problemas aún no resueltos:
1: Los primeros datos para el parámetro de Hubble fueron afectados por el hecho de que los observatorios estaban - en su inmensa mayoría en el Hemisferio Norte y ahora con mediciones efectuadas en el Hemisferio Sur, gracias a los nuevos observatorios allí localizados se ha podido balancear la información recogida, dado que en el Norte el promedio está por debajo del valor real como consecuencia de perturbaciones causadas por el Supercúmulo local, en razón de que las galaxias cercanas están precisamente en el Hemisferio Galáctico Norte.
2: Se refiere a la distribución de la materia que puede ser isotrópica (se encuentra -en promedio- distribuida por igual), o anisotrópica desigualmente en el espacio). El Principio Cosmológico debido a Einstein introduce la idea de que hay isotropía en el espacio; pero el Principio Cosmológico Perfecto introduce la idea de que esa isotropía se extiende en el tiempo, (esto es que ha habido igual distribución de materia en el pasado, en el presente y el futuro) como lo sostiene la teoría de la Creación Continua, aspecto que no se ha dilucidado aún adecuadamente , y a la fecha hay dos aspectos que deben tomarse como criterios apriorísticos a saber:
a.- Los telescopios y los dispositivos radioastronómicos que sondean las profundidades del Universo permiten señalar que los fenómenos observados son prácticamente los mismos (al menos por término medio), cualesquiera que sea la dirección hacia la que se investiga en el espacio. Incluso los “Quasars”, esas enormes fuentes de energía localizadas en volúmenes restringidos descubiertos en los últimos años abogan por una isotropía espacial del Universo, ya que se encuentran en todas las regiones del espacio; pero aún hay dudas razonables acerca de si esa distribución es también isotrópica en el tiempo. Nota: Para el tercer milenio este criterio ha variado ostensiblemente, porque hay regiones del espacio vacías y otras con gran densidad de materia. Sin embargo el concepto “vacías” es de materia visible,porque hay otra materia no conocida en la época bajo estudio: la materia negra que se desconoce exactamente que es.
b.- La expansión ha puesto los cúmulos de galaxias aparte, por dentro de los cúmulos las galaxias permanecen juntas e intercambian discretamente masa lo que produce cambios en la curvatura del Universo, lo que ha obligado a los cosmologistas a utilizar un modelo tomado de la hidrodinámica, con las masas de las galaxias interactuando suavemente. Nota: en los cálculos en el tercer Milenio s utiliza no solo el modelo tomado de la hidrodinámica, sino muchos otros.

El modelo requiere establecer tan solo dos ecuaciones. Estas tienen a su vez seis elementos cuyos valores no son conocidos del todo aún y se clasifican en variables y constantes:

1) Valores variables: Son tres:
a) La densidad media de la materia y de la energía (que se ha modificado en el proceso evolutivo universal);
b) La presión (que ha ido disminuyendo con el tiempo);
c) La escala (que es proporcional al radio del Universo - R - el cual, a su vez, es variable en distintas épocas (que tiene el problema señalado anteriormente).

2) Valores Constantes: Hay dos valores constantes que son la curvatura del espacio y la Constante Cosmológica. A su vez, se debe agregar la Constante de Hubble; que ha sufrido muchas modificaciones conforme se afinan los métodos observacionales (la Constante de Hubble introduce el factor de variación en la distancia debido a la expansión, y se mide en kilómetros por segundo por kiloparsec).
Nota: un parsec es la medida de la distancia entre dos objetos astronómicos ubicados a una distancia de una unidad astronómica. La unidad astronómica es la distancia a la cual que se observa (subtiende) un objeto medido desde la Tierra distante un arco de segundo. El parsec (3,0857 × 1016 m.) equivale a 30.842.208 millones de kilómetros. El kiloparsec es esa misma unidad multiplicada por 1.000.

Discusión sobre la Constante de Hubble.- El recíproco de la constante de Hubble da la dimensión del tiempo y mide la edad del Universo en un sitio dado, pero tiene como factor distorsionante la disminución de la velocidad de la recesión, debida a su vez, a la disminución de la velocidad de expansión del Universo. Hoy día la presión es despreciable pero en el Universo inicial fue significativa y si el presente estado de expansión es seguido por uno de contracción, la presión aumentará.
Necesariamente la constante de la curvatura tiene el valor de (+1) para la curvatura positiva (+); o para curvatura (0) y ( - 1) para curvatura negativa ( - ).
Nota: La constante cosmológica no aparece en las ecuaciones de Einstein en 1915 pero es incorporada en 1917, con el inconveniente de introducir una fuerza de atracción si la curvatura es negativa o repulsiva si es positiva. En 1929, Hubble anuncia la expansión y postula la constante para demostrar que el Universo tenía una edad mayor que la de la Tierra; pero en 1950 se elimina la utilización de ésta constante cuando apareció la nueva escala de distancias de las galaxias debida a los trabajos de los astrónomos norteamericanos Baade y Sandage.

En razón de que la teoría evolucionista postula que el factor R (Radio del Universo) cambia con el tiempo debido a la expansión, permite estipular dos clases de soluciones posibles, que pueden ser:
a) Comienzo del Universo con el B.B. y con la escala en el pasado en factor 0
b) Comienzo del Universo con B.B. pero el Universo comienza con un tamaño determinado, a escala en factor 1, 2, 3, etc.
Precisamente la primera clase de soluciones es la que más trabajan los cosmologistas evolucionistas. El segundo grupo no se considera interesante - por estas fechas porque requiere suponer condiciones especiales para explicar el inicio del comienzo del Universo, (Very Early Universe) la radiación de fondo, la formación de galaxias y la distribución de los Quasars)
Nota: Recuérdese que este modelo bajo examen es un modelo de Early Universo (Universo temprano) ,no de Very Early Universe (Universo muy temprano o Universo Transpliankiano) lo que comienza a trabajarse mucho tiempo después, porque supone la ruptura del Muro de Plank,asi como cifras especulativos.

Tres Posibles Universos.- En las cosmologías Standard del B.B. (preferidas por la ciencia convencional - como es el caso de este modelo - ) hay, a su vez, tres posibilidades para predecir el desarrollo y el futuro del Universo según sean los valores que se asigne a la constante cosmológica. Esta cifra se conoce como Valor Critico .
Valor Crítico: Conlleva por sí mismo, estas consecuencias: Si la constante es negativa ( - ) hay una fuerza adicional que desacelera la expansión y si es positiva (+) y si es menor que el valor crítico, la repulsión resiste la desaceleración creada por la gravedad.
El Valor Crítico originalmente sugerido por Einstein en su modelo de Universo es justamente uno que haga un balance entre la atracción gravitatoria cuando las galaxias están en sus respectivas distancias (en el caso del Universo estático). Por lo tanto el Valor Crítico determina tres posibles Universos:
Universo X: Un Universo oscilante que comienza a expandirse rápidamente al tiempo cero, pero luego la expansión retarda, detiene y reversa el proceso. El Universo va hacia atrás hacia el estado en el cual originalmente explotó. Una causa de la desaceleración sería la atracción mutua gravitacional de la materia en el Universo. Pero ésta es únicamente una causa, si la constante cosmológica es cero (0). Sin embargo, si la constante es negativa ( - ) hay una fuerza adicional que desacelera la expansión y si es positiva (+) y si es menor que el valor crítico, la repulsión resiste la desaceleración creada por la gravedad.
Universo Y. Si la constante cosmológica es cero (0) y la atracción gravitacional continua para reducir la cantidad de expansión pero no es suficientemente fuerte para rebasarla, el Universo se expandirá para siempre, pero a una tasa constante.
Universo Z. Si la constante cosmológica es positiva (+) y mayor que el valor crítico, la expansión se acelerará y el Universo se expandirá para siempre.

Constantes Universales.- La posibilidad matemática que permite postular un Universo que termina contrayéndose, se estabiliza o se expande, depende -intrínsecamente- del Valor de las Constantes Universales.
Estas son la velocidad de la luz [c] y la Constante de Gravitación [G]. Si las futuras investigaciones varían estas constantes, será necesario un replanteo total del conocimiento del Universo.

Por el momento se asume, sin discusiones el valor de "c" como si fueran 300.000 Km. por segundo (dato aproximado) Respecto al valor de "q" está determinado por la densidad media Universal. Los cálculos deben tomar en cuenta, lógicamente que: si la constante cosmológica es cero (0) el Universo es cerrado y oscilante; si el Universo es abierto y se expande para siempre ello dependerá de si la Densidad Media Universal de la materia excede el valor crítico (que es una función de la presente modalidad de expansión (Constante de Hubble).

En 1932, Hubble reportó que esta Constante era de 530 kilómetros por segundo por megaparsec pero algunos años después los astrónomos han ido sucesivamente bajando este valor. ¿Qué significa esta observación comparada con la densidad media de la materia en el Universo?. Una manera de estimarlo es comparando la cantidad de luz recibida de todas las galaxias en el volumen determinado de espacio con el promedio de relación de la masa con la luminosidad (determinado de las observaciones de las galaxias individuales). Este promedio da alrededor de 12% de la densidad crítica.
Si por el contrario se tiene una relación masa - luz (suponiendo que las galaxias contengan suficiente masa para mantener los supercúmulos de galaxias sin desintegrarse), la densidad observada aumenta el 25 % del valor crítico. El factor que resta entre estas cantidades estimadas sugiere que la presencia de materia que no es visible en el presente es la formada de estrellas muy débiles, de agujeros negros, de gas de halos en las galaxias, y por el plasma en el espacio intergaláctico. Esta situación se conoce como "déficit de masa". Nota: En la actualidad el déficit de masa se atribuye a la presencia de “materia negra“, detalle que se verá en otros capítulos.

Déficit de Masa.- Para explicar el problema de “déficit de masa” que juega un papel muy importante en los cálculos en los cúmulos de galaxias se cuenta básicamente con tres opciones científicas. Estas son, según el estado actual de conocimientos astrofísicos:
a) El cúmulo está en explosión, no ligado gravitacionalmente,
b) Es además de la masa de las galaxias un sustrato de masa en el cúmulo no observable directamente, y
c) Las galaxias del cúmulo tienen masas mucho mayores de lo que hasta ahora se ha pensado, (probablemente en forma de halos masivos de estrellas poco luminosas o de neutrinos).

De hecho, se ha encontrado que el problema de la “masa faltante” existe en casi todos los grupos y cúmulos de galaxias, y que la magnitud del déficit crece al crecer el tamaño del cúmulo. El problema de la determinación de la masa de las galaxias y, más aún, el de la determinación de la masa de los cúmulos gigantes de las galaxias y de los supercúmulos de galaxias, tiene un efecto considerable sobre el problema del destino del Universo. Es necesario estimar que el resto de la “masa perdida” requiere que la diferencia sea el gas caliente intergaláctico que al parecer algunos astrónomos consideran es la fuente de radiación aceptada como fondo isotrópico en el Universo.
Ecuaciones.- En anexo al final de la obra se presenta una versión muy condensada de cuáles son las operaciones matemáticas que permiten combinar todos los factores mencionados

Conclusiones.- Para sacar conclusiones con base en este modelo es útil conocer otros valores reportados a finales de la década de los setenta que permiten conocer cómo varían los valores con los que trabajan los cosmólogos para predecir el origen y el destino del Universo. Nota: a modo de ejemplo, pueden considerarse estos datos empíricos,advirtiendo que obviamente se dan cambios de manera constante:
1978: El Universo se ha reconocido como “más antiguo” y de mayor dimensión por los trabajos del astrónomo norteamericano Sandage (Observatorio Hale) quien después de un largo y cuidadoso estudio ha concluido que la constante de Hubble, es de alrededor de 5.3 a 4.2. kilómetros por segundo por megaparsec, lo que implicaría que el Universo tendría alrededor de 19.4 millones de años.
1978: El objeto con mayor corrimiento al rojo identificado a principios de la década de los ochenta es el quasar QQ 172 descubierto por los radioastrónomos de la Universidad de Ohio, que está recediendo a una velocidad que es cercana al 91% de la velocidad de la luz. La distancia de ese quasar utilizando la constante Sandage - Hubble, según la rotación inglesa de considerar como "billón" al millón de millones: sería alrededor de 5.4 billones de parsec (017.6 billones de años luz, rotación inglesa). (Esto es que la luz del quasar QQ 172 ha estado viajando en el Universo casi desde la creación del mismo). El valor crítico de la densidad de la constante de Hubble para finales de la década de los setenta se determina en S x 10.-30 gramos por centímetro cúbico. A finales de 1979.
1979: Murray y otros astrónomos (Universidad de Harvard) han reportado a finales de los setenta, evidencias de emisiones de rayos X de supercúmulos de galaxias lo que implica de 5 a 10 veces la cantidad de masa presente en la fracción significante de la “masa perdida”.
1979: Los astrónomos norteamericanos Selden y Peebles (Universidad de Princeton) emplearon un nuevo método para estimar el porcentaje de densidad asociada con las galaxias y encontraron que la distribución de las galaxias muestran un valor preliminar que equivale al 70% de la densidad crítica. Este valor de la densidad crítica (cuando los elementos luminosos fueron formados por nucleosíntesis), en las primeras etapas del Universo pueden ser inferidos tomando en consideración la abundancia de deuterio interestelar. Dado que el deuterio se destruye en las estrellas, la única fuente razonable que explica la actual presencia de deuterio, es su formación en las etapas iniciales del Universo, a escasos minutos después de que este comenzó.
1979: El astrónomo norteamericano Tinsley (Universidad de Yale) ha evaluado la característica de posibles Universos consistentes con los datos obtenidos y con las posibilidades de existencia de estos Universos, si se asume que la constante cosmológica es cero 0) o si se asume que no es cero (0). Efectuados los cálculos, los resultados obtenidos indican que si la constante cosmológica es cero (0), la densidad estimada es fuertemente favorable hacia la predicción de un Universo abierto, que se expandirá para siempre. Si por el contrario la constante cosmológica no es cero (0), permite concluir que esto lleva a un Universo que puede ser abierto o cerrado, esto es infinito o finito y que puede por lo tanto expandirse para siempre o colapsarse.
Nota: A partir de ahora prescindiremos de la presentación de otros modelos de manera tan detallada, porque la aparición de publicaciones crece de manera exponencial y los astrónomos suelen ser de imaginación desbordada. Sin embargo presentaremos algunos modificaciones a conocimientos ,lo que ha incide en la elaboración de modelos.

.- CRÍTICAS A LA COSMOLOGÍA DE LA ÉPOCA

Pasada la refriega intelectual entre postulantes de las teorías rivales ahora los cosmólogos deben enfrentarse a otras críticas que abarcan muchas facetas. Las principales se suelen centrar en seis o siete áreas muy sensibles que se han ido resolviendo poco a poco, pero que van dejando muchas “dudas en el camino”. Así como en los primeros momentos de la historia de la humanidad, las creencias populares reflejan el desconocimiento en áreas empíricas; resulta que aún hoy, se suele arrastrar mucha ignorancia en la forma de pensar acerca de materias abstractas como las que manejan la astronomía y la cosmología, lo que suele convertirse en un lastre para una comprensión del público general hacia los avances en este campo.

Un tipo de crítica de problemas es intrínseco a la estructura y funcionamiento de nuestra mente; al aprisionamiento de nuestro intelecto y a las limitaciones físico - sensoriales que deben trasegar, interpretar y extrapolar datos e información muy variada y compleja para dar explicaciones aún más complejas, pues con las limitaciones del lenguaje a veces solo es posible crear como “caricaturas” de lo que se trata de explicar. De allí que al lector lego que trate de correr la aventura de incursionar en ese campo le parecerá que está subido en la Torre de Babel -o si se desea la versión modernista viajando con “Alicia en el País de las Maravillas” del escritor Alexis Carroll- junto a “la sonrisa del gato de Cheshire”, celebrísimo ejemplo sacado a colación por los cosmólogos cuando desean explicar algo difícil en sencillo, pero siempre con base en analogías enigmáticas. A este tipo de crítica no se le puede enfrentar con éxito hasta tanto no se popularicen nuevas metodologías de transmisión del conocimiento.

Un segundo tipo de crítica se fundamenta en el arrastre mental de conceptos que se toman como absolutos y la razón se niega a aceptar los sustitutos y las variaciones, cuando los primeros están arraigados en la cultura colectiva y en el subconsciente personal. Y es lógico que el ser humano se aferre a aquello que habiendo entendido pasa a ser parte de su seguridad y que cuando éste concepto se le derriba; junto a él cae su seguridad y tenderá por tanto a rechazar el nuevo concepto más por razones psicológicas que científicas. Quizá esta situación envuelve la forma misma en que los científicos de la cosmología suelen dar a conocer sus modelos abstractos, tratando de usar símiles de aspectos conocidos no solo para facilitar su comprensión, sino para minimizar el riesgo de los rechazos por el miedo al derrumbe de parámetros de seguridad psicológica.

Precisamente el ingeniero español José Pirrone en su obra “La Estructura del Universo” dedica parte substancial de su contenido a glosar los problemas tanto semánticos, geométricos, lógicos y psicológicos que plantea la utilización que califica de “muy liberal” de ciertos conceptos por parte de los cosmólogos. Una simple mención de estos se resume en estos ejemplos:

a) Confusión en las representaciones geométricas (mal uso del concepto hipérbole, por ejemplo)
b) Negativa a utilizar la geometría euclidiana y preferir el uso de una geometría multidimensional que califica de “eleusina” (esto es apta solo para iniciados en los grandes secretos).
c) Confusión en el uso indistinto de los términos “rayo de luz” y “haz de luz” (para referirse a la atracción de ésta, por parte de cuerpos masivos).
d) Exageración al señalarse que “toda luz de masa proyectada” por un cuerpo esférico es desviada hacia el infinito “cuando pasa cerca de un cuerpo masivo”.
e) Afirmación absoluta de la tesis de la expansión como un dogma irrefutable.
f) Utilización liberal del concepto “función de onda” en la línea de la “Escuela de Copenhague” para referirse al comportamiento de las partículas atómicas.
g) Aceptación de la teoría de los quarks.

Desde otra perspectiva el filósofo de la ciencia, el italiano Evandro Agazzi asegura que en la actualidad el estado de formulación de teorías físicas (se refiere específicamente a las formuladas con base en el relativismo y la cuántica), se encuentran en una etapa de gran atraso, justamente por la carencia de la axiomatización, que si existía en la física clásica.
En consecuencia: no basta acudir a la lógica común para entender el lenguaje cosmológico -no por ser un lenguaje especializado como podrían serlos los tecnicismos usuales en la medicina, la microbiología, el derecho y la economía - para designar órganos, procesos, actos y predicciones, porque lo que separa al lego de estas formas especializadas de expresión son palabras únicamente y haciendo el esfuerzo de aprenderlas entenderá la concatenación de procesos. Tratándose de cosmología hay una barrera profunda para que el lego pueda trasegar con conceptos abstractos relativistas y cuánticos contrarios a las ideas asequibles de la física clásica lo que hace muy ardua -sino imposible- su “visualización mental” para comprenderlos.

Sin embargo todos estos conceptos - que no son fácilmente entendibles - constituyen justamente la materia con que se ha de construir la nueva cosmología ahora y en las décadas siguientes con lo cual el panorama se complicará aún más, para aclararse en los próximos veinte o treinta años (según cálculos muy optimistas de algunos cosmologistas); o bien para enmarañarse conforme se van descifrando algunos enigmas (como piensan con pesimismo otros cosmologistas).

Estado del Conocimiento.- Durante la década de los setenta el conocimiento astronómico muestra un marcado ascenso en varias ramas: una es el afianzamiento de la cosmología del B.B.; otro es el crecimiento impresionante de la astronáutica y los viajes espaciales de norteamericanos y soviéticos y un tercer elemento es la proliferación con bastante libertad -no sujeta al conocimiento academicista más conservador- de ideas científicas relativas a los primeros momentos del B.B., con base en extrapolaciones matemáticas de las teorías relativistas y cuánticas. Estos tres elementos impactan positivamente a la cosmología que toma gran auge y comienzan a destacarse ciertos investigadores originales.

Justamente el historiador francés, catedrático de la Universidad de Nanterre, Renee Tatton afirma respecto al progreso científico:
1.- Su sentido general está a menudo encubierto por períodos de relativo estancamiento, incluso de aparente retroceso; en otros, por el contrario, el progreso parece acelerarse, provocando la renovación de vastos ámbitos científicos o mostrando las relaciones existentes entre diversos sectores del conocimiento. El descubrimiento científico se presenta de hecho desde aspectos muy diversos, que dependen del dominio en que se realiza (matemático, teórico o experimental), del temperamento, formación y saber de su autor y, finalmente, de las circunstancias más o menos favorables en que se desarrolla.
2.- La realización de un descubrimiento científico presupone la posesión por parte de su autor de innegables cualidades de método científico y de intuición; es decir, de un genio muy particular, necesario para la elaboración de grandes síntesis o de teorías audaces. Por otra parte, todo descubrimiento de cierta envergadura se enfrenta con resistencias a veces muy vivas; para emprender la lucha necesaria contra la rutina y los prejuicios, el sabio debe mostrar gran audacia intelectual.
3.- Pero aunque en este combate se encuentre en ciertos momentos algo aislado, no por ello deja de ser heredero de sus predecesores y de sus contemporáneos. En efecto, la ciencia de una época es el resultado de las aportaciones sucesivas de numerosas generaciones de investigadores, tanto de los genios como de los oscuros servidores de la ciencia. En su presentación, en sus objetivos, en sus aplicaciones, esta ciencia refleja las preocupaciones de la civilización del momento.”

.-AVANCES TEÓRICOS EN LA COSMOLOGÍA

En el período examinado destacan cuatro esfuerzos teóricos:
a) La búsqueda de una teoría del “Todo”, (Theory of Everything) ,que desemboca en la Teorías de Cuerdas y luego en la de Supercuerdas o Cordones Cósmicos.
b) La clarificación del papel de la Segunda Ley de la Termodinámica en lo que respecta a la Entropía y la Información.
c) El lanzamiento de la idea de la creación a partir de la “nada”;
d) El postulado de la inflación como un mecanismo probable que permite manejar mejor algunas incongruencias del modelo estándar B.B.
e) En el campo de los avances tecnológicos, aunque el área de la tecnología observacional muestra hechos de gran espectacularidad, que han ido ampliando cada vez más la llamada “ventana cósmica” por la índole de esta obra nos limitaremos a hacer una brevísima secuencia histórica que nos permita conocer como se desarrolló este campo.

Aunque la selección es arbitraria pues en poco espacio no es posible presentar más que unas pinceladas de cada tema; al menos, al final de su lectura, es posible comprender cuáles eran las principales inquietudes en este período que ocupan la mente de los cosmólogos en su camino de búsqueda de la verdad. Es preciso señalar que estos cuatro aspectos teóricos se desarrollan durante la época en estudio de manera concatenada, aunque su origen es diferente, y es que en la búsqueda de una explicación científica para la hipótesis del inicio del Universo, los físicos ensayan varios acercamientos, algunos de avance lento y otros bien caracterizados por la fugacidad de su presencia. En el caso de los cuatro ejemplos seleccionados arbitrariamente se mantienen vigentes aún al cierre de esta obra.

A.- EN BUSCA DE TOE.- La unificación de las cuatro fuerzas conocidas en la Naturaleza: (fuerza electromagnética, fuerza gravitatoria, fuerza nuclear fuerte, fuerza nuclear débil) es una labor que obsesiona a muchos cosmólogos, entre ellos el físico inglés Stephen W. Hawking, quien, a pesar de su enfermedad degenerativa - Esclerosis Amiotrófica - que lo tiene casi totalmente paralizado - quiere completar un sueño.

Su meta es unificar en un sólo cuerpo de conocimiento las dos grandes teorías de la física del siglo XX: la Relatividad y la Mecánica Cuántica, porque cree en la unidad de las leyes que gobiernan el Universo, en las escalas más pequeñas y las más grandes ya que los físicos están buscando una teoría unificada de las fuerzas de la naturaleza y han encontrado que la historia y el destino del Universo están escritos en cada átomo.

El Universo está aquí y ahora, en los propios átomos que componen cada una de las letras de esta página. Si se toma esta “A” y se amplía un millón de veces, se puede ver las moléculas de la tinta con que está hecha. Si se magnifica mil millones de veces más, es posible ver los átomos de las moléculas que la componen. Si se selecciona un átomo y se le amplia diez mil veces, ya se está dentro del núcleo, y el núcleo se puede dividir en partículas y así sucesivamente.

Tales percepciones profundas - un tiempo propias de poetas y filósofos - ahora son objeto de investigación de la física, que entre todas las ciencias es de las más básicas, puesto que estudia las leyes fundamentales del movimiento de la materia. Y materia no es sólo esa visión intuitiva del cuerpo en masa, sino todo aquello que existe fuera de la conciencia. Las llamadas “teorías unificadas” tratan de llevar a cabo una comprensión científica de cómo la naturaleza funciona, desde lo infinitesimal a lo supergaláctico. Estas teorías se expresan en ecuaciones matemáticas e implican que todas las fuerzas conocidas en la naturaleza son manifestaciones de una interacción básica y que en un tiempo muy lejano formaban parte de una fuerza o de un proceso universal único.

En esa indagación se ha empeñado el cosmólogo inglés Stephen W. Hawking, pionero de la teoría de los agujeros negros y de la teoría del Universo salido de la nada y quien además tiene el mérito de conciliar la Teoría de la Relatividad de Einstein con el Principio de Incertidumbre de Heisenberg, elemento clave de la Mecánica Cuántica en busca de la “cuantificación de la gravedad”.

El reto de Hawking -quien empieza a adquirir notoriedad en los sesenta- es terminar su teoría. Pero, como señala la revista Newsweek en el artículo “Master of Universe”: “El no puede hablar, no se puede mover, se comunica a través de un sistema de computadora que tiene en su memoria unas 2.600 palabras. Con sus dedos (lo único que puede medio accionar) presiona los controles de la máquina y esta transforma los impulsos en lenguaje, como una paradoja más de las tantas que tiene la física, “pero con su poderosa e intacta mente las “nuevas fronteras de la física” están dentro de ese cuerpo enfermo.

Por muy loable que sea la labor de Hawking y lamentable su estado de salud, el conocimiento seguirá produciéndose por el concurso de otras mentes. No es la primera vez que el hombre trata de encontrar una fórmula totalizadora (actualmente llamada TOE - Theory of Everything - ) que permita descifrar el Universo.

Esta pretensión ha conocido varios intentos previos. A juicio de los cosmólogos ingleses Paul Davies y Julian Brown la historia registra entre otros los siguientes intentos pasados y actuales:
1.- Los planteamientos de Leucipo y Demócrito: que en una lectura moderna dice, “El mundo consiste únicamente de átomos. Hay diferentes tipos pero todos son elementales en el sentido de ser impenetrables e indestructibles; sin partes internas; son muy pequeños para ser observados directamente y por estar en un estado de movimiento continuo en la materia; el choque entre átomos causa que se peguen unos a otros, causando la impresión de continuidad de la materia y cualquier cambio en el mundo físico debe ser atribuido al reordenamiento de estos.”
2.- La Idea de Laplace: En su época inventó lo que él denominó un “demonio calculador” que tendría estas características: “Un (ser) inteligente, conocedor de cualquier instante dado en el tiempo, con todas las fuerzas actuantes en la naturaleza, así como en las posiciones momentáneas de todas aquellas cosas que conforman el Universo, con la capacidad de comprender el momento de los objetos del macrocosmos y de los elementos del microcosmos, todo en una sola fórmula, provisto de suficiente poder para sujetar toda la información al análisis sin dejar nada en la incertidumbre y con ambos -pasado y futuro- siempre presentes ante sus ojos.”
3.- La Pretensión de Kelvin: En su discurso de cierre ante la Asociación Británica para conocer el estado de avance de la ciencia a finales de 1900 expresó: “Nada nuevo queda por descubrir a la física ahora. Todo lo que queda es hacer más exacta a la física ahora. Todo lo que queda es hacer más y más precisas las mediciones”.
4.-Teoría Fundamental de Eddington: En 1923, públicamente Eddington dijo: “He encontrado la Teoría Fundamental.” (Se trataba de una curiosa relación numérica que siguió siendo trabajada hasta 1946, año en que ocurrió su deceso)”.
5.-Teoría del Campo Unificado: Durante los años treinta y hasta su muerte, Einstein los pasó buscando la Teoría del Campo Unificado, basado en una descripción geométrica de la Naturaleza para tratar de encontrar la forma en que la masa afecta el espacio - tiempo.
Por cierto que tratando de encontrar soluciones a su teoría de campo se han postulado derivaciones de diversa índole algunas debidas a Einstein, las otras a diferentes físicos: entre ellas se encuentran las deflecciones de la luz al pasar por un campo masivo, la existencia de estrellas de neutrones, agujeros negros, comportamientos “extraños” de la materia en condiciones límite, e incluso “agujeros blancos” y hasta “máquinas de tiempo”, y todas estas derivaciones, son presentadas no en la geometría clásica sino en espacios de varias dimensiones. Esta abrió nuevos campos de investigación para ubicar la busca de la unificación.
6.-Teoría de Cuerdas (también conocida como de fibras cósmicas) : Este es el intento actual cuyo inicio se remonta a finales de los 60, como una idea de Gabrielle Veneziano, quien al tratar de explicar algunos problemas de “resonancia” de partículas subatómicas propuso un modelo ad hoc, como un simple procedimiento matemático y que resultó la descripción cuántica del movimiento propio de una cuerda (mientras antes las explicaciones se daban en términos de partículas). Este modelo resultó ser exitoso para describir problemas de subpartículas conocidas como hadrones.
7.-Teoria de Supercuerdas .En 1970 los físicos John Scharz y André Neveau proponen una segunda teoría de cuerdas para describir el comportamiento de otras subpartículas llamadas fermiones. Luego de muchas vicisitudes a finales de los años sesenta - la teoría - ahora conocida como Teoría de Supercuerdas busca convertirse en la Teoría del Todo (TOE, en inglés), gracias a los refuerzos teóricos provenientes de Weinberg, Salam, Witten, Glashow, Higgs, Hawkings y otros. A juicio de Davies y Brown: “En los últimos años esta sorprendente teoría que ha capturado la imaginación de los físicos promete proveer la unificación de todas las fuerzas, todas las partículas fundamentales de la materia, el espacio y el tiempo - en pocas palabras - una Teoría de Todo. Lo relevante de la teoría señala que el Cosmos está hecho nada más que de pequeñas cuerdas, puede parecer absurdo, pero el fundamento matemático es fuertemente consistente con el mundo real.”

B.- ENTROPIA E INFORMACION.- El proceso térmico conocido como Ciclo de Carnot que el ingeniero francés Carnot plantea, en 1824 ,da paso posteriormente al Teorema de Rudolf Clausius ( también conocido como Segunda ley ) en 1850 y luego ambos son retomados por el físico austriaco Boltzmann ( 1844-1906 ) quien establece la Constante que lleva su nombre relacionando la Temperatura Absoluta y la Energía ,y juntos se constituyen en las bases de la Ciencia de la Termodinámica actual. Estos planeamientos son fundamentales para conocer el futuro del Universo, porque están íntimamente relacionados con la forma en que operan las cuatro fuerzas básicas. El enunciado de Entropía señala: “La entropía puede definirse como la ausencia de desequilibrio, cuando tal desequilibrio o energía disponible, desaparece, la entropía aumenta. Entonces es posible afirmar que la entropía en un sistema cerrado tiene la tendencia a aumentar. Pero si se desea ser preciso para incluir casos excepcionales en que la entropía permanece igual se puede señalar que la entropía de un sistema cerrado nunca decrece".

Cuatro Fuerzas.- Los físicos cuentan cuatro fuerzas distintas en la naturaleza que operan en el proceso de formación del Universo:
fuerza gravitatoria, que une a planetas, estrellas, galaxias
fuerza electromagnética, que une átomos y moléculas
fuerza nuclear fuerte ,que que une los núcleos de los átomos
fuerza nuclear débil, que en esta época es menos conocida.
Las tres primeras están en condiciones de engendrar estructuras estables y el principio de la unión es siempre el mismo. Asociando los elementos, la fuerza transforma en energía una parte de su masa. Esta energía, llamada de unión, es arrojada al espacio, generalmente en forma de protones, el sistema así constituido es menos masivo que la suma de los elementos iniciales. Es también, por lo general, más complejo; se sitúa en un peldaño más elevado de la pirámide de la organización de la materia que va de lo simple a lo macro conocido. Los fotones transportan consigo la entropía que deben pagar por esta fase de organización.

De este modo, las tres fuerzas mencionadas más arriba desempeñan un triple papel en el crecimiento de la complejidad y son responsables de las asociaciones de partículas y cimientan las estructuras organizadas de la materia (núcleos, átomos, moléculas, células, organismos, y también planetas, estrellas, galaxias).

Los vínculos creados transforman la materia maciza en fotones luminosos. Estos fotones son portadores de energía utilizable para los intercambios y la concepción de sistemas todavía más complejos. Llevan también la entropía que se desprende para acompañar el aumento de la complejidad. Dondequiera que se observa la entropía en un sistema que decrece, puede concluirse que ese sistema debe ser parte de otro sistema mayor dado que un incremento en la entropía es un aumento en la “cantidad de tiempo”.

La segunda ley permitió a Arthur Eddington llamar a la entropía una “flecha” del tiempo en el mundo subatómico, puesto que la segunda ley de la termodinámica permite deducir que hubo menos entropía en el pasado y habrá más en el futuro. Sin embargo a juicio de Davies este concepto debe verse con cuidado porque: “la luz del aumento de la entropía no es de carácter fundamental ( o cosmológica, esto es debido al origen del Universo ) sino estadística”; y, en apoyo de su tesis utiliza las palabras del físico John Wheeler: “Preguntad a una molécula que piensa respecto a la segunda ley de la termodinámica y se reirá de la pregunta...”, lo que en otras palabras significa que una molécula no sabe distinguir entre dos direcciones del tiempo.

La detección de esta característica intrínseca a la materia fue lo que precisamente permitió al físico norteamericano Richard Feyman, alumno de Wheeler, recibir en 1949 el premio Nobel en Física, gracias a su observación del comportamiento de las partículas, sugiriendo que - en ciertos casos la “reversión” en la flecha del tiempo se observa en el mundo subatómico. Pero Davies concluye que: "el hecho que en el mundo subatómico la reversión de la flecha del tiempo se presente; no aplica al macrocosmos".

Papel Crítico de la Temperatura.- El cosmólogo y físico de partículas francés Hubert Reeves correlaciona entropía con información y el papel de la temperatura para señalar la cadena de acontecimientos interrelacionados entre sí que permiten una hilación de continuidad entre el pasado en el comienzo del Universo y su transformación en Vida en la Tierra. Las estructuras escalonadas en la pirámide de la complejidad deben su cohesión a la existencia de fuerzas de la naturaleza.

Pero, para crear la variedad y la diversidad, la acción de estas fuerzas debe ejercerse en condiciones de desequilibrio. Estos equilibrios provienen del hecho de que el Universo, hoy, está en un estado de sobrefusión con respecto a las grandes fuerzas estructurantes. Podría decirse que la fuente de la información cósmica reside en el hecho de que la materia, aunque sometida a las fuerzas naturales, sólo muy parcialmente ha sucumbido a ellas. A lo largo de las eras sucumbe progresivamente pero con considerables retrasos. En vez de reducirse, estos retrasos aumentan con el tiempo. Con ellos se alejan indefinidamente los estados de estabilidad máxima .Al margen del contexto de equilibrio, los resultados de los acontecimientos de la naturaleza son parcialmente imprevisibles, por lo que, Reeves señala que :” De ahí nace lo inédito del presente” .

La propuesta que formula Reeves se fundamenta en estas conclusiones:

a) Por causa de la temperatura extremadamente elevada de los primeros tiempos del Universo, las interacciones nucleares en el "puré cósmico" son ultrarrápidas. Se forman núcleos que se disocian en seguida, en la esterilidad del equilibrio. La temperatura afecta profundamente el curso de las reacciones de captura y disociación. Las duraciones de tales reacciones se alargan cuando el puré se enfría. Hacia el primer minuto, cuando la temperatura desciende por debajo de los mil millones de grados, algunos núcleos están en condiciones de resistir el calor. Núcleos de helio van a perdurar por primera vez en el Universo. Este acontecimiento, llamado nucleosíntesis primordial, produce como resultado la transmutación de aproximadamente, una cuarta parte de la materia cósmica en helio. El resto permanece en estado de protones y, más tarde, se convertirá en el hidrógeno universal.

b) A temperaturas más elevadas, los nucleones son libres, como las moléculas de agua de un líquido. Por debajo de estas temperaturas, la fuerza nuclear los fija juntos. De ahí la pregunta: ¿Porqué la fuerza nuclear no transformó todo el puré cósmico original en cuanto la temperatura permitió la “congelación” de la materia en núcleos atómicos?... Si la expansión del Universo hubiera sido más lenta, la materia cósmica se habría transmutado por completo en núcleos de hierro, porque en los hornos estelares, la transmutación del hidrógeno en hierro exige períodos muy largos. Aquí, en el mejor de los casos, se tienen unos minutos. No es sorprendente que la obra permanezca inconclusa, que la fuerza nuclear no agote sus posibilidades.

c) El hidrógeno, respetado por el estado de desequilibrio nuclear, se convertirá en el principal carburante de las estrellas. Les asegurará las largas duraciones indispensables para que emergiera la vida. En un Universo de hierro, las duraciones de las estrellas se cifrarían en millones más que en miles de millones de años. La elaboración de las moléculas gigantes se vería doblemente comprometida. Primero por la ausencia de átomos de hidrógeno, de carbono, de nitrógeno y de oxígeno. Y aún suponiendo que una pequeña cantidad de esos átomos se hubiera salvado, esta gestación se vería todavía dificultada por la duración, excesivamente corta, de las estrellas nodrizas. El Universo sería muy distinto y la humanidad, sin duda alguna, nunca habría aparecido.

d) Las fuerzas nucleares despliegan sus efectos en distancias extraordinariamente pequeñas que no superan las dimensiones de los núcleos atómicos (10-13 cm). La fuerza electromagnética extiende su influencia a la estructura de las moléculas gigantes. El alcance de la fuerza de la gravedad parece sin límites y actúa en dos niveles: Interviene sobre la materia cósmica en su conjunto. Esta acción se manifiesta en el vasto movimiento de expansión del Universo. Interviene también de modo más local, en las capas de materia dispersa que reúne para convertirlas en galaxias y estrellas. Nada puede neutralizar el efecto de la gravedad a escala universal. En cambio, el calor excesivamente intenso de los antiguos tiempos desalienta todo esfuerzo de condensación de materia a escala local, lo que permite concluir que termodinámicamente somos el resultado de estos procesos:

UNO: etapa de formación inicial del Universo
1. Cualquier veleidad de aislamiento, de fraccionamiento, de contracción de una parcela del puré inicial, en galaxia o estrella embrionaria, se ve inmediatamente reprimida y anulada por la acción del calor inicial. Los “grumos” se reabsorben y la materia cósmica recupera en seguida su textura homogénea. Los “limbos térmicos” de los primeros tiempos del Universo paralizan la gravedad (a escala local), como paralizan lo nuclear y lo electromagnético. La fuerzas están ahí, pero son incapaces de reunir, de asociar partículas para convertirlas en núcleos, moléculas o estrellas.
2. En el momento de la emisión de la irradiación fósil, la fuerza de gravedad puede iniciar la formación de las galaxias y las estrellas. La temperatura correspondiente - tres mil grados - desempeña, para la formación de las grandes estructuras astronómicas, un papel análogo al de cero grados Celsius para la congelación de lo nuclear. En este período, electrones y protones del puré cósmico se combinan y crean los primeros átomos de hidrógeno. Este acontecimiento es acompañado de varios efectos cosmológicos. Primero, la emisión de la irradiación fósil que ha transmitido la más vieja imagen del cosmos. Segundo, un cambio fundamental en la propia naturaleza del puré para originar el plasma.
3. Del estado de plasma en el que se encontraba antes de la captura de electrones por los protones y la formación de los átomos neutros de hidrógeno, el puré pasa, en este período, al estado de gas. En consecuencia, el Universo en este instante se hace transparente a la irradiación. Los fotones emitidos ya no tienen prácticamente ninguna posibilidad de ser absorbidos en el futuro. De ahí la posibilidad, para ellos, de llegar hasta nosotros y ser detectados por nuestros aparatos de medida.
4. El calor inicial pierde prácticamente toda su potencia cuando los electrones se combinan con los protones. Su influencia “niveladora” se ejercía, esencialmente, gracias a la interacción entre la luz y los electrones libres (ahora desaparecidos), por ello, ahora las galaxias pueden condensarse. Como la fusión de los átomos y la asociación de las moléculas, la formación de los astros requiere tiempo, mucho tiempo. De hecho, aquí nos enfrentamos con uno de los problemas de la astrofísica contemporánea: ¿cómo nacen las galaxias?.

DOS: etapa de formación de galaxias:
5. El fenómeno se inicia -al menos se supone- en las fluctuaciones de densidad del puré cósmico (liberado ahora del impedimento térmico). A un ritmo muy lento al principio, esos “granos” de galaxias se condensan bajo el efecto de su propia gravedad que va creciendo con la contracción. El mecanismo se amplifica, se acelera y actúa como una “bola de nieve”.
6. Tras la emisión de la irradiación fósil, el Universo entra en un período de sobrefusión gravitacional. Y eso requiere miles de millones de años. Como los núcleos y los átomos, las estrellas son menos masivas que la suma de sus constituyentes aislados. La masa desprendida se emite en forma de fotones que transportan a lo lejos energía y entropía. (Según una convención precedente, se conoce como entropía gravitacional a la que es vehiculada por los fotones estelares).
7. Los cosmólogos del B.B. no pueden menos que maravillarse de la existencia del desequilibrio inicial, porque la rapidez de la expansión impidió cualquier posibilidad de alcanzar el estado de estabilidad nuclear máxima. Este desfallecimiento de la fuerza nuclear en su conservación del estado de equilibrio dará origen a la información nuclear que existe hoy en el cosmos.
8. El estado de entropía gravitacional máximo del Universo se alcanzaría si la materia celeste existiera por completo en forma de agujeros negros. Las estrellas que dispersan sus fotones coloreados son resultado de una congelación retardada de la materia cósmica. Desde la emisión de la irradiación fósil, el puré inicial, en estado de sobrefusión gravitacional, efectúa su lenta transición hacia los estados estables llamados “cadáveres estelares”.
9. La estrella utiliza la información gravitacional para contraerse y crear localmente, los gradientes de temperatura tan importantes para la vida terrestre. Cuando la temperatura central alcanza algunos millones de grados, las reacciones nucleares toman a su cargo la emisión de energía luminosa, frenando así la contracción o el caldeamiento de la estrella.
10. Sin la información nuclear, engendrada en el momento de la nucleosíntesis primordial, las estrellas existirían, pero serían de muy corta duración. Sin la información gravitacional, creada cuando se emitió la irradiación fósil, la energía nuclear sería inutilizable por falta de crisoles apropiados.

Teoría de la Información.- En 1948 el físico y filosofo de la ciencia norteamericano Claude E. Shannon (1914- ) enuncia una teoría que si bien tiene impacto en las comunicaciones, se refiere igualmente a la emisión de información en un sistema cerrado , así como a la posibilidad de pérdida de la información que circula por este sistema, debido a la entropía o desorden en que este se encuentre. En comunicación social se suele señalar que cuando se emite una señal esta puede ser percibida adecuada, o inadecuadamente, dependiendo del “ruido” o interferencia existente en el sistema.
Si se traslada el concepto al Universo se entiende que la información emitida al inicio del Universo se transmite total o parcialmente dependiendo de la cantidad de entropía existente en el sistema. Pero se asume que dado que el universo nace, se modifica y persiste la entropía debe ser controlada, para que no anule o interfiera con el proceso. Esto plantea un gran problema: cómo se las arregla el Universo para mantener el sistema bajo control, pese al aumento de la entropía o desorden, esto es a la aparición de materia mas y mas evolucionada y por tanto más compleja ?.
En teoría para que el Universo exista tal y como lo conocemos (aunque no lo entendamos, que es otro asunto) debió haber anulado el proceso de desorden ( entropía) por el cual ha pasado. En consecuencia ha debido haber una información “guía” o madre en todo el proceso que ha tomado miles de millones de años, que se ha conservado intacta para permitirle al Universo evolucionar hasta permitirnos a los seres humanos ser capaces de estudiarlo, elaborar teorías sobre su existencia y predecir su eventual final.
Este es un verdadero “connundrum” (enigma o misterio) para el conocimiento ,salvo que se admita que la información inicial se almacena en cada una de las partes que lo integran en ese momento y que puedan-además-transmitirse hacia el futuro-sin importar la complejidad de ese futuro y los cambios que se sucedan.
A efecto de mantener el estudio de esa información dentro de los cánones de la ciencia y de no incluir “parámetros” ocultos algunos cosmólogos no atinan a plantear soluciones exactas. Por eso es que , años posteriores surgen soluciones tales como la “teoría” del caos” o el planteamiento de que el Universo es una Holografía, ( cada parte resume el todo) . Estas ideas implicarían que todo obedece a una ley universal que se mantiene pese a los cambios sucedidos. Sobre este tema volveremos en los capítulos ,posteriores.


C.- CREACION A PARTIR DE LA NADA.- El concepto “nada” en el habla común, tiene varios significados y por tal razón debe entenderse correctamente lo que se infiere de la expresión “creación de la nada” (o “ex - nihilo” término latinizado de uso similar), por ejemplo:

1. El Diccionario de Expresiones y Frases Latinas de Víctor - José Herrero acoge esta expresión: “Ex - Nihilo Nihil”, atribuida al poeta Lucrecio que compendia la creencia popular sensible (comprobada por los sentidos e intuida por la razón) de que - efectivamente de la nada, nada puede obtenerse; pues es obvio que la nada es lo “no existente”). Otra versión atribuye el concepto al filósofo de la Escuela Eleática, Meliso - compañero de Zenón y Parménides. De todas maneras, esta expresión parece era compartida el vulgo por los griegos. La definición enciclopédica Larousse, respecto a “nada” dice: “El no ser, lo que no existe”.

2. Desde la antigüedad, el ser humano ha experimentado recelo hacia la “no existencia”, hacia la nada y por lo tanto hacia lo “vacuo”, (el vacío). Este horror al vacío, en parte explica la incesante búsqueda de la armonía, de la perfección visible en los esfuerzos de los filósofos pitagóricos por encontrar números y figuras “cerradas” pero que no es privativo de los pitagóricos, sino práctica cultural universal (en la que por cierto sobresalen las concepciones de los mayas primitivos en América Central). Este mismo concepto es llevado a la formulación de órbitas perfectas, lo que explica el uso del círculo y la resistencia a aceptar otras formas “imperfectas”.

En la antigüedad, plantea el filósofo e historiador de la ciencia, F.P. Dickson: “Un principio (del Universo) a partir de la nada absoluta, del Vacío, era inconcebible. En consecuencia, los cosmogonistas hubieron de postular una primordial material informe, el Caos, para llenar el Vacío, material cercano a la Nada. Como en nuestros propios tiempos ha dicho Eddington, es imposible distinguir entre la nimiedad ("sameness" en inglés) indiferenciada y la no existencia. Generalmente se escogió al agua como esa base informe de la creación. En muchos aspectos, fue una buena elección; el agua, en sí misma, es informe y uniforme, es esencial para la vida, y a los antiguos observadores debió de parecerles que en el mundo había más agua que ninguna otra cosa. Pudieron visualizar la sólida tierra flotando en un océano sin límites; ríos, lagos y fuentes que demostraban que en la Tierra había agua y, obviamente, había agua en los cielos”.

A partir del agua, se supuso que la creación ocurrió mediante un proceso de diferenciación: “Los opuestos divinos, que, juntos, no habían sido nada, pues el uno cancelaba al otro, se separaron en las aguas. Una vez separadas, estas divinidades tuvieron poderes que podían ejercer de varios modos. Uno de éstos fue una serie de parciales recombinaciones que hicieron nacer numerosas familias de dioses y diosas, en quienes pudieron delegar la construcción del mundo real en que viven los hombres. El establecimiento final del orden mundial surge por medio de la guerra entre los dioses ancianos y los jóvenes. (Bien puede ser que esta pugna celestial esté basada en tradiciones raciales que se remontan a los tiempos en que los antepasados de los cosmólogos sometieron a poblaciones aborígenes de las tierras en que se aposentaron, o las echaron de ellas).”

En la época moderna y ya en el campo de la física, el horror al vacío explica la búsqueda cosmológica de una sustancia que llene los espacios entre los cuerpos celestes y se le ha llamado “éter”, “extensión” y aún “continuun espacio - tiempo” (si se acepta la idea que este concepto einsteniano tiene un trasfondo más metafísico que físico).

Sin embargo -y en contra de esas ideas- en los aceleradores de partículas que manejan problemas de partículas subatómicas es hecho conocido - y por lo tanto rutinario - que en sistemas cerrados con cargas netas pequeñas de energía, aparecen de la nada - partículas virtuales, cuya vida es brevísima y luego desaparecen. Esas apariciones (denominadas fluctuaciones) si se trata, por ejemplo, de un par electrón - positrón tienen una duración en el tiempo de 10-21 segundos y suelen aparecer espontáneamente.

Pero ahora a mediados de la década de los setenta la física cuántica plantea la creación del Universo a partir de la nada, lo cual, desde el punto de vista científico acarrea problemas, por cuanto significa dejar de lado el sacrosanto principio de la “conservación de la materia”. En efecto cuando el físico Edward P. Tryon, de la Universidad de Nueva York postula en 1973, como de la nada se origina toda la materia del Universo, en realidad lo que hace es extrapolar un fenómeno subatómico a lo macro y nada menos que a la aparición del Universo.

Ahora bien, en los casos de choques de partículas de signo contrario aparecidas de la nada, como resultado de las fluctuaciones cuánticas, los físicos atomistas recalcan que la consecuencia es la producción de “energía pura”. Si en el estado actual de los medios que de que se dispone en física, es imposible conservar la materia negativa, es decir el antiprotón, el antineutrón, el antielectrón y así por el estilo, ya que estos se anulan transformándose en “energía pura” en el choque con la partícula opuesta, ¿significa acaso todo esto que su “corporeidad” deja de existir y desaparece en la nada inmediatamente después de haberse transformado en energía?. La energía pura es ella también una entidad. ¿Entonces cómo puede actuar y producir fuerza si se la define inmaterial o si se supone que se anula después de haberse manifestado y de haber producido un fenómeno de fuerza, de calor o de impulso?.

No es fácil suponer o imaginar que algo pueda aniquilarse ni siquiera sufriendo un violento cambio de estado. Pero el científico no opera sino con base en datos de hecho surgidos de sus escrupulosas indagaciones de cálculo u de laboratorio: si la partícula de materia o de antimateria, el electrón y el positrón, argumenta, chocan y a causa del choque pierden sus masas emitiendo dos rayos gamma de energía pura, es decir sin masa, esto significa que la masa ha desaparecido, se ha aniquilado. Esto es lógica cojeante, pero lógica al fin y al cabo de manera distinta opera el pensador. Sus armas no son el acelerador de partículas o la probeta, sino la intuición, la abstracción, la imaginación racional. Por esto es imposible para él admitir, “ab - absurdo”, que una partícula de materia, sea de signo positivo o negativo pueda, transformándose, anularse, desmaterializarse, perder sus características físicas y desaparecer.

Precisamente ese es el criterio del ingeniero español José Pirrone: “Hemos establecido el principio de la eterna existencia de la materia y de su infinidad, sobre la base de la imposibilidad de concebir su creación de la nada. Ahora bien, si la materia no puede crearse de la nada, es cierta la proposición contraria: la materia no puede anularse, transformarse en “nada”. Si admitiésemos que un solo neutrón, un solo protón o un solo electrón se anularan, desaparecieran cada año o cada cien años, es obvio que, dada la eternidad que ha tenido delante de sí, la materia universal no existiría más, mejor dicho, no se habría manifestado nunca. Es pues necesario admitir que las dos partículas colindantes, transmitiendo su energía a los dos rayos gamma emitidos en la colisión, no han perdido nada de sus masas, las cuales obviamente se fraccionan y se dispersan en tantas subpartículas tan pronto cesa el proceso radioactivo de la emisión de los dos rayos gamma substanciados por sus masas. Si así no fuere no podría explicarse el así llamado “fenómeno de los pares” según el cual un rayo gamma superenergético, chocando con una partícula cualquiera, se transforma en materia “creando” un electrón y un positrón. Todo esto, pese a su aspecto científico se presenta a la mente como un juego de prestidigitación en donde el sabio, no pudiendo expresar más verídicamente un concepto, saca conejos de su sombrero de copa.”

No obstante las dudas científicas que hace surgir el concepto creación de la nada con su consecuencia en el mundo micro: desaparecer, ahora es mayor el problema contrario a nivel del Universo: permanecer para evolucionar. Pero aún con todas estas implicaciones, a partir de esta década lo cierto es que los cosmólogos modernos ya lo comienzan a colocar en la lista de las definiciones aceptadas. Así, en su expresión moderna la han divulgado - entre otros - el cosmólogo norteamericano Steven Weinberg en su obra “Los Primeros Tres Minutos”; el físico norteamericano James S. Trefil en la obra “The Moment of the Creation”; los cosmólogos norteamericanos John D. Barrow y Joseph Silk en la obra “The Left Hand of the Creation”, el cosmólogo británico Paul Davies, en “God and the New Phisics”; el cosmólogo ruso - norteamericano I.D. Novikow, en “Evolution of the Universe”; el cosmólogo británico Lloyd Motz en “The Universe: Its Beggining and End”; Ahora bien, si para el ser humano "nada" significa justamente nada ( o la no existencia), todo parece indicar que la presencia - aunque sea de fluctuaciones - cuánticas brevísimas aparecidas de esa virtual nada - señalan que esa nada, no es nada absoluta, pues hay - fenomenológicamente hablando - sucesos, no importa cuán espaciados en el tiempo.

Esto sugiere - a la vez - que esa “nada relativa” (ya no absoluta) o “vacío” como la prefieren denominar los físicos sea una matriz que contiene al Universo conocido, lo que ubica el problema en otra dimensión: el llamado “espacio de espacios” o “hiperespacio” (nombre sugerido por el cosmólogo norteamericano John Wheeler en el que las leyes físicas no necesariamente serían las mismas que en nuestro Universo. Tampoco lo son en los hipotéticos “agujeros blancos” (White Holes) planteados por el cosmólogo LLoyd Motz como el lado opuesto de los agujeros negros (Black Holes), que conducirían de uno a otro Universo, conectadas por los "agujeros de gusano" (Whormholes).


D.- TEORIA DE LA INFLACION .-. Hasta prácticamente finales de los setenta algunas de las explicaciones de la física cuántica no han sido tomadas en consideración hasta que el físico norteamericano especialista en cuántica, Robert Dicke dio una charla en la Universidad de Cornell y a ella asistió -por casualidad- el cosmólogo Allan Guth, en esa época en la misma universidad. El impacto de lo que escuchó provocó el inicio de un cambio revolucionario para el modelo estandar del B.B..

Normalmente los efectos de la mecánica cuántica están restringidos a sistemas en la escala subatómica y tienen poca importancia en otros campos de la física a nivel macro; pero dado que el B.B. se considera que tuvo condiciones que se asemejan al “laboratorio de la física subatómica”, de aquí se extrapolan conceptos para tratar de entender procesos al inicio del B.B..

Un aspecto central de la mecánica cuántica tiene relación con la existencia de fluctuaciones no predecibles y a niveles ultramicroscópicos el espacio y el tiempo están sujetos a cambios caóticos, no predecibles. Así el espacio puede estrujarse o encogerse violentamente para formar una compleja arquitectura conocida como “agujeros de gusano”, túneles y fuentes microscópicos creando la sensación de una “alfombra de espuma”, que da - precisamente - lugar a que se le designe “El espacio - tiempo espumoso”. Las fluctuaciones cuánticas pueden así crear por distorsión del espacio - tiempo, Universos que se presentan y desaparecen en cuestión de instantes.

De acuerdo con esta hipótesis, el Universo actual conocido, pudo haberse formado de un proto - Universo instantáneo de unos 10-33 cm. de tamaño. Sin embargo no es posible preguntarse por cuánto tiempo este proto - Universo llega a tener existencia, dado que - en esencia - la mecánica cuántica predice que las fluctuaciones son impredecibles por principio.

Este indeterminismo significa que la aparición no previsible ni prevista de un nuevo mini - Universo es, sin embargo, un evento enteramente de acuerdo con las leyes de la física cuántica. En teoría estas fluctuaciones cuánticas ocurren en un espacio - tiempo preexistente de otro Universo, del cual se desconecta rápidamente. Este tipo de fenómeno ocurre en cualquier parte del Universo que pasa - la mayor parte de su tiempo desconectado del otro.

El problema no está en explicar cómo se crea el proto - Universo, pero si como de una débil y lábil “lágrima” o “burbuja” se convierte en el B.B. y porque no se evapora o desaparece como ocurre con la inmensa mayoría de las fluctuaciones que ocurren en el espacio - tiempo espumoso que nos rodea y en el que estamos inmersos. La física cuántica permite postular un tipo de antigravedad que afecta el proto - Universo causando su expansión rapidísima de forma tal que en una minúscula fracción de un segundo el proto - Universo ha aumentado su tamaño por 10 veces o aún más y continúa expandiéndose con velocidad altísima. Este tipo de predicción permite admitir que el inicio del Universo en un estado de compresión altísima, anula la singularidad de densidad infinita.

Precisamente esta idea conocida como la teoría inflacionista (debido a Allan Guth en 1981 y luego modificada más adelante por Andrei Linde y otros) predice específicamente respecto a la densidad del Universo que durante la fase inflacionaria que tardó escasas fracciones de un segundo, la expansión fue tan tremenda que cualquier curvatura del espacio desapareció y el espacio plano resultante corresponde a un Universo con una densidad de materia crítica.

En consecuencia si las observaciones confirman que esa densidad es equivalente al valor crítico, la teoría inflacionaria podría ser adoptada como la descripción standard del Universo muy temprano (Very Early Universe). Esta aseveración es de gran importancia dado que a fines de los setenta el modelo standard del B.B. sin un mecanismo como el que propone la “Teoría de la Inflación” no puede ser aceptado ya como una explicación racional, coherente y plausible.


E.-AVANCES TECNOLÓGICOS.- Desde el inicio de esta obra se ha señalado que el énfasis se encuentra en los procesos del conocimiento en que se gestan las explicaciones y los modelos del Universo. Por tal motivo los aspectos relacionados con los avances tecnológicos son apenas los mínimos para darle coherencia al proceso de avance.

En este capítulo se hace una síntesis de dos de los principales instrumentos de que se sirve la cosmología para corroborar las teorías. A nivel macro sobresalen la construcción de nuevos telescopios y radiotelescopios, así como en la astronáutica se produce un fuerte avance en el diseño de cohetes más eficientes y poderosos para lanzar sonda espaciales y vehículos tripulados y no tripulados. En el campo de la física subatómica, por razones financieras la construcción de aceleradores de partículas no experimenta el avance que los físicos requieren.


a) Ampliación del Espectro Electromagnético.- La tecnología es una forma especial del avance del conocimiento científico que va surgiendo conforme las exigencias lo demanden, de manera que - salvo en casos excepcionales se adelanta al conocimiento teórico, pues su uso es utilitario y no contemplativo.

En el campo de la astronomía las observaciones ópticas que se efectúan desde la Tierra resultan afectadas por la opacidad del aire. En el sector violeta del espectro electromagnético toda radiación electromagnética procedente del espacio exterior está limitada a una longitud de onda de 3 mil angstroms (3 x 10-5 cm.). Solo mediante cohetes y vehículos espaciales pueden detectarse ondas menores. En la parte roja del espectro, el aire no tiene límite definido, pero las bandas de absorción intensa de diversas moléculas libres vibrando, causan dificultades para hacer observaciones ópticas en longitudes superiores a los 10 mil angstroms (10-4 cm.).

La atmósfera superior es impenetrable a ondas de radio menores de 1 cm. y mayores de 20 m. En consecuencia el astrofísico tiene limitaciones para observar por la “ventana óptica”, lo que dio nacimiento, a partir de 1932 a los radiotelescopios para abrir la “ventana radial”, y finalizada la II Guerra Mundial a los artefactos astronáuticos para salir de la atmósfera e ir más allá aún.

En el campo de la observación visual el desarrollo de telescopios de diversa configuración y formas de operar muestran esta secuencia ascendente: de 1609 en que Galileo aplica por primera vez una lente a la observación del cielo el aumento es de 210 unidades, hasta llegar a los sofisticados instrumentos de las décadas de los 70 - 80, que rinden aumentos sumamente altos y de excelente resolución en varias franjas del espectro electromagnético ; en el campo de la observación radial que se inicia con el ingenioso norteamericano Karl Jansky (1932, que nada tenía que ver con la astronomía) se obtienen las primeras escuchas en el espectro radial en las frecuencias de 15 m. y 13 m. A partir de aquí, gracias a los trabajos pioneros de los radioastrónomos se abren más y más frecuencias.

Para 1963 ya la astronomía tiene abierta la ventana que le da acceso a emisiones de rayos x; dos años después se abre el espectro infrarrojo, tres años más tarde el espectro ultravioleta; para la década de los setenta es posible detectar las emisiones de rayos gamma; en 1973 las radiaciones submilimétricas, dos años después las radiaciones procedentes del espectro ultravioleta externo y a partir de los ochenta se inician los diseños para captaciones de rayos cósmicos; de los hipotéticos “monopolos magnéticos” - supuestamente remanentes de la explosión primogenia y para la década de los 90 de las ondas gravitacionales.

La apertura y ensanchamiento paulatino del espectro no se limita a facilidades terrestres, sino que surgen cada vez más y más sofisticaciones tecnológicas procedentes de la investigación militar, que se aplican a la investigación astrofísica desde fuera de la atmósfera terrestre para aumentar la sensibilidad y sensitividad de lo observado y escuchado.

Con la aparición de la informática en los años 50 y 60 a partir de estas fechas se acoplan a los telescopios y radiotelescopios, para darles además de eficiencia operativa, la posibilidad de hacer rastreos y seguimientos automatizados y con la aparición de las primeras técnicas de digitalización para la captación de imágenes y sonidos del Universo la cosmología se comienza a enfrentarse con mejores instrumentos a retos mayores.

Para el inicio de la década de los 70, el aumento en la sensibilidad de un radiotelescopio en un factor de 10, por ejemplo, aumenta el volumen de espacio a estudiar por un factor de 33. El aumento en la sensibilidad por un factor de 100, que se logra al finalizar esa década, incrementó el volumen de espacio por un factor de 100, lo que significó la posibilidad de estudiar directamente decenas de millones de estrellas y mejorar substancialmente el estudio de objetos extendidos: galaxias, radiogalaxias, cúmulos, supercúmulos, nebulosas y otros objetos.

Entre los 70 y 80 nace en realidad un nuevo capítulo en el estudio del Universo: la astronomía extragaláctica es decir - la posibilidad de conocer en detalle los mecanismos de formaciones de otras galaxias aparte de la nuestra. Nace también el proyecto que culminará en la década de los 90: la construcción del primer telescopio espacial bautizado Hubble.

Para finales de la década de los 70 la Unión Astronómica Mundial logra con grandes dificultades, un acuerdo internacional que le permite reservar frecuencias para la experimentación. La lucha es fuerte, pues debe competir con gobiernos interesados en usar esas frecuencias para inteligencia militar y con grandes corporaciones que las desean para fines comerciales.

Además durante los 70 y 80 la competencia entre los Estados Unidos y la Unión Soviética es muy fuerte por el dominio del espacio con base en el uso del espectro electromagnético, el emplazamiento de ojivas nucleares en cohetes balísticos y en el envío de globos y sondas espaciales tripuladas y no tripuladas al espacio.

Junto al inicio del diseño del Telescopio Espacial Hubble por parte de los Estados Unidos de América, la Unión Soviética inaugura en 1982 el mayor telescopio terrestre en el Observatorio Pulkova, que eclipsa las facilidades de que disponen los célebres telescopios colocados en el Monte Palomar en California; por su parte la administración del ESO (Observatorio Espacial Europeo) decide iniciar la construcción del denominado “VLT”, con espejos cóncavos de ocho metros de diámetro, pero muy delgados y flexibles. Esta organización fundada en 1962 por Francia, Alemania, Bélgica, Holanda, Dinamarca y Suecia, a las cuales se suman luego Italia y Suiza, planea ubicar el VLT en el centro en Chile, en la cumbre del Cerro Paranal a 2.636 m. de altura. El VLT será el mayor observatorio óptico de todos los tiempos: comprenderá cuatro telescopios, interconectados; una vez combinados, estos suministrarán una potencia luminosa total equivalente a la de un telescopio de dieciséis metros.

Gracias a esta técnica, sería posible distinguir la silueta de un hombre que caminara en la Luna, o la luz de una luciérnaga a más de 10.000 kilómetros de distancia. Apuntando a los objetos más remotos del Universo conocido (galaxias en formación, quásares), podrá remontarse en el tiempo a más de 100.000 millones de años luz. La NASA calcula que el Telescopio Espacial Hubble (H.S.T.) tendrá una resolución 10 veces más brillante y definido que los telescopios terrestres; abarcará todo el espectro visible y gran parte del espectro infrarrojo y ultravioleta; por lo tanto podrá observar objetos colocados hasta 50 veces más allá de donde alcanzan los más poderosos telescopios terrestres.

b) Astronáutica.- Desde el punto de vista de la historia esta ciencia que se inicia con la “eolipilia” de Herón de Alejandría (siglos I - II a.C.). Esta consistía en un caldero que producía vapor - que escapando por una abertura controlada se elevaba del suelo. Hacia el año 160 a.C., Herciano de Sonorata escribe su “Historia Verdadera”, novela que da cuenta del viaje de Ulises a la Luna, después de siete días de periplo. Si se incluye la invención de la pólvora por los chinos (700 - 900 d.C.), el estudio de los “cohetes en 1379 por el italiano Muratoi; los sueños de K.E. Siokolski de exploración del espacio con cohetes a reacción (1898) y se da un salto en la historia, se llega a los trabajos de Robert Goodard en USA; luego al 4 de octubre de 1957 con el inicio de la Era del Espacio, con el lanzamiento del cohete Sputnik por la URSS y esta primera etapa de afanes de la Humanidad se cierra con la misión Apolo 17 de USA (que completa 6 alunizajes tripulados). A partir de aquí se abre un nuevo capítulo espectacular gracias a las Sondas Espaciales lanzadas a descifrar el Sistema Solar y a los Laboratorios Espaciales que orbitan la Tierra; las que junto al desarrollo de nuevos avances informáticos están cambiando con rapidez inusitada la percepción de la Humanidad sobre el Universo, porque los medios de información se ocupan de divulgar cuanto acontece en este campo.

Para el gran público lo que trasciende de la investigación de la física del espacio, en estas décadas son las imágenes fotográficas, las transmisiones radiales y las imágenes televisivas que muestran la Luna captada por las diferentes misiones Apollo; y los planetas Marte y Mercurio; así como los anillos de Saturno, captadas por las misiones Vikingo. Conforme van avanzando los adelantos en la astronáutica y el ser humano se prepara para acometer otras aventuras; la conquista del espacio acapara la atención mundial, a la vez que compite - en el área de la política internacional - con el triste episodio llamado “Guerra de las Galaxias”, que puso al planeta en inminente peligro de destrucción, como lo recuerda un artículo escrito especialmente para la Universidad para la Paz, por el novelista Gabriel García Márquez (Véase Anexo al final ).

Si bien es cierto para finales de los 80 el colapso de la Unión Soviética y su anillo de países periféricos abren la humanidad a un período de distensión y cesa el peligro de la Guerra de las Galaxias, la realidad como se conoce en la década de los 90, es que el peligro no ha pasado, porque la gran cantidad de material radioactivo en producción o ya en su sitio estratégico - militar, puede ser utilizado por fuerzas que pugnan por moldear las sociedades.

c) Aceleradores de Partículas.- Se denomina aceleradores de partículas a instrumentos de formación lineal o circular-dependiendo de su uso- que utilizan energías bajas o sumamente altas para acelerar subpartículas atómicas diversas para estudiarlas detenidamente. En la mayoría de los casos no es posible ver esas subpartículas y tan solo se definen por las trayectorias que dejan en las pantallas que recogen sus impactos en blancos expresamente diseñados para ello.
Inicialmente todos los aceleradores utilizaban únicamente las formulaciones de Maxwell y
de Lorentz ,pero al hacerse cada vez mas y mas sofisticados e incluso pretender alcanzar la velocidad de la luz se utilizan nuevas formulaciones derivadas de esas dos fundamentales.
Según sea el uso que se les de los aceleradores se denominan:
a) Aceleradores lineales y circulares , y los hay de dos tipos ( ciclotrones y sincrotones). Los ciclotrones pueden alcanzar energías de hasta 10 MeV , y los sincrotones pueden alcanzar energías de hasta 4 GeV ,sin embargo ,para estas fechas hay en proyecto la construcción de nuevas máquinas muy potentes ,pero su alto costo ha detenido su puesta en práctica .


2.-ARMANDO UN MODELO EVOLUTIVO DEL UNIVERSO.-

Para armar un modelo evolutivo que tenga coherencia, capaz de incluir desde la proyectiva terrestre y desde el inicio del Universo hasta nuestros días, es conveniente recurrir a hacer cortes artificiales en la historia evolutiva del Universo. Precisamente la hipotética creación del Universo actual, es un suceso que el físico norteamericano especialista en fenómenos cuánticos Stephen Weinberg (a principios de los setenta) describe paso a paso (como una película que se detiene cuadro por cuadro), en la obra “Los Primeros Tres Minutos”. Toda descripción en física cuántica - según el lógico - matemático español Juan David García - Baca: “es útil para designar una “función” de estado de un sistema físico dado, que se refiere a una situación “latente” que pasa a la categoría de “patente”, esto es que se puede visualizar como un “constructo-físico-matemático” que da razón de un símil de la realidad tal y como se supone ocurrió.”( ) Se advierte que en la presentación original Weinberg inicia el conteo en el tercer cuadro (que pone de primero). La modificación se hace para graficar con una sola explicación lo ocurrido - según esta revisión - desde antes que T sea O; esto es: T = < 0

El modelo evolutivo se presenta en cuatro cortes secuenciales.



PRIMER CORTE: Inicio del Universo

PRIMER CUADRO (ALTAMENTE ESPECULATIVO)

Fecha ¿X o infinito?
Espacio Infinito o finito cerrado sobre sí mismo
Tiempo 1/101 después del comienzo
Condiciones Según la teoría original del B.B. hay una sola creación, si así es, la condición:
es densidad infinita; temperatura infinita. Otra teoría
establece que el Universo ha pasado por varios ciclos de B.B. (explosión - expansión y contracción); si así es, la condición, entonces: b) es densidad y temperatura final alcanzadas por la última fase de contracción, antes de que se revierta el proceso y se inicie un nuevo ciclo de explosión. Otra teoría expresa que a cada nuevo ciclo es posible que cambien las leyes de la física, si es así la condición, entonces: c) es densidad y temperatura, las que determinen el nuevo proceso (lo que está en relación con modificaciones de la entropía global del Universo).


SEGUNDO CUADRO ( moderadamente especulativo)

Fecha Entre 10 - 20 millones de años
Lugar Un sitio indeterminado, a partir del cual se inicia la creación del espacio.
Tiempo 1/100 de segundo después del comienzo.
Condiciones Los conocimientos físicos no permiten señalar cual pueda ser el estado de una especie de “sopa primordial” a altísima temperatura (más de 100.000 millones de grados Kelvin conformada por fotones, leptones, antileptones, quarks y antiquarks pero se presume que actúan como partículas libres (según lo han demostrado experiencias con hadrones en el “MIT - Stanford Linear Accelerator Center”) que producen diversos efectos de “radiación de cuerpo negro” .

Comentarios

1) Hugh David Politzer (Harvard), David Gross y Frank Wilczek (Princeton) en 1973 señalan que: en una clase especial de teoría del campo cuántica - conocidas como “Teorías Gauge” (Aforo) no Abelianas las fuerzas de interacción de los quarks se debilitan en relación inversa a su cercanía. Esta “libertad asintótica”, junto a altas energías permiten a los quarks su actuación como partículas libres.
2) J. C. Collins y M.J. Perry (Cambridge) en 1976 han postulado que el comportamiento de un medio de mucha densidad a muy alta temperatura es esencialmente igual al que tiene uno que esté conformado únicamente de partículas elementales libres, lo que les lleva a afirmar que en 1/100 de segundo después del comienzo el Universo estaba conformado de partículas elementales libres.

Prueba de laboratorio: No ha sido posible romper ningún hadrón en sus quarks constitutivos y ello representa un reto y un enigma para la física cuántica. Debido a esta situación se ha especulado mucho sobre esta situación y respecto a las fuerzas débiles y fuertes envueltas en el proceso.

Escuelas: Para lidiar con el problema de las altas temperaturas cuando los hadrones y antihadrones están presentes en grandes cantidades, hay dos escuelas que tienen diferentes maneras de resolver el problema. La escuela que no diferencia los hadrones, los estima similares conocida como la doctrina de la “democracia nuclear”, y tal planteamiento es debido a la teoría de G. Chew (Berkeley). La otra escuela, que estima que no todas esas partículas son iguales se debe a M. Gell - Mann y G. Zweig (Caltech).

Fuerzas: A raíz de estas dos interpretaciones se inicia un largo proceso para estudiar las cuatro fuerzas envueltas (electro débil; electro fuerte; electromagnetismo y gravedad) y de aquí nace todo un esfuerzo teórico para buscar la unificación de las Fuerzas en una Superfuerza - según la define Paul Davies - o la Gran Unificación (GUT), con todas sus variantes definidas con diversos nombres como “Teorías de Aforo” y “Teorías de aforo no - abelianas” (en honor al matemático noruego Henrik M. Abel, por su contribución a la Teoría de los Grupos). Luego se exponen otras teorías aún más revolucionarias en las décadas de los 80 y 90 y aún se trabaja en ellas (Supercuerdas, Supersimetría, SUSY, N = 8, Cuantificación de la Gravedad, Graviton Loop, Twistors, entre otras ).

Nota...Si Weinberg hubiese escrito su obra en la década de los noventa, habría incluido ,en sus explicaciones , los conceptos de inflación ,como se verá más adelante.


TERCER CUADRO (aquí inicia realmente Weinberg su conteo cuadro por cuadro)

Tiempo = 10-2 s (una centésima de segundo después de la creación)
Tamaño 125 mil millones de años luz
Duración 3 minutos, 46 segundos iniciales de la “vida” del Universo
Temperatura 10 grados Kelvin
Condiciones Era de la radiación de cuerpo negro originaria por pares electrón - positrón (que se producen a partir de la radiación o al aniquilarse la originan); así como neutrinos (sin masa) y antineutrinos. Otros componentes en menor proporción son protones, neutrones (apenas forman una mil millonésima parte de todos los fotones). Los nucleones son bombardeados por electrones, positrones y neutrinos modificando por tanto sus naturalezas. La colisión de un antineutrino con un neutrón originada un electrón y un protón y estas reacciones se producían en ambos sentidos.


Estadística Mecánica: El contenido del Universo está determinado por la estadística mecánica y no depende de las condiciones previas.

Densidad: La densidad energética es de 21x1044 electrovoltios por litro. Se inicia un rapidísimo proceso de expansión y enfriamiento. La rata de expansión está dada por la condición prevalente en cada “bit” (unidad) de información del Universo que se autocontrola para que la velocidad sea “de escape” de cualquier centro (arbitrario). ( Si Weinberg actualiza en los años 90 este cuadro debería incluir alguna de las nociones de la teoría de la inflación )

Expansión: El tiempo de expansión característico es 100 veces mayor que la duración (en tiempo) del incremento del tamaño del Universo en que se asume una unidad arbitraria de 1.


CUARTO CUADRO

Tiempo: Han transcurrido 0.11 segundos desde el tercer cuadro.
Temperatura 3x1010 grados Kelvin.


Condiciones: Muestra tres cambios significativos:

Composición: El Universo integrado básicamente de electrones, positrones, neutrinos, antineutrinos y fotones está en equilibrio térmico.

Densidad: La densidad de la energía ha caído a unos 30 millones de veces la densidad del agua.

Expansión: La velocidad de expansión ha disminuido tanto, que la escala de tiempo característico es ahora de 0.2 s y aunque la proporción de nucleones y fotones es de 1 a mil millones (como en el cuadro anterior), en cambio la de neutrones (50%) y protones (50%) ha cambiado para ser ahora 38% de neutrones y de 62% de protones, respectivamente.


QUINTO CUADRO

Tiempo: Han transcurrido 0.09 segundos desde el cuarto cuadro.
Temperatura 1010 grados Kelvin.


Condiciones: La densidad decrece y aumenta el tiempo de permanencia libre de los neutrones y antineutrinos y comienzan a comportarse como partículas libres, cesando el equilibrio térmico con los electrones, positrones y fotones. Con excepción del papel que juegan en la gravedad, a partir de este momento los neutrinos no interactúan más en el proceso y se constituyen en una especie de “telón de fondo” en todo el Universo.

Desacople: En esta fase la longitud de onda de los neutrinos es inversamente proporcional a la temperatura que ha bajado - a su vez - en razón también inversamente proporcional al tamaño del Universo. Así la longitud de onda de los neutrinos se encuentra en razón directamente proporcional al tamaño del Universo.

Expansión: El tiempo de expansión característico es ahora de 2 s y dado que la temperatura se encuentra al doble de la temperatura “umbral” de los electrones y positrones, ambos inician su aniquilación más rápidamente. La proporción de nucleones es de 24 % de neutrones y de 76% de fotones.


SEXTO CUADRO
Tiempo: Han transcurrido 13.82 segundos desde el tercer cuadro.
Temperatura 3x1010 Kelvin


Condiciones: La temperatura para los electrones y positrones está por debajo de su umbral, razón por la cual éstos comienzan a desaparecer como los constituyentes de mayor presencia.

Energía: La energía irradiada en su proceso de aniquilación incide en la baja de la rata de enfriamiento del Universo. Los neutrinos muestran un 8% de enfriamiento mayor que los electrones, positrones y fotones y a partir de aquí la temperatura del Universo se define por la presencia de fotones únicamente.

Expansión: La rata de expansión del Universo es muy alta y aunque la temperatura permitiría la formación de núcleos tales como lo de Helio (He4), esto no ocurre precisamente por que el proceso de expansión no lo permite, de manera que tales núcleos solo aparecen en series de reacciones muy rápidas de dos partículas interactuantes. Los neutrones se siguen convirtiendo en protones, aunque menos rápidamente y la proporción ahora es de 17% de neutrones, frente a 83% de protones.


SÉTIMO CUADRO

Tiempo: Han transcurrido 3 minutos, 2 segundos desde el tercer cuadro.

Temperatura: 109 grados Kelvin.

Condiciones: Dominan el Universo los fotones, neutrinos y antineutrinos. Los fotones tiene una temperatura que es 35 veces mayor que la de los neutrinos y antineutrinos. Han desaparecido - casi en su mayoría los electrones y positrones.

Partículas: Aún no aparecen núcleos estables de elementos como el Helio (He4), aunque sigue manifestándose la creación de reacciones de partículas interactuantes capaces de formar este tipo de elementos. La proporción de nucleones es hora de 14% de neutrones, frente a 86% de protones.

OCTAVO CUADRO

Tiempo: Han transcurrido 3 minutos, 46 segundos desde el tercer cuadro

Temperatura: 9x108 grados Kelvin

Condiciones: Están dadas justamente las condiciones para iniciar la formación de núcleos estables por procesos de nucleosíntesis, en razón de la asimetría de la presencia de nucleones en una proporción de 13% de neutrones y 87 % de protones. (Este proceso se encuentra descrito teóricamente - por primera vez - en los trabajos pioneros de George Gamow y sus colaboradores Alpher y Herman en líneas generales y con detalles precisos por Wagoner, Fowler y Hoyle).

NOVENO CUADRO (hasta aquí termina Weinberg su recuento)

Tiempo: Han transcurrido 34 minutos, 40 segundos. desde el tercer cuadro

Temperatura: 3x108 grados Kelvin

Condiciones: Los electrones y positrones están completamente aniquilados, excepto por un leve exceso - una parte en un millón - de exceso de electrones para balancear la carga de los protones.

Energía: La energía desprendida en el proceso de aniquilación da a los fotones una temperatura permanente de 40 veces mayor que la temperatura de los neutrinos.

Densidad: La densidad energética es de 9.9 % de la del agua, de la cual los neutrinos constituyen el 31% y los fotones el 69%. Tal densidad permite al Universo una expansión característica de 1¼ de hora.

Nucleosíntesis: Los procesos de formación de núcleos (nucleosíntesis) se han detenido y la materia consiste en protones libres (núcleos de helio; pero aún las condiciones no permiten a los átomos tener suficiente estabilidad. (Estas condiciones permanecen igual hasta 700.000 años más tarde).


DÉCIMO CUADRO

Tiempo: Han transcurrido 700.000 años.

Temperatura: Ha comenzado a descender durante todo el largo período (transcurrido entre los 34 minutos, 40 segundos, hasta los 700.000 años) hasta llegar a 4000 k.

Condiciones: A partir de aquí hay condiciones de estabilidad para que los núcleos y los electrones puedan permanecer juntos frente al bombardeo - cada vez menor - por parte de los fotones.

Hidrógeno: Es posible que desde los 300.000 años algunos átomos de hidrógeno comienzan a sobrevivir (por períodos cada vez mayores) sin ser ionizados por la radiación y es a partir de aquí que es posible que se inicie la separación entre la materia y la radiación.

Isotropía: A partir de aquí también el Universo - en conjunto - es uniforme - isotrópico y homogéneo.

Gravedad: Con el desacople entre materia y radiación, el Universo cambia su color de fondo (amarillento) a transparente y la densidad de la energía radiante desciende por debajo de la densidad de la materia del Universo y comienza el dominio de la gravedad (Este detalle se calcula por la medición del desplazamiento hacia el rojo).

Semillas: A partir de aquí y sobre la base de irregularidades de distinta forma y naturaleza que se amplían , se requiere explicar cómo inicia la formación de procesos que culminan primero en galaxias y luego en cúmulos galácticos y luego en estrellas; o por lo contrario en un proceso inverso, ya que señalar ¿Qué es lo que primero se forma? Es aún objeto de discusión y hay dos escuelas que sostienen puntos de vista contradictorios.

DÉCIMO PRIMER CUADRO

Tiempo: 4.500 millones de años después de T = 0

Condiciones: Ya existe la Vía Láctea y el Sistema Solar y la Tierra, que comienza su propio proceso de evolución, enriquecida por el material de que está formada (materia enriquecida por los procesos de nucleosíntesis al interior de las estrellas e intercambios de materia existente en los espacios intergalácticos y en los espacios interestelares).

DÉCIMO SEGUNDO CUADRO
Tiempo: Han transcurrido 20.000 (en la Escala Larga) ó 10.000 (en la Escala Corta) millones de años desde T = 0 (Promedio 15.000 millones de años)

Condiciones: El ser humano capta la radiación de fondo que corrobora empíricamente las teorías que originan el modelo Big - Bang expuesto.

REFUERZO: Las explicaciones de Weinberg, fueron expuestas, por primera vez en una conferencia en la Universidad de Harvard en 1972 y para el año siguiente en 1973, tres teóricos físicos norteamericanos, Hugh D. Politzer, de la Universidad de Harvard; David Goss y Frank Wilcsek de la Universidad de Princeton le dan sustento matemático a la tesis que, en una clase especial de teorías cuánticas, las fuerzas entre quarks se debilitan en el entretanto estos son puestos más o menos juntos.

Estas teorías se conocen como teorías “Gauge” (de “aforo”) no abelianas y tienen la particularidad de ser asintóticamente libres y si se da la condición de distancias asintóticas cortas o altas energías, los quarks se comportan como si fueran partículas libres. Por su parte los ingleses J C Collins y M J Perry de la Universidad de Cambridge han demostrado que en cualquier teoría asintótica libre, las propiedades de un medio a suficiente alta temperatura y densidad son esencialmente la misma, que si el medio consiste de únicamente partículas libres. El concepto que introduce la libertad asintótica de estas teorías de aforo no abelianas producen - en consecuencia - una justificación matemática sólida para el primer 1/100 de segundo cuando el Universo estaba conformado de partículas elementales libres, como lo planteara Weinberg al inicio de la década.

SEGUNDO CORTE: La Evolución Estelar

En el modelo B.B. aún hay una fuerte discusión sobre la formación de estrellas (si fueron primero o después que las galaxias). En consecuencia la explicación que se incluye es la más ortodoxa en la década bajo análisis : primero las galaxias, luego las estrellas. El Universo observable tiene aproximadamente cien mil millones de galaxias, de las cuales cada una tiene entre cien a doscientos mil millones de estrellas.

Después del laborioso trabajo observacional durante los últimos cien años la Astronomía ha podido al fin dar una respuesta científica coherente, estableciendo las bases de los procesos físicos por los que nacen, viven y mueren las estrellas. Pero mientras que durante la etapa que podríamos llamar “de madurez” de una estrella - en el sentido de ser la de características menos cambiante - la estructura y comportamiento de la misma pueden considerarse, bien entendidos, las etapas inicial y final de la vida de las estrellas sólo se conocen en líneas muy generales y es objeto de fuertes debates.

Clasificación de estrellas: Para efectos de clasificación se utilizan dos sistemas: el de Secchi (1868) que las agrupa por color en cuatro categorías y luego se perfecciona a fines del siglo XIX en el Observatorio de Harvard que las divide en la secuencia: O, B, A, F, G, K, M.C. y el sistema especial que las divide en clases (I - II - III - IV). Más modernamente se utiliza el diagrama bidimensional que correlaciona temperatura y luminosidad (Diagrama Hertzprung - Russel).

Aparición de estrellas: Parece firmemente establecido (según la escuela más extendida) que las estrellas se forman por condensaciones del medio interestelar. El espacio entre las estrellas se encuentra ocupado por un tenue gas compuesto fundamentalmente de hidrógeno, en el que se hallan inmersas pequeñas partículas sólidas, esto es, granos de polvo. En ocasiones, y provocadas por diversas causas, se producen perturbaciones gravitatorias que originan el colapso de “nubes” de gas interestelar.

Cuando este material condensado alcanza la densidad y temperatura suficientes como para producir radiación luminosa, puede decirse que ha nacido una estrella. El problema para observar este proceso reside en el hecho de que al condensarse el material interestelar, se concentra al tiempo el polvo presente en el mismo. Y dado que esas partículas de polvo son opacas a la radiación luminosa, la observación de las condensaciones “protoestelares” hasta la fecha ha permanecido vedada a las técnicas clásicas de la Astronomía óptica.

Ha sido preciso esperar al desarrollo de la Radioastronomía, y muy especialmente de la Radioastronomía a longitudes de onda milimétricas, para poder obtener información directa sobre las condiciones físicas y químicas de los objetos “protoestelares”.

Muerte de estrellas: En el otro extremo de la vida de las estrellas, en el de su muerte o desaparición como tales objetos emisores de luz, las dificultades para su conocimiento son tan diversas como lo son los procesos por los que dicha muerte o desaparición tiene lugar (estos procesos son distintos para cada tipo de estrella).

La forma en que una estrella termina su vida depende de la masa (en referencia a la del Sol). Y su destino puede ser: convertirse en supernova (dejando un pulsar remanente), gigante roja, enana blanca, enana marrón (hipotéticas), estrella neutrónica y agujero negro. Pero este destino no está solamente en relación directa con su masa inicial, sino con la que tenga al llegar a las últimas fases de su combustión nuclear que es - precisamente - lo que no se conoce bien.

Aparte de las estrellas “normales” se ha detectado en la Galaxia Local otros objetos peculiares, caso de las Estrellas tipo “Cefeidas Variables” o las “Scutti”, por ejemplo, cuyo comportamiento es de más difícil predicción.

En algunos casos las dificultades que aparecen son fundamentalmente de tipo teórico: se dispone de una gran cantidad de datos observacionales, pero resulta difícil enmarcarlos dentro de una teoría general. En otros, como en el caso de las estrellas de gran masa (mayor que ocho o diez veces la masa del Sol) las dificultades son tanto de tipo teórico como de tipo experimental.

En particular, la muerte de este tipo de estrellas masivas se produce de una forma violenta, a través de una de las más formidables explosiones que tienen lugar en el Cosmos. De acuerdo con las ideas generales admitidas, en un determinado momento de la evolución de estas estrellas se produce el colapso gravitatorio de su región central. Como consecuencia de este colapso se produce entonces la explosión nuclear de sus capas intermedias.

La energía liberada en esta explosión (equivalente a la que radiaría el Sol en unos ocho mil millones de años) hace que las capas más externas sean eyectadas al medio interestelar con velocidades de decenas de miles de kilómetros por segundo. Este material eyectado interacciona con el material interestelar y se convierte en un emisor de radiaciones que van desde los rayos X a las ondas de radio. Son las nebulosas interestelares llamadas “restos de supernova”, de las que, en el cielo del hemisferio Norte, son buen ejemplo la Nebulosa del Cangrejo o la Nebulosa del Cisne.

Por su parte, el núcleo central de la estrella colapsa hasta alcanzar densidades de decenas de millones de toneladas por centímetro cúbico (comparables a las de los núcleos de los átomos). Se forman así estrellas compuestas fundamentalmente de neutrones, “estrellas neutrónicas”. Sus períodos de rotación se hacen del orden de las décimas o incluso milésimas de segundo, y su emisión se produce fundamentalmente en forma de impulsos a frecuencias de radio. Por esta particular forma de emisión a estas estrellas de neutrones se les denomina “pulsares” (de la contracción inglesa: de "pulsating radio source").

El problema experimental de esta teoría se encuentra en el hecho de que, de entre los aproximadamente 330 pulsares y 140 restos de supernova conocidos en nuestra galaxia, tan sólo se han evidenciado dos casos de asociación inequívoca de un púlsar con un resto de supernova ( en la década siguiente).

La teoría de la muerte de estrellas recibe un fuerte respaldo (en la década siguiente) cuando a las 7:35 G.M.T. del 24 de febrero de 1987, desde la Tierra se observa la desaparición de la estrella Sandulak 69202 en la Gran Nube de Magallanes, para terminar como Supernova 1987 - A (la primera observada en los últimos tres siglos).

Sin embargo el ciclo de luminosidad de la Supernova no ha seguido lo que se entendía como la conducta clásica de una Supernova y del estudio de ella se desprenderá más conocimientos de orden teórico y observacional de gran importancia astronómica y que también tiene implicaciones cosmológicas pues su aparición en realidad ocurrió hace 160.000 años.

Los astrónomos distinguen dos clases de supernovas, las de tipo I (resultado de la aceleración de sus reacciones nucleares) y las de tipo II (por detención del proceso de combustión nuclear, que ocasiona en milisegundos su colapso gravitatorio y luego -por efecto de rebote- su rapidísima dispersión en el medio interestelar; más tarde su conversión en estrella neutrónica y más tarde pulsar, en unos miles de años. Precisamente la supernova 1987 - A es de tipo II y su observación arroja interesantes datos en los siguientes renglones:

a) 1987 - A (entre otras anomalías luminosas) no aumentó su brillo intrínseco para superar a las estrellas Vega o Capella de previo a disminuir su brillo en unas semanas (fue solamente 4 veces menos brillante que las demás Supernovas de tipo II);
b) la velocidad de eyección de su envoltura gaseosa es elevadísima (30.000 Km./s);
c) Se registra la llegada (esperada por predicción teórica) de paquetes de neutrinos al momento de producirse el colapso (confirmado por un observatorio japonés, uno soviético, y uno norteamericano). Pero llega un segundo paquete de neutrinos que origina gran controversia y permite afirmar - por una parte la teoría - y por otra parte afinar la predicción.
d) La emisión de ondas gravitatorias no se confirman dado que - “curiosamente” - todos los detectores ubicados en los observatorios astronómicos están fuera de funcionamiento para tales fechas.

Estado de la situación: Entre 1970 y 1980 la Unión Astronómica Internacional celebró varios simposios dedicados a dar una revisión de los últimos conocimientos que posee la comunidad astronómica acerca de cuáles son los últimos estadios de la evolución estelar ("muerte estelar"). Una revelación del estado de la cuestión que se desprende de esos eventos, según el radioastrónomo inglés Matin Ryle es: “... que las ponencias sobre módulos teóricos superaron en una proporción de cuatro a uno a los temas observacionales (empíricos) lo cual es una buena muestra de la situación en que se encuentra este tema en la consideración de la comunidad científica y una importante conclusión debida a R. J. Taylor, decano de la Escuela de Ciencias Matemáticas y Físicas de la Universidad de Sussex, Gran Bretaña, es que: “El Simposium se relacionó con problemas tales como determinar que una estrella finalice su evolución como una enana blanca, una estrella neutrónica o un agujero negro y cuándo y cómo los elementos pesados se producen en las explosiones de novas y supernovas y durante los eventos se arribó a la conclusión sistemática de que no hay - aún - respuestas definitivas a esas interrogantes; aunque cada vez hay avances de más importancia...”

Y a criterio del astrofísico inglés (e historiador de la ciencia), John Gribbing en su obra “En Busca del B.B.” publicada en 1986, resulta que: "Efectivamente a pesar de los enormes éxitos de los años sesenta y setenta, el modelo estándar dejó sin contestar un buen puñado de preguntas:
¿De dónde procedía la pequeña proporción de materia en comparación al número de fotones? ¿Por qué el Universo es tan extraordinariamente uniforme y homogéneo?
¿Por qué la densidad del Universo es tan cercana a la requerida para hacerlo plano?
¿Qué ocurrió en el intervalo entre t = 0 y el primer milisegundo?
¿Cómo llegó a existir el Universo y qué ocurrió en el preciso momento de la creación?

Consideraciones metafísicas aparte, estas preguntas se han considerado que sobrepasan el ámbito de la Ciencia. Ahora, no obstante, la Ciencia no conoce limitaciones y puede enfrentarse a todas esas preguntas aunque las respuestas no sean completas. Se posee, gracias a investigadores como Stephen W. Hawking, de Cambridge, una línea de respuesta al problema de la creación en sí. La comprensión de todos esos misterios tan profundos depende de que se pueda averiguar lo que ocurrió en la pequeña fracción de segundo anterior al momento en el que el modelo estándar tiene la palabra, antes, en ese sentido, de la propia Gran Explosión.

También estos años dejan sin contestar muchas preguntas respecto a la formación de galaxias, la evolución estelar y la formación del Sistema Solar; y en otros campos conexos, como por ejemplo, sobre la aparición de la vida en el planeta Tierra.

Como ha comentado el cosmólogo Ted Harrison, de la Universidad de Massachussetts: “Han ocurrido más acontecimientos cósmicos en la primera milésima de segundo que en los diez mil millones de años siguientes.” Para comprender ese período de la historia cósmica, las leyes establecidas de la Física, útiles para interpretar la evolución posterior del Universo, no son suficientes. Se necesitan, además, las de la Física Cuántica, las de los fenómenos físicos muy pequeños, especialmente las reglas que se aplican a las partículas y a las radiaciones a muy altas densidades.“

TERCER CORTE: El Sistema Solar

Así como hay dudas sobre, la evolución de las estrellas , también no ha sido fácil encontrar un modelo que satisfaga todas las variables sobre la formación de planetas. Sobre el origen del Sistema Solar y de la Tierra como constituyente del mismo hay dos grandes grupos de hipótesis:

Origen nebular: Un primer grupo de hipótesis sostiene que el sistema solar se originó a partir de una nebulosa (nube de gases y de partículas de polvo) giratoria de composición cósmica, es decir, formada en su mayor parte por hidrógeno y helio.

Origen estelar: Un segundo grupo de hipótesis sostienen que el sistema solar se originó por aproximación de dos estrellas, y que la gravitatoria entre ambas fue tan intensa que de la más ligera se desprendieron fragmentos a partir de los cuales se formaron los planetas cuando las dos estrellas se alejaron. En la actualidad, los hechos conocidos y una serie de deducciones lógicas han determinado que numerosos científicos se inclinen por una hipótesis del primer grupo.

Los radiotelescopios han revelado que existen en nuestra galaxia enormes nebulosas, como la que debió originar el Sistema Solar, constituidas probablemente por acumulación de partículas emitidas por las estrellas. La nebulosa que probablemente dio origen a nuestro Sistema Solar era el principio fría y de enormes dimensiones, extendiéndose con toda seguridad más allá de la órbita que en la actualidad describe Plutón.

En un determinado momento de su desarrollo toda la nebulosa comenzó a contraerse, aumentó rápidamente su temperatura y a través de un proceso sobre el que existen diferentes modelos, se individualizaron fragmentos de la misma denominados protoplanetas, a partir de los cuales se originaron los planetas. La parte central y cuantitativamente más importante de la nebulosa dio origen al Sol


Cosmogénesis del Sistema Solar.- Nuestra galaxia en conjunto es dos o tres veces más antigua que el Sistema Solar; por lo tanto los cosmólogos tienen buenas razones para suponer que las condiciones que ahora observamos en la galaxia no son muy diferentes de las reinantes cuando se formó el Sistema Solar.

Vemos regiones de nuestra galaxia en las que se han formado estrellas recientes y probablemente lo están haciendo ahora, lo que nos da importantes pistas sobre la formación del Sol y la nebulosa solar si creemos que ésta se formó como parte de un proceso similar. Se ha aprendido bastante sobre el nacimiento y muerte de las estrellas en explosión y cómo se agruparon en minúsculos granos de polvo interplanetario, luego concentrado en retazos oscuros que interceptan la luz procedente de estrellas lejanas. Esto permite plantear una teoría de la cosmogénesis del Sistema Solar:

Dinamica Galáctica .- Las galaxias se forman cuando se concentra gas, fundamentalmente hidrógeno, en el espacio intergaláctico a partir de una “semilla” (en realidad una onda, repliegue, rizo u inhomogeneidad causada por las diferencias de temperatura, medidas por COBE en 1992 y comprobadas luego por otros medios). Así comenzó a formarse nuestra galaxia muchos miles de millones de años antes del origen de nuestro Sistema Solar. A partir de este gas en concentración nació una primera generación de estrellas, aún distribuidas esféricamente alrededor del centro de nuestra galaxia, un recordatorio de su forma original aproximadamente esférica. Tras formarse estas primeras estrellas, el gas residual se concentró a causa de su momento angular propio en un fino disco (que es el aspecto característico de todas las galaxias espirales) y a partir de él se formaron nuevas generaciones de estrellas.

Las de mayor masa evolucionaron rápidamente formando elementos pesados que fueron expulsados al gas interestelar. Algunos de estos elementos se condensaron en granos minúsculos : el polvo interestelar. Tras formarse el suficiente número de estrellas en el plano central de la galaxia se desarrolló una inestabilidad de su movimiento que les hizo agruparse formando los brazos espirales. Estos brazos representan incrementos locales de la densidad de estrellas en el disco; los brazos son características en giro permanente alrededor del centro de la galaxia, pero la materia que les forma cambia: cada estrella emplea sólo la mitad del tiempo en un brazo y luego pasa al siguiente.

El polvo y gas interestelar emplea aproximadamente el mismo tiempo en estar en un brazo como en recorrer el espacio mucho mayor entre los sucesivos brazos. El resultados final es que la densidad de gas y polvo se incrementa mucho en los brazos. Sabemos, a partir de los estudios de otras galaxias, que las nuevas estrellas de las galaxias espirales se forman en estos brazos de alta densidad.


Formación de Estrellas.- Aparecen diferencias de presión dentro del gas, quizás como resultado de la explosión de una supernova. El gas se aleja de los puntos de presión elevada, pero, al moverse, tiende a acumularse en otros lugares. Se forman nubes de gas no ionizado de alta densidad, que típicamente tienen una masa cientos de miles de veces superior a la del Sol. Las fuerzas gravitacionales tienden a hacer adoptar a la nube una configuración más densa, sin embargo, la contracción se contrarresta por la presión interna del gas, que tiende a hacer expandirse la nube.

Ordinariamente la presión interna es mucho mayor que la gravitación y la nube no está en peligro de concentración. Sin embargo, a veces, una fluctuación súbita de presión (debida a un suceso violento cercano, como la explosión de una supernova, la formación de una estrella grande o una redistribución importante del campo magnético interestelar) puede comprimir una nube hasta densidades mucho mayores de lo normal.

Formación de la Nebulosa Solar.- Bajo estas condiciones, que son muy poco frecuentes la gravedad puede superar a la presión interna, de forma que la nube comienza a concentrarse para formar una estrella. Al hacerlo, los granos interestelares la protegen del efecto calorífico de la radiación de otras estrellas. La temperatura interna de la nube desciende y la presión se hace menos efectiva. La nube en concentración se rompe en fragmentos y éstos, a su vez, en otros más pequeños. Cuando uno de ellos completa su concentración, tendrá forma de disco, frío en los bordes y muy caliente en su centro: una nebulosa solar primitiva.

¿Cuál era la naturaleza de la nebulosa solar y cómo evolucionó? ¿Cuándo se formó el Sol? ¿Por qué hay planetas? ¿Cómo se formaron? Se obtienen esquemas muy diferentes de la nebulosa solar primitiva y de su evolución a partir de los diferentes tamaños supuestos. Se ha llegado a estas estimaciones por un razonamiento hacia atrás a partir de las actuales masas de los planetas.

Por lo tanto, estableciendo las masas de roca-hielo y de roca para los planetas y aumentando estas masas en proporción a los constituyentes volátiles que no se condensaron, es posible estimar una masa mínima de la nebulosa solar: una masa que fuese suficiente para la formación de los planetas. Esta masa mínima es del 3 por 100 de la actual del Sol. Otras estimaciones más antiguas llegaban a una cifra menor, aproximadamente del 1 por 100 porque no consideraban suficiente hielo y rocas en Júpiter y Saturno.

Esta cifra del 3 por 100 es, sin duda un mínimo; supone que los planetas fueron completamente eficaces recogiendo de la nebulosa solar toda la materia en forma condensada en cada órbita planetaria en la nebulosa. Sin embargo, esta recogida ha ido muy ineficaz para dos tipos de sólidos:
a) Los minúsculos granos no consolidados, quizás de 1 micra de diámetro, que no se vaporizaron al concentrarse el fragmento de nube gaseosa. El espesor del disco de la nebulosa debe haber sido al menos de una unidad astronómica (la distancia entre el Sol y la Tierra).
b) Los cuerpos mayores, de algunos centímetros o metros, caerían rápidamente hacia el plano central a través del gas, pero no tendrían por qué acabar en planetas.

Por estas dos razones, la nebulosa solar primitiva debe haber sido considerablemente mayor del 3 por 100 de la masa del Sol y por ello muchas de las teorías del Sistema Solar elaboradas en las últimas tres décadas incluyen alguna versión de la nebulosa solar de masa mínima. Supone que el Sol se formó directamente durante el proceso de concentración y que la nebulosa solar primitiva se dirigió independiente a sus alrededores.

Modelos de Nebulosas.- El problema reside en que unos sencillos cálculos del momento angular que debía contener la nube en concentración indican que habría sido imposible que casi todos los fragmentos se concentrasen para forma el Sol, dejando un fino reborde nebular que luego daría lugar a los planetas. Los cálculos, al contrario, requieren que la masa de la nebulosa se extendiese al menos unas decenas de unidades astronómicas. La nebulosa solar tendría que haber contenido una masa claramente superior a la del Sol, y probablemente alrededor de dos veces esta masa, sin un sol presente originalmente en el eje central de rotación.

Como resultado de este tipo de razonamiento, es decir razonando hacia adelante a partir de lo que conocemos de los principios de las estrellas más que hacia atrás, a partir de las masas actuales de los planetas, hemos construido varios modelos numéricos de nebulosa.

Los modelos tienen un radio de unas 100 unidades astronómicas y tienen dos masas solares de materia. En un modelo típico la temperatura era de 3.000ºK en el eje de giro y descendía hasta unos pocos cientos de la zona de formación de planetas. Estas temperaturas son mucho mayores que las que caracterizaron la concentración de la nube interestelar original, se desarrollan en los estadios finales de comprensión del gas, una vez que su densidad es lo suficientemente alta como para que su propia radiación calorífica no pueda escapar con facilidad.

Evolución de los Modelos.- Es necesario construir no sólo un modelo, sino una serie evolutiva de modelos, comenzando por una pequeña nebulosa solar que crece por acreción durante unos 30.000 años. En este caso el tiempo de distribución del momento angular permanece siendo muy corto comparado con el de acreción, de forma que gran parte de la masa se concentra para formar el Sol no al principio del período de acreción, sino todo a lo largo de él.

La masa de la nebulosa en la región de la formación de planetas siempre permanece como una pequeña fracción de la masa solar a lo largo de este período. En cuanto al enfriamiento, el gas procedente del exterior se desacelera súbitamente al alcanzar la superficie de la nebulosa solar, su energía de caída se convierte en calor radiado desde la superficie. En sus últimas etapas, este proceso mantiene las capas superficiales de la región de formación de planetas a una temperatura interna algo más elevada. Mientras tanto, el flujo continuo de masa hacia el eje central de giro disminuye las inestabilidades dinámicas de la nebulosa.

Las dos imágenes de la nebulosa solar primitiva, una derivada de las masas de los planetas y otra de los principios de formación de las estrellas, parecen, por lo tanto, converger para formar un modelo intermedio de la nebulosa solar inicial. En este modelo, hay una masa algo mayor que la actual del Sol concentrada alrededor del eje de giro, pero que todavía no se puede reconocer como el Sol. Está rodeada por un disco de gas y polvo con una masa total a la vez un décimo de la solar. Más allá de esta región de formación de planetas, hay grandes cantidades adicionales de masa cayendo hacia la nebulosa solar.

Inestabilidad Gravitatoria.- SI hay una capa fina de sólidos condensados en el plano central de la nebulosa con muy poca velocidad relativa entre partículas, una inestabilidad gravitatoria importante rompería la capa en fragmentos del tamaño de asteroides: kilómetros o decenas de kilómetros.

El mecanismo de inestabilidad opera cada vez sobre distancias mayores atrayendo cuerpos al tamaño de asteroides en conjuntos de cientos de miles de cuerpos ligeramente unidos por la gravedad. Los conjuntos quedan sin consolidar a causa de su gran momento angular, que los hace girar de centros gravitatorios comunes. Sin embargo, cuando dos de ellos se aproximan, pueden mezclarse: el campo gravitatorio fluctuante provocará un súbito descenso del movimiento de los cuerpos, “coalesciendo” (uniéndose) muchos de ellos, formando núcleos alrededor de los cuales otros giran en órbitas, aunque algunos cuerpos puedan perderse.

Aparición de Planetas.- El mecanismo de inestabilidad llamado Goldreich-Wards es un poderoso primer paso en la acumulación de cuerpos planetarios. A partir de aquí, los pasos siguientes son aún muy especulativos, y, con toda seguridad, fueron muy diferentes en cada región de la nebulosa:
a) En el caso de los pequeños planetas interiores la progresión hasta el tamaño completo puede deberse a sucesivas colisiones y amalgamientos de cuerpos rocosos.
b) En el caso de los planetas exteriores hay que tener en cuenta otras consideraciones que son diferentes en el caso de los constituyentes principales de Júpiter y Saturno y de Urano y Neptuno.

Aparición de Cometas.- Cualquier teoría debe tener en cuenta además los cometas que se formaron probablemente en la nube de Oort (es cierto que el gas en concentración del fragmento de nube que luego se convirtió en la nebulosa solar primitiva nunca alcanzó suficiente densidad para haberse concentrado en cuerpos de tamaño respetable en esa región). Hay sin embargo otra posibilidad: la fragmentación de la nube gaseosa continuó a veces hasta tamaños de un décima parte de la masa solar e incluso menor.

Los pequeños fragmentos deben haber quedado ligados a la nebulosa solar primitiva en órbitas que atravesaban la región de la nube de Oort. A la vez estos fragmentos formarían discos bastantes grandes, muy fríos, lugares ideales para la formación de cometas. Cuando los discos se calentaron a causa de la radiación ultravioleta de estrellas externas, los gases se evaporarían dejando los cometas en órbita solar.

Limpieza Posterior.- Queda el problema de ¿Cómo se limpió el Sistema Solar? la explicación sería la siguiente:
a) El tremendo viento (T Tauri) de la masa expulsada disipó la nebulosa solar arrastrando el gas residual al espacio
b) Este viento solar temprano pudo despojar los planetas interiores de restos de atmósfera primitiva.
c) Los planetas exteriores debieron formarse antes para captar el hidrógeno y el helio.

También surge una pregunta más: ¿Qué determinó el comienzo del estadio llamado T. Tauri?

Las explicaciones podrían ser que las reacciones termonucleares del hidrógeno que constituyen el horno estelar se encienden sólo bajo condiciones extremadamente altas de presión y temperatura. Las temperaturas de la nebulosa solar primitiva fueron tan bajas que el calor comprensivo del gas no pudo encender el Sol con una densidad en su centro comparable a la actual ( la densidad debiera haber sido 100 veces mayor que la actual).

Sólo entonces el Sol se ajustó a su configuración actual y se encendió el horno termonuclear comenzando a soplar el intenso viento T. Tauri (Para conseguir esta densidad fue indispensable una enorme masa).

Una vez que el Sol comenzó a brillar y el viento T. Tauri eliminó el gas, se inició la limpieza final del espacio y concluyó la formación de los planetas, sin embargo los corpúsculos (fuera de los asteroides en su cinturón aislado) deben haber sido modificados en las órbitas en las que se colocaron y al cabo de algunos cientos de millones de años tales corpúsculos habrían chocado con algunos de los planetas o también pudo ocurrir que hubiesen sido expulsados del Sistema Solar posiblemente por Júpiter.

Conclusión.- Este mecanismo de la formación del Sistema Solar es una propuesta reciente (1993) pero puede sufrir modificaciones con base en los hallazgos de los últimos años, debido a las sondas espaciales que han orbitado prácticamente todos los planetas del Sistema; asi como de los resultados de la aplicación -entre otros- de la teoría KAM ( en honor a tres astrónomos: Kolmogorov , Arnold y Moser a los nuevos hallazgos, así como a la revisión de otras teorías rivales.


CUARTO CORTE: Formación de la Tierra

En sus orígenes, el protoplaneta terrestre debió de ser mucho mayor que la Tierra actual, por tratarse todavía de un simple fragmento de una nebulosa difusa constituida esencialmente por gases entre los que predominaban el hidrógeno y el helio. Los demás constituyentes debían de encontrarse en concentraciones semejantes a la concentración de los elementos en el Universo. Por contracción y acreción de materia interestelar el protoplaneta fue aumentando de masa y creó a su alrededor un potente campo gravitatorio. Simultáneamente, a causa de la contracción, la temperatura aumentaba hasta alcanzar valores de 2.000 o 3.000 Cº. La evolución pregeológica de la Tierra comprende una sucesión de procesos, desde la individualización del protoplaneta terrestre, hasta la consolidación de la superficie de nuestro planeta en una estructura semejante a la actual, es decir, formada por rocas y agua, con una temperatura media determinada fundamentalmente por la radiación solar.

Teniendo en cuenta que la edad aproximada de la Tierra como cuerpo celeste es de unos 4.500 millones de años y que las edades de las rocas más antiguas de la corteza terrestre oscilan alrededor de unos 3.500 millones de años, la duración del período pregeológico de la evolución de la Tierra se estima en unos 1.000 millones de años.

Atmósfera Primitiva.- Durante el período pregeológico de la evolución de la Tierra se debieron producir las principales reacciones entre los átomos para originar los primeros compuestos químicos Harold C. Urey ha estudiado los procesos mediante los cuales se formaron tales compuestos, teniendo en cuenta la hipotética composición del protoplaneta terrestre y los principios de la termodinámica. Sus conclusiones pueden resumirse así:

a) El hidrógeno, elemento más abundante en el Universo, se combinó con el nitrógeno y con el carbono dando lugar respectivamente a amoníaco (NH3) y metano (CH4);
b) La primitiva atmósfera del protoplaneta estaría formada por hidrógeno, helio, amoniaco y metano, al igual que las atmósferas actuales de algunos de los planetas mayores:
c) El oxígeno se combinó activamente con silicio, aluminio, magnesio, hierro, calcio y potasio, dando lugar a los silicatos a partir de los cuales se formaron las partes sólidas más externas del planeta.
d) El hierro, elemento bastante abundante en el cosmos, dio lugar según la temperatura, a óxidos y sulfuros, por debajo del 25°C mientras que por encima de 327 °C se concentraría en forma de hierro metálico.

Como consecuencia de los procesos descritos el protoplaneta terrestre debió de estar formado por una atmósfera muy distinta de la actual, en la que predominaban hidrógeno, helio, amoníaco y metano, y una parte sólida constituida por hierro y silicatos. En las fases posteriores de la evolución pregeológica de la Tierra se produjo la pérdida de la mayor parte de la atmósfera e hidrosfera actuales y la diferenciación geoquímica primaria de los constituyentes sólidos.

Los conocimientos obtenidos hasta la actualidad sobre la atmósfera han permitido establecer ciertas conclusiones acerca de su constitución y origen:

a) Por composición y estructura la atmósfera terrestre actual, constituida esencialmente por nitrógeno y oxígeno, es muy diferente de las atmósferas de los restantes planetas:
b) Los elementos más abundantes en el Cosmos: hidrógeno y helio, se encuentran en muy escaso porcentaje en la atmósfera terrestre actual, prácticamente su presencia en ella resulta tan pequeña que sólo pueden ser considerados elementos - traza.

Nueva Atmósfera.- La mayor parte de los geofísicos admiten que la actual atmósfera de la Tierra es muy diferente de la atmósfera del protoplaneta terrestre, la mayor parte de la cual posiblemente se perdió en el período pregeológico del planeta, formándose la atmósfera actual a partir de gases provenientes de la parte sólida de la Tierra (por acción volcánica).

A causa de la elevación de la temperatura provocada por la contracción del protoplaneta terrestre, la primitiva atmósfera se perdió en el espacio por escape de la mayor parte de sus constituyentes, especialmente del hidrógeno y del helio. Los gases que no escaparon quedaron englobados en forma de compuestos sólidos. Así, el oxígeno fue retenido en forma de agua y de silicatos, el nitrógeno en forma de amoníaco y de nitruros metálicos y carbono en forma de metano residual.


Al formarse la nueva atmósfera con base en gases englobados en los compuestos sólidos se produjeron cambios en su composición. El agua proveniente del interior del planeta era continuamente secada por las radiaciones solares originando hidrógeno, el cual escapaba, y oxígeno, que era retenido de su inferior velocidad de escape.
El residuo de amoníaco que se hallaba presente en la composición de la primitiva atmósfera era atacado por el oxígeno, proceso que daba lugar a la formación de nitrógeno libre y de agua, mientras que los nitruros metálicos se descomponían originando igualmente nitrógeno libre.
El residuo de metano, por su parte, reaccionaba con el oxígeno dando lugar a anhídrido carbónico y agua. Estos procesos determinaron la composición de la atmósfera actual, constituida en más de un 99% por nitrógeno y oxígeno. También están contenidos en ella anhídrido carbónico y vapor de agua, en cantidades infinitamente menores.

Hidrosfera.- La hidrosfera se originó a partir del agua desprendida por las rocas del interior de la Tierra, y que alcanzaba la superficie a través de fenómenos volcánicos. Se admite actualmente que la hidrosfera ha aumentado progresivamente a través de los tiempos pregeológicos y geológicos, pero más que por un incremento de la superficie de los océanos por un aumento de la profundidad de la cuenca de los mismos. Respecto al contenido salino de las aguas oceánicas, los geoquímicos sostienen que la mayor parte proviene del interior de la Tierra, llegando a la superficie a través de las erupciones volcánicas.

Diferenciación de la materia.- Al principio del período pregeológico de la Tierra se produjo una diferenciación general de la materia terrestre acumulándose los elementos o sus compuestos más estables según sus afinidades químicas y según las condiciones de presión y temperatura existentes. En ese proceso diferenciador desempeñó un papel importante la acción de la fuerza gravitatoria. Como consecuencia de la diferenciación geoquímica, el planeta adquirió una estructura en capas concéntricas, con los materiales más densos acumulados en las zonas más profundas y los más ligeros progresivamente en capas más externas, La fase final de dicha diferenciación estuvo constituida, sin duda, por la formación de la atmósfera y de la hidrosfera.

La mayor parte de los autores que investigan el origen y formación de la Tierra sostienen que durante las primeras fases la temperatura era lo suficientemente alta como para que ellos constituyentes del protoplaneta estuviesen fundidos o muy cerca del estado de fusión. A causa de la pérdida de los gases predominantes: hidrógeno y helio, los elementos más abundantes en el protoplaneta en cuestión eran el hierro (Fe), el oxígeno (O), el silicio (Si) y el magnesio (Mg), con cantidades mucho menores de níquel (Ni), azufre (S), calcio (Ca) y sodio (Na). Como la cantidad de oxígeno no era lo suficientemente alta para oxidar los restantes elementos metálicos, la mayor parte del hierro y del níquel que no habían sido oxidados precipitaron hacia el centro de la masa planetaria y constituyeron el origen del núcleo metálico.

Una parte del hierro y casi todo el magnesio se combinaron activamente con el oxígeno y el silicio para formar los silicatos que se acumularon por encima del núcleo, dando lugar al manto silicatado. Por último, la corteza terrestre se originó por segregación de los elementos más ligeros del manto.

Teniendo en cuenta la composición química de las zonas accesibles de la Tierra (corteza terrestre, hidrosfera y atmósfera) y la hipotética composición de las zonas profundas, en parte confirmada por procedimientos geofísicos, se puede afirmar que nuestro planeta no constituye una muestra representativa del Universo. En efecto, del estudio de la composición química terrestre se pueden extraer dos conclusiones importantes:
a) Los elementos gaseosos ligeros que componen la mayor parte de la materia cósmica son muy escasos en nuestro planeta;
b) ciertos elementos pesados, cuantitativamente poco abundantes en el Cosmos, se presentan en nuestro planeta en concentraciones elevadas.
c) De entre los gases ligeros que abundaron en el protoplaneta terrestre únicamente se conservó el oxígeno debido a su gran capacidad para formar compuestos sólidos estables.
e) El hidrógeno sólo se encuentra en concentraciones apreciables en la hidrosfera, pero a nivel global de la Tierra su importancia cuantitativa en peso es muy escasa.
f) Otros elementos abundantes en el Cosmos, como el nitrógeno y el carbono, se encuentran en concentraciones escasas en la Tierra y totalmente concentrados en la atmósfera y biosfera. g) El silicio se presenta en concentraciones similares a la cósmica debido a su alta capacidad para formar silicatos con el oxígeno y ciertos metales.
g) Esquemáticamente, puede afirmarse que durante su formación la Tierra se enriqueció en elementos pesados, especialmente hierro, y se empobreció en elementos gaseosos ligeros.

La composición global del planeta es difícil de calcular, por carecerse de conocimientos directos acerca de los materiales que la constituyen a profundidades superiores a pocos miles de metros. Teniendo en cuenta las hipótesis aceptadas sobre la estructura interna de la Tierra y la composición y frecuencia de los distintos tipos de meteoritos conocidos se pueden extraer las siguientes conclusiones sobre la composición global de nuestro planeta:
a) La zona más interna de la Tierra, denominada núcleo, está formada por una aleación de hierro y níquel, con cantidades menores de silicio, carbono y azufre;
b) la zona intermedia o manto está formada esencialmente por silicatos, siendo su composición muy semejante a la de las peridotitas;
c) la composición media de la corteza terrestre, con escasa influencia en la composición global del planeta (ya que sólo representa el 1% de la masa total) es prácticamente igual a la composición de las rocas eruptivas con predominio de oxígeno, silicio y aluminio.
d) El estudio de la disposición por estratos de lava submarina demuestra que la Tierra ha cambiado varias veces la dirección de sus polos magnéticos que se producen como resultado de movimientos que agitan el núcleo terrestre (2270 Km. de espesor), produciendo corrientes eléctricas.
e) El registro fosilizado de lavas muestra que los cambios se producían cada millón de años y desde hace 65 millones de años disminuido la frecuencia, habiendo ocurrido la última inversión magnética hace 780 mil años.

La causa externa, de las inversiones magnéticas, se especula, pueden ser choques violentos (meteoros y cometas), o bien el vulcanismo, o una mezcla de todos esos efectos. En 1979, los astrofísicos norteamericanos Walter y Luis Alvarez relacionan la concentración inusual de iridio y otros elementos de probable origen sideral en estratos correspondientes a los límites entre los períodos “cretáceo” (K) y el “terciario” (T) (límite K/T) con la probable colisión de un asteroide (lo que habría provocado la extinción de dinosaurios). El límite K/T es un corte súbito, espectacular que interrumpe el sedimento normal y la fauna (por encima y por debajo) es radicalmente distinta, como resultado - según la hipótesis - de los efectos de terremotos, olas gigantes y aumento del vulcanismo que habría ocurrido hace 65 millones de años, cuando un asteroide chocó en el golfo de México (una enorme fosa marina, frente a la costa de Yucatán).

Otros científicos estiman, por lo contrario, que la hipótesis es errónea, toda vez que los fósiles de la microfauna fosilizada no muestra interrupciones de continuidad, por lo que las desapariciones serían el resultado de causas graduales (cambios de clima y variaciones en el nivel del mar, entre otras).


Condiciones para la Vida.- La primera vida orgánica surge en nuestro Planeta hace unos 3.300 millones de años en los océanos que en aquel entonces cubren casi totalmente la Tierra (mejor dicho en los preocéanos), ya que entonces no existían los océanos en la forma actual. La atmósfera originaria o paleoatmósfera no ha sido tampoco siempre la misma, sino que ha evolucionado con el transcurso del tiempo, y así durante miles de millones de años carecía de oxígeno.

Tras la formación de los océanos actuales tiene lugar el proceso de la fotosíntesis en un medio ambiente en que solamente existen materia rocosa, agua y dióxido de carbono. La fotosíntesis posibilita el acto de surgimiento de la vida: las plantas originarias, sometidas a la acción de la luz solar, generan o transforman el dióxido de carbono y el agua en fécula y azúcar. Se produce así, en el curso de miles de millones de años, la oxidación de ingentes cantidades de soluciones de azufre y de hierro surgiendo el oxígeno, cuya existencia posibilita la formación de una “flora bacteriológica” que, en principio, es de una variedad casi infinita.

Esta “revolución geoquímica” se produce primero en el océano y después en la atmósfera, con la secuela de una contaminación gigantesca del medio ambiente con oxígeno. De esta forma surge el supuesto para la existencia de formas primitivas de vida orgánica y para que se produzcan los saltos evolutivos” desde las bacterias a las plantas y animales y, por último, surja el ser humano, en el curso de un proceso de perfeccionamiento evolutivo de la materia orgánica.

Otra teoría que aparecerá a fines de la década de los ochenta señala que la vida es transplantada a la Tierra desde otros lugares del Universo y llega a ésta por vía de los meteoritos y cometas que se estrellan en su superficie, como ya había adelantado Svante Arrehnius, un físico-químico sueco a inicios del siglo XX , dando origen a la teoría de la “panspermia”.

El proceso de oxidación tuvo lugar hace 2.000 millones de años después de que surgiera la primera materia orgánica en los océanos. La materia orgánica de los océanos (organismos dotados de células) se desarrolla en el agua en el curso de un proceso de varios cientos de millones de años. Originariamente, la atmósfera existe sobre el mar y la parte de nuestro planeta no cubierta por las aguas no contiene mucho oxígeno, sino el equivalente al existente en nuestra atmósfera actual a unos 40 kilómetros de altura, y de ahí que la materia orgánica fuera muy primitiva. Con el tiempo y a medida que aumenta el grado de contaminación de la paleoatmósfera con oxígeno, se van perfeccionando las diferentes manifestaciones de vida orgánica, que en principio eran unicelulares.


Hace 700 millones de años hay suficiente oxígeno en las partes inferiores de la atmósfera para que surjan plantas pluricelulares y seres vivos, y hace unos 400 millones de años quedan formados los continentes en su forma actual. Cien millones de años después la atmósfera llega a un estadio similar al actual y se da el supuesto para el crecimiento de la flora terrestre y para la evolución del ser que con el tiempo será el Homo Sapiens.


Conclusiones sobre el Modelo Evolutivo.- Para finales de la década de los setenta, algunos astrofísicos no necesariamente convencidos de las bondades de la teoría de un inicio explosivo caliente, formulan variadas hipótesis alternas, pues aunque es cierto la mayoría de los cosmólogos apoya el B.B., quedan problemas fundamentales por explicar, a saber:
a) la naturaleza de la singularidad inicial,
b) el nacimiento y desarrollo de las galaxias (hay discusión sobre si son diferentes sus formas y estructura o si obedecen a un proceso de evolución característico,
c) el destino del Universo.

En pocas palabras las dudas parecen reflejar que no se conoce aún de dónde y cómo vinimos, cómo llegamos a ser lo que somos y hacia dónde nos dirigimos. Entre las hipótesis y especulaciones alternas que buscan comprobar los astrofísicos, para darle respuesta a los cosmólogos que producen las teorías se encuentra la siguiente interrogante básica: ¿Qué aconteció antes de la singularidad? Al respecto comenta en broma el cosmólogo norteamericano Joseph Silk que desde la teología la respuesta ya fue dada por Agustín de Hipona:..."antes de la creación hay un infierno para quienes osen formular preguntas tan descabelladas..." (recuérdese que para aquellas épocas se manejaban ideas sobre la creación, pero -curiosamente- en un contexto de eternidad, porque las preguntas en esas condiciones no eran tan descabelladas, toda vez que tratarían de hacer ley en una aparente contradicción. Modernamente esa contradicción se maneja con la idea -también vieja de que el B.B. puede ser uno de los muchos ciclos de un Universo cerrado; lo que lleva al problema de ¿cómo en un Universo tan uniforme puede dar origen a fluctuaciones de tal naturaleza y si acaso estas se encuentran siempre "en potencia" y son activadas por algún mecanismo. Las respuestas a todas las preguntas reciben estas respuestas teórico-observacionales:

1.-Cosmologías del Enlentecimiento de la Luz: Surge de la pregunta de si no estaremos efectivamente en un Universo estático y por consiguiente la aparente recesión galáctica, medida en términos de enrojecimiento de la luz galáctica que se aleja no para un proceso de "fatiga" en su largo camino hacia los observadores (en este caso nosotros), tal descenso de velocidad sería la resultante de una comprensión de onda que produciría un efecto de "corrimiento infrarrojo " directamente proporcional a la distancia recorrida; por otra parte esta demora en llegar la luz podría deberse también a otra causa: las partículas de polvo intergaláctico son transparentes a las ondas de radio, salvo que su tamaño coincida con la compresión de onda (lo que se ha confirmado experimentalmente con radiaciones de radio y de luz procedente de galaxias distantes, pero este efecto alargaría las líneas espectrales estudiadas, que es un fenómeno justamente contrario, por lo que otra posible explicación sería que las leyes de la física no se aplican en distancias muy lejanas; y finalmente otra explicación podría (que ya no es válida en un modelo estático) ser que los flujos de energía radiante y luminosa decrecen por el efecto de expansión que produce por lo tanto una dilatación del tiempo.

Para Silk, quien es partidario de la teoría B.B., esta hipótesis de la fatiga de la luz "debería ser abandonada en razón de su carácter ad-hoc", proposición de la variabilidad universal de las leyes de la física.

2.-Objetos Arpianos: Mientras la primera propuesta se fundamenta en una posición teórica a priorística, el astrónomo norteamericano Halton Arp, conocido por su habilidad para continuar el bajo de Hubble ha mostrado fotografía que muestran una cantidad nada despreciable de objetos celestiales cuyos "conocimientos" son muy disímiles, de lo que deduce que este fenómeno se debe no a la distancia, sino a características intrínsecas a los mismos. Para Silk el argumento no es convincente por dos razones: a) es frecuente observar superposiciones ópticas -no reales- que ligan objetos a distancias diferentes entre sí, dando la impresión en una fotografía estática de ser uno solo; b) no hay una significante variación estadística para fundamentar la hipótesis.

3.-Cosmología del Plasma.- Parte de una idea combinada debida a hipótesis de dos suecos: Oscar Klein, físico y Hanner Alfren astrónomo. Para Klein el Universo sería una colección de Universos o metagalaxias gigantescas y cada uno de ellos pueden ser de materia o de antimateria que no se mezclan -pues se aniquilarían, debido a un fenómeno de estabilización de la superficie de contacto denominado "efecto leinderfrost “ En nuestro Universo ocurrió el mismo fenómeno al encontrarse regiones de materia con regiones de antimateria al principio ocurrió una aniquilación en las superficies en contacto: produjo la radiación de fondo que ahora se mide desde la Tierra.
Luego la materia y la antimateria resultante se desarrolló, evolucionó cada una por aparte y no se mezclan. La misma presión de radiación impidió el colapso de toda la materia y la antimateria y en el Universo existen cantidades similares de regiones (conteniendo galaxias y todos los objetos restantes) tanto constituidos por materia que formada por antimateria. Para Silk la propuesta no es válida por tres razones:
a) La mayoría de astrónomos no aceptan el mecanismos de Leidenfrost para separar materia de antimateria;
b) de haberse dado procesos de aniquilación habría un fondo de radiación de rayos muy energéticos (gamma) que no se ha detectado;
c) se ha observado un fondo cósmico difuso de rayos gamma actualmente pero es muy bajo, lo que implica que actualmente puede estar ocurriendo una destrucción poco significativa;
d) la hipótesis no explica de dónde procede la radiación cósmica de fondo que se ha medido (y forma parte de una de las pruebas a favor de la teoría del B.B.);
e) y la isotropía de esa radiación indica que la Tierra no está en ningún sitio preferencial, mientras que la idea de Alfren-Klein implica que estuviésemos muy cerca de la metagalaxia, lo que viola el Principio Cosmológico.

4) Gravitación Variable.- En 1937 el físico francés Paul Dirac llamó la atención acerca de una coincidencia realmente intrigante. La relación de igualdad numérica que existe entre la fuerza gravitacional que mantiene unidas los grandes conglomerados en el espacio (la más débil de las cuatro fuerzas universales) y la fuerza eléctrica que atrae a electrones y protones entre sí en el micro espacio.

Las mediciones originales de Hubble determinan que el proceso de expresión muestra para la fuerza gravitacional (G) un valor que coincide con la fuerza de atracción eléctrica: ambas dan un valor de 10-40. En consecuencia, Dirac propuso tomar esta entidad de valor como una ley de la Naturaleza.

Sin embargo al refinarse las observaciones los valores iniciales dadas por Hubble comenzaron a variar, lo que obligó a Dirac a formular la idea de que la constante universal gravitacional no es estática,, sino que varía con el tiempo, lo que permite -nuevamente- un fundamento teórico aceptable para mantener la relación postulada para las dos fuerzas. Por eso en 1961 los físicos norteamericanos Carl Brans y Robert Dicke, reformularon la idea de Dirac modificando la Teoría General de la relatividad que es experimentalmente comprobable mediante la medición de quasars. En principio -sin embargo las mediciones no favorecen la propuesta de Brans-Dicke.

5).-Encogimiento del Universo.- Este es un modelo matemático, más que una propuesta resultante de la observación y, en cierta forma es una variable del modelo del Estado Estacionario debido a los astrónomos Fred Hayle, inglés y Jayant Harlikan, hindú y postula:
a) No hay proceso de expansión del espacio, por lo tanto las galaxias no se están alejando;
b) lo que ocurre es que la masa de todas las partículas está aumentando, aunque sus cargas eléctricas permanecen sin alteración alguna;
c) El aumento de masa produce un aumento energético debido a que los electrones, al acercarse más al núcleo, orbitan más aceleradamente;
d) al medirse en un laboratorio terrestre la velocidad de la radiación producida arroja un resultado que se ha tomado como un valor estándar para el Universo; los átomos en una galaxia lejana tendrían masas mayores que los átomos en las galaxias cercanas; entonces al medir la luz en ambas dan efectos diferentes, así las galaxias lejanas arrojan datos que se toman como si hubiese un corrimiento al rojo, lo cual no es correcto, porque este corrimiento no es cosmológico, sino intrínseco al encogimiento de los átomos.

6) La Singularidad Desnuda: Un problema realmente serio para la física -no necesariamente para la cosmología- es que la teoría B.B. prácticamente impone tomar en cuenta una singularidad como inicio. Pero no se trata de una singularidad común -como sería el caso de la formación de agujeros negros- sino de una singularidad desnuda.

Desde el punto de vista físico, en un Universo cerrado hay una singularidad desnuda en el pasado (Alfa) y otra en el futuro (Omega). En el Universo abierto solo hay una singularidad (Alfa) en pasado. Solo en el caso hipotético de que en el inicio el Universo hubiese sido perfectamente regular (altamente homogéneo e isotrópico) y definiendo nuevas escalas de corrimiento, la singularidad podrá ser abierta y observadores hipotéticos podrían pasar a través del tiempo cero. Por otra parte, si el Universo no fuese tan altamente idealizado las líneas-mundo de todos los observadores comenzarían repentinamente en la singularidad pasada y en un Universo cerrado terminarían repentinamente en la singularidad futura. De aquí se desprende a juicio de Silk que "una singularidad que pueda terminar repentinamente las líneas-mundo de observadores tanto en el pasado como en el futuro- es una propiedad general del Universo y no es una propiedad específica de la Teoría B.B."

Los pioneros de la Teoría B.B. no mostraron gran preocupación por la singularidad que tanto en el espacio como en el tiempo exige la ecuación de Friedmann que se utiliza para hacer los cálculos. A juicio del cosmólogo norteamericano Richard Tolman, uno de los pioneros de la cosmología de modelos calientes: "...las singularidades pasadas y futuras son una consecuencia inevitable de las ecuaciones, pero una teoría física más ajustada haría que las singularidades desapareciera...De tal manera que sería posible tener un Universo cíclico de comprensión-explosión".

A juicio de Silk, sin embargo: "...la producción de radiaciones de parte de las galaxias y estrellas impone un límite para el número posible de ciclos; no obstante en un Universo cerrado, que hubiese recorrido muchos ciclos de expansión y contracción (modelo Mixmaxter), parece atrayente (porque evita las misteriosas singularidades)...

De hecho la singularidad en el pasado permite pasar desde lo que había antes de ella, hacia adelante (el futuro) pero esto solo en teoría en el modelo idealizado de Friedmann, no en la realidad en la cosmología que requiere trabajar con ecuaciones que puedan aplicarse a masas variables; porque en esta condición realista lo que sucede es que si el Universo debe pasar por una singularidad inicial su fase de colapso subsecuente debe ser -indefinidamente- altamente inhomogénea.

7.- ¿Universo Inicial Caliente? .-La singularidad al inicio plantea un problema real a la cosmología B.B. : ¿porqué el Universo es isotrópico lo que es fácilmente comprobable por la radiación cósmica de fondo negro, cuya temperatura de 3K, es invariable, pese a que se hagan observaciones en todo sentido. Más aún, ¿cómo pudo viajar la radiación de una región a otra para equiparar la temperatura?, y además debió haberlo hecho, entonces velocidades superluminales, lo que viola las leyes relativistas y el concepto de velocidad absoluta de la luz.

A este problema solo se le pueden anteponer soluciones técnica: a) que la expansión se hizo a velocidades diferentes, no todo al mismo tiempo, observando las horizontales del Universo inicial en tiempos diferentes lo que habría permitido que la radiación uniformara la temperatura; o b) que se haya dado una variación entrópica positiva debida a la formación de agujeros negros iniciales, que mediante la radiación de Hawking produjesen una radiación de fondo uniforme como la que se observa actualmente. Por tanto en esta segunda propuesta la radiación de fondo sería el resultado de sumar la disipación y la evaporación de los agujeros primordiales.

Como consecuencia de esta segunda posibilidad queda el hecho que si la entropía siempre crece (de acuerdo al postulado de la segunda Ley de Termodinámica), resulta que entonces el inicio del Universo no es caótico, sino suave.

¿Universo Inicial Frío? .- Con la propuesta de aparición de agujeros negros primordiales planteada por Hawking, es posible entender que el Universo moderadamente caótico, esto es ordenado, permite un inicio en frío y la radiación cósmica de fondo sería entonces el resultado de la disipación y evaporación posterior de agujeros negros primordiales, o también podría ser la resultante de mecanismos producidos por las galaxias en una etapa posterior (de acuerdo con la propuesta de Hoyle-Narlikar, de apertura energética de galaxias en tiempos diferentes). Un Universo que comenzó en frío permitiría también resolver el problema de la formación de galaxias, porque la materia fría es inestable, produciría generación espontánea de fisuras geométricas como ocurre con el agua subenfriada), que daría inicio a las galaxias, sin perturbar la homogeneidad.

Pero, a juicio de Silk: "La principal objeción para un Universo frío es la necesidad de explicar el fondo de radiación de cuerpo negro: argumentarse que la radiación proveniente de la formación primitiva de estrellas podría ser absorbida por partículas de polvo y finalmente captada como radiación de cuerpo negro. Por lo tanto, es difícil conciliar tal origen con el alto grado de isotropía o con el espectro de cuerpo negro a 3K y ...será necesario hacer mediciones de las fluctuaciones de densidades en las aglomeraciones presentes en la época de desacople, porque deben haber dejado huellas...(pero) tales mediciones deben ser hechas en la década de los ochenta".

Estas breves pinceladas acerca de eventuales variables que deben ser tomadas en cuenta acerca de la eventual modificación del modelo estándar del B.B. pone de manifiesto que para estas épocas ya la Cosmología que estudia el inicio del Universo, debe lidiar con gran cantidad de interrogantes, pero al mismo tiempo con gran cantidad de hipótesis, no todas concordantes.

Escatología Planetaria.- Independientemente de cuál teoría sobre lo acontecido en el largo proceso evolutivo sea la correcta, hay un hecho incontrovertible: en esta década la Humanidad se encuentra ante grandes problemas que comienzan apenas a ser comprendidos. Entre más nos acerquemos a la fase superior de la evolución seremos más capaces de cumplir con el fundamento básico de una humanidad sana, que esté en paz con la naturaleza. Pero esta vuelta al “Paraíso” puede ser de corta duración geológica, porque el planeta enfrenta varias amenazas a corto plazo. Por ejemplo:
a) de origen externo, la eventual colisión con asteroides o con planetoides que ha sido pronosticada por funcionarios de la NASA;
b) por problemas militares la amenaza nuclear provocada por el enfrentamiento posbélico resultante de la Primera y Segunda Guerra Mundiales y de la carrera armamentista despeñada; c) por problemas de conservación del medio: de orden local, las que se refieren a la gradual destrucción de la capa de ozono que protege a los delicados organismos biológicos del ingreso de rayos infrarrojos procedentes de la radiación solar; para crear el "efecto invernadero" producido por el calentamiento gradual de la atmósfera debido al uso de combustibles fósiles y desechos industriales diversos (aunque este último efecto ha sido puesto en duda por expertos geólogos noruegos, quienes, argumentan que se produciría un efecto contrario, llamado “efecto refrigeradora”).

En el evento que la Humanidad logre resolver estos problemas siempre le espera el planeta Tierra otro derivado de la propia constitución del núcleo terrestre, dado que la radiación que mantiene el centro del planeta a 2000 grados centígrados no durará para siempre por estas razones:

1) La radioactividad del potasio, el torio y el uranio tienen un límite. Este último tiene una media vida de cuatro mil quinientos millones de años igual a la edad que se le ha calculado a nuestro planeta. Si así fuera, la radioactividad del uranio estaría por reducirse a la mitad, lo que causará que las montañas se reduzcan a la mitad de su altura actual. Al haber menos montañas aumentarían los espacios planos en los cuales se expandiría el mar, a expensas de los continentes.

2) En el curso de los próximos cien millones de años, la humanidad podría verse obligada a instalar elevados y espesos muros en las márgenes de todos los océanos para resguardar la totalidad de las extensiones que le sirven de morada. Además, los geofísicos saben que los continentes se modificarán, como lo han hecho siempre, a causa de los cataclismos por las presiones de la roca hirviente, que cuando no escapa por los volcanes provoca los terremotos y cambios en la faz del planeta tendrían un origen opuesto ya que se deberían a que la roca fluida ha disminuido en un cincuenta por ciento su capacidad para formar montañas.

3) Al cabo de otros cuatro mil quinientos millones de años la fuerza radioactiva del uranio tendrá sólo la cuarta parte de la que disponía cuando se formó la Tierra. Su superficie estaría constituida por mesetas en lugar de montañas y por archipiélagos en lugar de continentes. El aspecto exterior de la Tierra ha variado muchas veces, desde que era una masa de barro incandescente hasta nuestros días. Es curioso que a pesar de la colosal caldera que carga en su interior, su superficie no perciba más calor que el que le remite el Sol desde una distancia promedio de ciento cincuenta millones de kilómetros.

4) El calor interior ha tenido una acción exclusivamente mecánica pero de gran influencia en los fenómenos de la biología, porque diseñó los escenarios en que los mismos se han desarrollado y repercutió indirectamente en el clima cuando las presiones de la roca hirviente hicieron que el Polo Norte se mudara de las cercanías de Hawai, hace quinientos millones de años. Después recorrería el Pacífico hasta alcanzar su actual ubicación. Se instaló sobre el agua del Océano Ártico, al contrario del Polo Sur, que se mudó del Océano Atlántico al continente de la Antártida, donde imperaba una exuberante vegetación e imponderables formas de vida animal. Ese continente ha sido hundido por debajo del nivel del mar, a causa del peso de la enorme montaña de hielo que la nieve formó sobre él, en el curso de millones de años que no han podido precisarse con exactitud.

5) Por ahora la radioactividad del uranio sigue expresándose con su máximo poder y los geofísicos prevén que Siberia se volverá a unir con Alaska y que el puente por donde llegaron los asiáticos, padres del hombre americano, emergerá de nuevo para siempre. Ayudarán a ello los estallidos de los volcanes aleutianos. El Canal de la Mancha desaparecerá e Inglaterra dejará de ser isla, al incorporarse al territorio que comparten sus socios de la Comunidad Económica Europea. El Estrecho de Magallanes se cerrará al unirse Patagonia y la Tierra del Fuego con la Antártida. El istmo de Panamá volverá a unirse dejando un canal natural entre el Pacífico; y el Atlántico y las Antillas al juntarse convertirán al Caribe en un mar interior.

En virtud de estos pronósticos de corto y largo plazo en la Cosmología comienzan a aparecer predicciones sobre catástrofes o problemas que esperan al Universo, al Sol y al Planeta. En un Anexo se incluye las principales teorías del fin del Universo y por consecuencia de la Tierra. También por estas épocas toma fuerza una nueva forma de predicción planetaria proveniente del área de las ciencias sociales: la futurología, pero ya no como elucubraciones de novelistas y de escritores de ciencia - ficción, sino de académicos, que si bien no son bien comprendidos comienzan a divulgar sus planteamientos al gran público.

Pronósticos Futuristas. - Para la décadas de los 70 y 80 hay un convencimiento generalizado de que la humanidad debe entrar en una era de cooperación en todos los niveles y para ello se necesitan instrumentos de visualización del futuro próximo.

Al cabo de varias décadas de mala fama, las especulaciones y estudios sobre el futuro distante vuelven a convertirse en tema de interés de los estudiosos. Y se ponen de moda. Para esta década se reinician diversos trabajos serios de esta índole en varios lugares de los Estados Unidos de América, Europa, América Latina (Venezuela, Chile, Brasil y Argentina) y el Japón; mas lo que distingue la mayoría de estos empeños de los trabajos anteriores (que eran, por lo general, especulaciones de escritores y pensadores aislados) es el hincapié que se hace en que los estudios se realicen de forma continuada, en cooperación y sistemáticamente para poder hacer comparaciones y extrapolaciones.

Dice uno de los peones en futurología, el norteamericano Herman Kahn: “Por lo regular, se encuadran varias disciplinas en un esfuerzo integrado de análisis y especulación. Como es natural, estas empresas difícilmente reemplazarán a las perspicaces visiones de Wells, Huxley u Orwell, obras personales de la imaginación -casi todas tendentes apasionadamente a cambiar el futuro- que han solido poseer mayor influencia que los esfuerzos más sistemáticos y "razonables", pero, como corresponde, más prosaicos, de quienes se dedican a hacer pronósticos a largo plazo”. Con todo, es probable que un proyecto de este tipo debidamente llevado y bien integrado incluya en sí las penetraciones intelectuales pertinentes de cierto número de disciplinas académicas y técnicas, y es asimismo más probable que presente las cuestiones realistas acerca de las directivas de actuación a adoptar tal y como es verosímil que surjan en el futuro; pues aunque un estudio interdisciplinario competente no tiene por qué suscitar necesariamente el interés y la preocupación de los ciudadanos y de quienes toman las decisiones (esto es, no más de lo que haga una fantasía política), cualquier estudio en toda regla debería por lo menos contener análisis sobre los que puedan basarse otras investigaciones y debates posteriores
Los riesgos que se ven obligados a asumir las personas que se dedican a preparar pronósticos a largo plazo son muy numerosos, especialmente si tratan de estudiar cuestiones cuya importancia no se haya advertido o sentido aún; pues paradójicamente una investigación tiene muchas maneras de no alcanzar los objetivos perseguidos, más que en obtenerlos.

Y también existe el riesgo de quedarse atrapados entre los requisitos de la pertinencia y el rigor: es posible que los analistas, en su intento de dar con las cuestiones centrales o de interés, relajen los requisitos de solidez académica hasta el punto de que el trabajo sea de baja calidad; o bien pueden con tanto ahínco tratar de ser explícitos, documentados y objetivos, que soslayen los temas difíciles de formular o incluso, parcialmente "ininvestigables", pero que serán, con frecuencia, las más importantes.

El problema mayor radica no en las dificultades de los estudios en sí, sino en la voluntad política para rectificar rumbos, lograr consensos y establecer metas realistas frente a los problemas de este período: entre ellas las revueltas sindicales y estudiantiles de los años 60 y 70; las confrontaciones entre el Este y el Oeste; los enfrentamientos y desavenencias entre el Norte y el Sur, todas las cuales causan en esta época crisis de gran impacto global - en razón de la rápida difusión de las noticias - que acercan los problemas de zonas distantes, en tal forma que lo que ocurre en un país afecta a otro situado a miles de kilómetros de distancia. El efecto de un proceso lento, pero sostenido y permanente de planetización negativa se comienza a gestar y junto a este aparecen síntomas planetarios de preocupación, desasosiego, inseguridad, cambio de valores y sobre todo de incertidumbre: nadie parece saber hacia dónde se marcha. Es como si se hubiese perdido el rumbo.

Curiosamente en la cosmología se están logrando avances importantes y fortaleciendo la hipótesis del inicio; pero en el planeta está iniciándose un caos, en parte fruto de problemas viejos irresolutos, en parte también de las nuevas innovaciones tecnológicas y de la fuerte aparición de la sociedad de consumo; en parte también de la crisis de los dos sistemas políticos en que se ha dividido la humanidad: el socialismo materialista y el capitalismo insensible, que aunque por caminos diferentes - y ambos aparentemente buscando la felicidad dentro de sus esquemas cerrados - terminan propiciando lo contrario.

El cambio según Toffler.- A principio de los 70 un escritor - que se denomina a sí mismo futurólogo- para dar a entender que sus tesis no son ficciones, sino asentadas en razonamientos científicos, el norteamericano Alvin Toffler, acapara la atención mundial con el impactante libro “El Shock del Futuro”, seguido pocos años después por otro: “La Tercera Ola”. Alvin Toffler fuertemente atacado en círculos académicos por su carencia de formación superior, dice respecto a su labor: “No soy un profeta, no creo que nadie conozca el futuro, y quien así lo afirme comete un fraude. Lo que hago es presentar nuevas hipótesis en gran escala; nuevas ideas, con la esperanza de estimular un nuevo modo de pensar”.En efecto el nuevo modo de pensar requiere de un nuevo contexto paradigmático de un giro de la humanidad que vea llegar el tercer milenio de la era cristiana con la presencia concurrente de tres tipos de civilización cuyas características se establecen con base en la velocidad:

1) La primera es la sociedad agrícola que marcha a la velocidad del reloj, en horario real, como las antiguas carretas de bueyes en los tiempos del cólera, y para medir su progreso no es necesaria entelequia astrofísica alguna. Está formado por sociedades agrarias prácticamente aisladas del mundo exterior o con muy pocas relaciones con él excepto las que se establecen en muelles, puertos, consulados, casa de cambio y, eventualmente, con noticieros de televisión a nivel mundial. Intensivas en manos de obra y en recursos de la tierra, estas naciones están formadas, a su vez, por grupos sociales desarticulados, con la clase política y la gran empresa a cargo del control gubernamental, la clase media proveedora de servicios y compradora de bienes de consumo y grupos étnicos o estratos de pobreza extrema al margen de la economía formal y el sistema financiero. esta sociedad tardó cerca de trescientos mil años (o más) en tomar forma.

2) La segunda es la sociedad industrial con mercados más amplios, cerrados o integrados con otros dependiente de mano de obra calificada pero barata y con insumos de energía muy elevados en relación con el rendimiento de la producción. Esta sociedad tardó tres siglos en gestarse y madurar.

3) La tercera es la nueva sociedad postindustrial o informática, opera a base de otro tipo de densidad: la de los conocimientos, su ordenación y la rapidez con que puede transmitirlos y ponerlos en práctica. Esta sociedad no tiene linderos ni intereses territoriales. Puede ser una isla o una franja de tierra en un continente ajeno. No necesita conquistar nuevos territorios, no quiere más carbón ni otros recursos naturales. Todo lo que demanda es sabiduría y cómo convertirla en riqueza. Esta sociedad tiene apenas treinta años de haberse iniciado.

4) Una nueva civilización está emergiendo en nuestras vidas, pero hombres ciegos tratan por doquier de sofocarla. Esta nueva civilización trae consigo nuevos tipos de familia; formas distintas de trabajar, amar y vivir; una nueva economía; nuevos conflictos políticos, y, más allá de todo esto, una conciencia asimismo diferente.

5) La humanidad se enfrente con un gran salto hacia adelante. Tiene ante sí la conmoción social y la reestructuración creativa más hondas de todos los tiempos. Sin advertirlo claramente, nos afanamos en construir una nueva civilización desde sus cimientos. Esta es la significación de la tercera ola.

6) La especie humana ha experimentado hasta ahora dos grandes olas de cambio, cada una de la cuales sepultó culturas o civilizaciones anteriores y las sustituyó por estilos de vida hasta entonces inconcebibles. La primera ola de cambio -la revolución agrícola- invirtió miles de años en su desarrollo. La segunda ola -el auge de la civilización industrial- necesitó solo trescientos años. La historia avanza ahora todavía a mayor velocidad, y es probable que la tercer ola progrese y se complete en unas pocas décadas. Nosotros, los que compartimos el planeta en estos explosivos tiempos, sentiremos por tanto todo el impacto de la tercera ola en el curso de nuestra vida.

7) La tercera ola trae consigo un estilo de vida auténticamente nuevo, basado sobre fuentes diversificadas y renovables de energía, métodos de producción que dejan anticuada a la mayoría de las cadenas fabriles de montaje, nuevas familias no nucleares, una nueva institución que cabría denominar el "hogar electrónico" y las escuelas y empresas del futuro radicalmente modificadas. La civilización naciente nos impone un nuevo código de conducta y nos empuja más allá de la producción en serie, la sincronización y la centralización, más allá de la concentración de energía, dinero y poder.

8) Es una civilización con su propia perspectiva mundial característica, sus propias maneras de abordar el tiempo, el espacio, la lógica y la causalidad. Nuestra argumentación se basa en lo que denominamos la "premisa revolucionaria". Esta plantea que, siendo incluso probable que las décadas inmediatamente venideras rebosen de agitación, turbulencia y quizá hasta de violencia generalizada, no nos destruiremos por completo. Parte de la idea de que los cambios bruscos que ahora experimentamos no son caóticos ni aleatorios, sino que, de hecho, forman una pauta definida y claramente discernible. Da por sentado, además, que esos cambios son acumulativos, que sumados representan una transformación gigantesca de nuestro modo de vivir, trabajar, actuar y pensar; y que es posible un futuro cuerdo y deseable.

9) Se requiere -entonces- una nueva mentalidad para el "análisis de las ondas de choque", con un enfoque nuevo y eficaz que considere la historia como una sucesión de encrespadas olas de cambio” y se pregunte adónde nos lleva la línea de avance de cada una, para centrar la atención no tanto en las continuidades de la historia (por importantes que éstas sean) como en las discontinuidades, innovaciones y puntos de ruptura, identificando las pautas fundamentales de cambio a medida que surgen, para que podamos ejercer una influencia sobre su evolución.

Es obvio que a estas alturas del siglo la Punta directriz del acontecer planetario se encuentra en manos de dos estamentos sociales: los científicos y los políticos; el resto está subordinado, lo desee o no, a sus decisiones y actuaciones.

El impacto de los libros de Toffler dejan la labor de futurólogos como Erick Jantsch, Daniel Bell, Herman Kahn, y de los institutos de investigación que dirigen en situación de inferioridad; así mismo el Club de Roma, dirigido por Aurelio Peccei en Italia, el Club Bariloche dirigido por un incipiente grupo de académicos universitarios en Argentina y la Corporación Orinoco en Venezuela, dirigida por José Curiel, pasan a segundos lugares.

A finales de los 70 e inicios de los 80, el físico de partículas norteamericano Fritjoh Capra, quien había producido un libro impactante y polémico: “El Tao de la Física” incursiona en el campo de la futurología con la obra: “El Punto Crucial”, en la que enfoca los mismos problemas que Toffler pero les encuentra causas diferentes.

El cambio según Capra .- Los nuevos conceptos de la física han ocasionado un profundo cambio en nuestra visión del mundo, determinando el paso de una concepción mecanicista cartesiana y newtoniana a una visión holística y ecológica que, en opinión del físico es muy parecida a las concepciones de los místicos de todas las épocas y de todas las tradiciones:

1) La nueva visión del Universo físico no fue en absoluto fácil de aceptar para los científicos de comienzos de siglo. La exploración del mundo atómico y subatómico los hizo entrar en contacto con una realidad extraña e inesperada que parecía desafiar cualquier explicación coherente. En sus esfuerzos por comprender esta nueva realidad, los científicos se dieron cuenta -muy a su pesar- de que sus conceptos básicos, su lenguaje y toda su manera de pensar eran inadecuados para describir los fenómenos atómicos. Estos problemas no eran simplemente intelectuales, sino que comportaban una intensa crisis emocional, y por decirlo así, hasta existencial. Los hombres de ciencia necesitaron mucho tiempo para superar esta crisis, pero al final se vieron premiados con un conocimiento profundo de la naturaleza de la materia y de sus relaciones con al mente humana.

2) Nuestra sociedad actual en conjunto se encuentra en una crisis similar (todos los días podemos leer en los periódicos acerca de las numerosas manifestaciones de esta crisis). Nos enfrentamos a una inflación galopante y un alto índice de paro, a una crisis energética, a una crisis de la asistencia médica, a la contaminación y otros desastres ambientales, a una creciente oleada de violencia y criminalidad. Todos estos fenómenos no son más que distintas facetas de una única crisis, ya que esta crisis es esencialmente de percepción. Como la crisis por la que pasó la física en los años veinte, también esta es consecuencia de nuestra tentativa de aplicar los conceptos de una visión anticuada del mundo -la mecanicista visión del mundo de la ciencia newtoniano-cartesiana- a una realidad que ya no puede comprenderse desde ese punto de vista.

3) Hoy vivimos en un mundo caracterizado por sus interconexiones a nivel global en el que los fenómenos biológicos, psicológicos, sociales y ambientales, son todos recíprocamente independientes. Para describir este mundo de manera adecuada, necesitamos una perspectiva ecológica que la concepción cartesiana del mundo no nos puede ofrecer. Necesitamos un nuevo “paradigma”, una nueva visión de la realidad; una transformación fundamental de nuestros pensamientos, de nuestras percepciones y de nuestros valores. Los inicios de esta transformación, de la transición de una concepción holística de la realidad, ya se comienzan a vislumbrar en todos los campos y es probable que se impongan en esta década.

4) Desde la década de los setenta se han generado una serie de movimientos sociales que parecen ir en la misma dirección, insistiendo en diversos aspectos de la nueva visión de la realidad. Hasta hoy, la mayoría de estos movimientos están actuando aisladamente, pues aún no han reconocido hasta qué punto se encuentran vinculados sus objetivos y es de esperar que los distintos movimientos se fusionen y creen una potente fuerza orientada a la transformación social. La gravedad y la extensión global de la crisis actual indican que de este cambio podría resultar una transformación de dimensiones sin precedentes, “un punto crucial”, un giro decisivo para todo el planeta.

5) El cambio de paradigma comprende: a) una teoría de sistemas, o integral, sobre la vida, la mente, la conciencia y la evolución; b) el correspondiente enfoque holístico de la salud y la enfermedad; c) la integración de los enfoques orientales y occidentales de la psicología y la psicoterapia; d) una nueva estructura conceptual para la economía y la tecnología; e) y una perspectiva ecológica y feminista que es espiritual por naturaleza y que dará origen a cambios profundos en nuestras estructuras sociales y políticas.

De allí deduce Capra que: El cambio conceptual en la física moderna también tiene repercusiones sociales muy importantes: “Creo que la concepción del mundo implícita en la física moderna es incompatible con nuestra sociedad actual, que no refleja las relaciones armoniosas e interdependientes que observamos en la naturaleza. Para alcanzar este estado de equilibrio dinámico se necesitará una estructura económica y social radicalmente diferente: una revolución cultural en el verdadero sentido de la palabra. La supervivencia de toda nuestra civilización podría depender de nuestra capacidad para efectuar este cambio. Pero resulta que para efectuar un cambio -según los parámetros lógicos- se deben inscribir en un “orden”, y de qué nuevo orden trata?

Aunque los hallazgos de Capra no son necesariamente coincidentes con los de Toffler, hay una coincidencia: el cambio necesario para que la Humanidad se enrumbe hacia una evolución menos traumática depende de ella misma; no de las fuerzas ciegas de la Naturaleza. Eso significa - nuevamente que en manos de los científicos y de los políticos se encuentra -en esta década- la solución, como lo señala también el profesor de sociología español José Tamanes.

El Cambio según Tamanes.- Para Tamanes está naciendo un nuevo orden mundial, pero es necesario encauzarlo. ¿De qué nuevo orden mundial se trata? El anterior bipolar, eso parece claro, está feneciendo ante nuestro ojos. El nuevo, ¿será unipolar o compartido? ¿Habrá la hegemonía autoritaria de unos pocos con un criterio autogratificante, o vamos a un mundo solidario? Esos son algunos de los interrogantes a los cuales se requiere responder al referirse a un nuevo orden que por ahora se escribe con artículo indefinido, como indefinida está también su posible configuración, pero de la cual es posible discernir algunas pautas porque la senda de la razón crítica a un nuevo orden mundial pasa en esta labor de construir el "nuevo orden" por tres fases o partes sucesivas.

1) La primera fase "La percepción del mundo", requiere observar la realidad circundante tratando de entrar en profundidad en las cuestiones que realmente nos afectan y que seguirán siendo los grandes problemas de nuestro tiempo. Esa percepción debe servir de frontispicio para apreciar -desde el inicio- que todos vivimos en un solo espacio en el que pugnamos entre el egoísmo y la solidaridad, en una triple dimensión interactuante: ecológica, económica y política: a) Lo ecológico implica que todos somos conscientes, (aunque a veces nos resistamos a aceptarlo), de los graves peligros que se ciernen sobre la biosfera de un planeta que sin cesar estamos en curso de erosionar y degradar; b) la dimensión económica no es menos acuciante, tanto en la vertiente demográfica, como en la distribución mundial de recursos y renta., y frente a ese panorama -ya en curso de agravarse- lo menos que podríamos hacer sería plantear un modelo de desarrollo alternativo; pero lejos de diseñarse, seguimos en la convencional bipolaridad del productivismo/consumismo; c) lo político implica toda una revisión que sin ambages reconozca los límites de la democracia (en el sentido de que nosotros mismos la bloqueamos), tanto a escala de los países, como en la globalidad del sistema de las Naciones Unidas.

2.- La segunda fase requiere el “triálogo”, el debate de los tres mundos: el Norte (“Primer Mundo”), el Este (“Ex-Segundo Mundo”) y el Sur (“Tercer Mundo”) a todos los niveles, con el telón de fondo de un solo mundo. Y de esa contradicción de tres pugnando en uno, habrá de surgir, inevitablemente, una reconversión todavía incierta, pero que ya nadie se atreve a poner en duda cuando hablamos del nuevo orden mundial. Lo grave es que en cierto modo, estamos todos tan ocupados -tan frenéticamente ocupados, "con unas agendas tan cargadas", y "tan reunidos a todas horas"-, que incluso en las más altas esferas del poder no queda tiempo para pensar. Para pensar, por ejemplo, que el futuro no es, de forma inevitable, la resultante de una concatenación de aciertos y errores en que sobre la marcha incurrimos con fuerte aleatoriedad en el quehacer cotidiano individual y colectivo. El futuro hay que diseñarlo, lógicamente, con los elementos que nos da el presente, pero con una cierta holgura para hacerlo lo mejor posible. En eso consiste, precisamente, la nueva evolución, en la que el hombre se convierte, con todas las relatividades, en un deus ex machina; pero en la forma todavía convencional del percibir el mundo, queda mucho del pasado, entre el “fatalismo” y el “laissez faire”, cuando la “verdadera historia” radica en que la creciente hominización del entorno mundial nos obliga a repensarlo casi todo, a fin de preparar respuestas para grandes y apremiantes cuestiones, que están ahí; porque esperar indefinidamente a dar contestación, sería exponerse a una experiencia muy dura de situaciones quizás irreversibles.

3) La tercera fase es la construcción solidaria de un nuevo orden mundial, porque requiere la convivencia de las naciones y de los pueblos; a fin de pasar, luego a examinar cómo está organizado el actual gobierno mundial realmente existente en nuestro tiempo y , cómo podría transformarse, prospectivamente, en un auténtico gobierno de la humanidad.

A juicio de Tamanes el reto consiste en formular proposiciones concretas que en buena proporción ya están en el ambiente, aunque todavía sin formalizar: "Y por ello mismo, me he atrevido a llegar a los propios términos institucionales, sobre cuál podría ser un diseño de ese futuro en su triple dimensión: de lo ecológico, con el Consejo de Seguridad Medioambiental de las Naciones Unidas; en lo económico, con la posible ampliación del Grupo de los Siete, poniéndolo en la trama del sistema económico internacional, y en lo político, con la reforma de la Carta de las Naciones Unidas. Realmente no hay nada que inventar, sino fijarse en las nuevas realidades que nos rodean, incipientes en unos casos, y ya bastante desarrolladas en otros. En definitiva, se trata de perseverar frente a las inercias, pues cuando el nuevo orden está surgiendo en medio de convulsiones, violencias y nuevas libertades. ya hay quienes tienen nostalgia de lo viejo. Y cuando todo ese nuevo mundo se nos viene por delante, algunos vacilan, sin llegar a creerse tan dramáticas transformaciones. Recordemos la vieja frase de Gramsci, de que la crisis consiste en que lo viejo no termina de morir y lo nuevo no acaba de nacer.”

LA CULPA DE LA CIENCIA
A juzgar por lo que sucede en esta década ciento cincuenta años de ciencia han resultado más explosivos que cinco mil años de cultura precientífica, pero sería absurdo suponer que el poder explosivo de la ciencia está agotado o que ha alcanzado ya su máximo. Es mucho más probable que la ciencia continúe durante los siglos venideros produciendo cambios aún más rápidos. Cabe suponer que al final se logrará:
a) un nuevo equilibrio, bien cuando ya se sepa tanto que el término de una vida no sea suficiente para alcanzar las fronteras del conocimiento y, por consiguiente, los descubrimientos ulteriores deban aguardar algún incremento considerable de longevidad o bien la aparición de un hombre nuevo;
b) o bien cuando los hombres se “aburran del nuevo juguete” y se cansen de emplear la energía necesaria para el logro de los progresos científicos y se contenten con gozar de los frutos de los investigadores anteriores, como los romanos tardíos disfrutaban de los acueductos construidos por sus antecesores;
c) o también pudiera suceder que toda sociedad científica fuese "incapaz de estabilidad" y que su "retorno a la barbarie" sea condición necesaria para la "persistencia de la vida humana".

Tales especulaciones, sin embargo, aunque pueden entretener un momento de ocio, son demasiado nebulosas para tener importancia práctica y lo que es importante en el momento presente es que la influencia de la ciencia sobre nuestros pensamientos, nuestras esperanzas y nuestras costumbres aumenta continuamente. Al considerar la influencia de la ciencia sobre la vida humana, tenemos, por consiguiente, que considerar tres aspectos más o menos enlazados entre sí:

1) La naturaleza y objeto del conocimiento científico.- El hombre hasta ahora se ha visto impedido de realizar sus esperanzas, por ignorancia de los medios. A medida que esta ignorancia desaparece, se capacita cada vez mejor para amoldar su medio ambiente, su medio social y su propio ser según las formas que juzga mejores. Mientras sea sensato, este nuevo poder le será beneficioso. Pero si el hombre es necio, le será contraproducente. Por consiguiente, para que una civilización científica sea una buena civilización, es necesario que el aumento de conocimiento vaya acompañado de un aumento de sabiduría; y entiéndase por sabiduría una concepción justa de los fines de la vida. Esto es algo que la ciencia por sí misma no proporciona, porque el aumento de la ciencia en sí mismo no es, por consiguiente, bastante para garantizar ningún progreso genuino, aunque suministre uno de los ingredientes que el progreso exige.

2.- De la contemplación a la manipulación.- La ciencia, en el curso de varios siglos de su historia, ha tenido un desarrollo interno, que aún no parece estar completo. Se puede resumir este desarrollo como el paso de la contemplación a la manipulación. El amor del conocimiento, al cual se debe el crecimiento de la ciencia, es en sí mismo el producto de un doble impulso. Podemos buscar el conocimiento de un objeto porque amemos al objeto o porque deseemos tener poder sobre él. El primer impulso conduce al tipo de conocimiento contemplativo; el segundo, al tipo práctico. En el desarrollo de la ciencia, el impulso - poder está representado por la industria y por la técnica gubernamental. Está también representado por las conocidas filosofías del “pragmatismo” e "instrumentalismo". Cada una de estas filosofías sostiene, dicho de un modo general, que nuestras creencias sobre cualquier objeto son verdaderas siempre que nos hagan capaces de manipularlo con ventaja para nosotros. Esto es lo que podría llamarse una concepción gubernamental de la verdad. De las verdades así concebidas, la ciencia nos ofrece una gran cantidad; en realidad, no se vislumbra límite a sus triunfos posibles. Al hombre que desea cambiar su medio ambiente, la ciencia le ofrece instrumentos asombrosamente poderosos, y si el conocimiento consiste en el poder de producir cambios intencionados, entonces la ciencia proporciona conocimiento en abundancia.

3) El amor como forma de conocimiento.- El deseo de conocimiento se manifiesta también en otra forma, que pertenece a una serie de emociones del todo diferentes. El místico, el amante y el poeta también buscan conocimiento; quizá no con mucho éxito, mas no por eso son menos dignos de respeto. En todas las formas del amor deseamos tener conocimiento de lo que es amado, no con propósito de poderío, sino por el éxtasis de la contemplación. "En el conocimiento de Dios está nuestra vida eterna"; pero no porque el conocimiento de Dios nos dé poder sobre Dios. Siempre que haya éxtasis, alegría o deleite derivados de un objeto, hay deseo de conocer ese objeto -de conocerlo, no a la manera manipuladora que consiste en transformarlo en otra cosa, sino de conocerlo en la forma de visión beatífica, porque en sí derrama felicidad sobre el amante- La ciencia, en sus comienzos, fue debida a hombres que tenían amor al mundo. Percibían la belleza de las estrellas y del mar, de los vientos y de las montañas. Porque amaban todas esas cosas, sus pensamientos se ocupaban de ellas y deseaban entenderlas más íntimamente que lo que la mera contemplación exterior hacía posible. "El mundo -decía Heráclito- es un fuego siempre vivo." Heráclito y los demás filósofos jónicos, de los que vino el primer impulso hacia el conocimiento científico, sintieron la extraña belleza del mundo casi como una locura, en la sangre. Eran hombres de un intelecto titánicamente apasionado; y de la intensidad de su pasión intelectual se ha derivado todo el movimiento del mundo moderno.

El Conocimiento-Poder.- Paso a paso, a medida que la ciencia se fue desarrollando, el impulso - amor que le dio origen ha sido contrariado, mientras el impulso - poder, que fue al principio un mero acompañante, ha usurpado gradualmente el mando, en virtud de su éxito no previsto. El amante de la naturaleza ha sido burlado; el tirano de la naturaleza ha sido recompensado. A medida que la física se ha desarrollado, nos ha ido privando, paso a paso, de lo que nos imaginábamos que conocíamos acerca de la naturaleza íntima del mundo físico. El color y el sonido, la luz y la sombra, la forma y la contextura, no pertenecen ya a aquella naturaleza externa que los jonios buscaban como a la desposada de sus amores. Todas estas cosas han sido transferidas del amado al amante, y el amado ha quedado reducido a un simple esqueleto de huesos crujientes, frío y temible. Aunque quizá sea un mero fantasma. El pobre físico, aterrado ante el desierto que sus fórmulas descubren, acude a Dios en busca de consuelo; pero Dios debe compartir la espiritualidad de su creación, y la respuesta que el físico cree oír a su grito es solo el latido asustado de su pobre corazón. Desengañado como amante de la naturaleza, el hombre de ciencia se está haciendo su tirano. ¿Qué importa -dice el hombre práctico- que el mundo exterior exista o sea un sueño, si yo puedo obligarle a comportarse según mis deseos? Así la ciencia ha sustituido cada vez más el conocimiento - poder al conocimiento - amor; y a medida que se completa esta sustitución, la ciencia tiende más y más a hacerse sádica. La sociedad científica del futuro, tal como la hemos imaginado, es de índole tal, que en ella el impulso - poder ha dominado por completo al impulso - amor, y este es el origen psicológico de las crueldades que corre peligro de fomentar.

Muerte de la Metafísica.- La ciencia, que comenzó siendo la persecución de la verdad, se está haciendo incompatible con la veracidad, ya que la veracidad completa tiende cada vez más al escepticismo científico completo. Cuando consideramos la ciencia contemplativamente, y no prácticamente, encontramos que lo que creemos lo creemos por fe animal, y que solo nuestras incredulidades son debidas a la ciencia. Cuando, por otro lado, la ciencia se considera como una técnica para la transformación de nosotros mismos y de nuestro alrededor, se encuentra que nos da un poder enteramente independiente de su validez metafísica. Pero solo podemos manejar este poder cesando de plantearnos cuestiones metafísicas respecto a la naturaleza de la realidad. Y, sin embargo, estas cuestiones son la prueba de una actitud de amante hacia el mundo. De este modo, solo renunciando al mundo como adoradores podemos conquistarlo como técnicos. Mas esta división en el alma es fatal para la parte mejor del hombre. Tan pronto como se comprueba el fracaso de la ciencia considerada como metafísica, el poder que la ciencia confiere como técnica se obtiene por renuncia al amor. No es el conocimiento el que origina estos peligros. El conocimiento es bueno, y la ignorancia es mala; a este principio no encuentra excepción el amante del mundo. Ni tampoco es el poder en sí y por sí el origen del peligro. Lo que es peligroso es el poder manejado por amor al poder, y no el poder manejado por amor al bien genuino.

La Incultura de los Poderosos.- Nuestro mundo tiene una herencia de cultura y de belleza; pero, desgraciadamente, esta herencia ha sido solo manejada por los miembros menos activos e importantes de cada generación. El gobierno del mundo, (los puestos dominantes de poder), ha venido a caer en manos de hombres que ignoran el pasado, que no tienen ternura por lo tradicional, ni comprensión de lo que están destruyendo. No hay ninguna razón fundamental que justifique este estado de cosas. El prevenirlo es un problema de educación, y no muy difícil. Los hombres del pasado eran a menudo limitados y “provincianos” en el espacio; pero los hombres que dominan en nuestra época son “provincianos en el tiempo”. Sienten por el pasado un desprecio que no merece, y por el presente un respeto que aún merece menos. Gobernar no ha de proporcionar tan solo placer a los que gobiernan, sino hacer la vida tolerable a los que son gobernados. La técnica científica no debe por más tiempo constituir la cultura de los mantenedores del poder, y deberá formar la parte esencial del panorama ético de los hombres para comprobar que la buena voluntad por sí sola no puede hacer una vida buena. El conocimiento y el sentimiento son ingredientes por igual esenciales, tanto en la vida del individuo como en la de la comunidad. El conocimiento, si es amplio e íntimo, trae consigo una realización de tiempos y lugares distantes, el saber que el individuo no es omnipotente o imprescindible, y una perspectiva en la que los valores se ven más claramente que como los perciben aquellos a quienes es imposible una visión distante. Aún más importante que el conocimiento es la vida de las emociones.

El hombre ha sido disciplinado hasta ahora por su sujeción a la naturaleza. Habiéndose emancipado de esta sujeción, muestra algunos de los defectos del esclavo que se convierte en amo, por lo que ,una nueva perspectiva moral es necesaria, en la que la sumisión a los poderes de la naturaleza sea reemplazada por lo que tiene el hombre de mejor. Mientras exista esa mora, la ciencia que ha librado al hombre de su cautiverio de la naturaleza podrá proceder a librarle de su cautiverio de sí mismo.





LA CULPA DE LOS POLÍTICOS

Evidentemente la eclosión de un nuevo paradigma tiene como su principal barrera el paradigma que se requiere cambiar y sobre el tema, Alvin Toffler plantea en su nueva obra un pensamiento sintetico y abrumador: “ unas generaciones nacen para crear una civilización, otras para mantenerla “. Las generaciones que desencadenaron la segunda ola de cambio histórico se vieron obligadas, por la fuerza de las circunstancias, a ser creadoras porque inventaron la mayor parte de las formas políticas que todavía aceptamos como naturales y es que -apresados entre dos civilizaciones- su destino era crear. Hoy, en todas las esferas de la vida social, en nuestras familias, nuestras escuelas, nuestras empresas y nuestras iglesias, en nuestros sistemas energéticos y nuestras comunicaciones, nos enfrentamos con la necesidad de crear nuevas formas de la “tercera ola”, y millones de personas de muchos países inician ya la tarea. Sin embargo, en ninguna parte es la obsolencia tan manifiesta o peligrosa como en nuestra vida política. Y en ningún terreno encontramos ahora menos imaginación, menos experimentación, menos disposición a considerar un cambio fundamental. ¿Por qué se pregunta? y tienen las respuestas:

A.- No al Conservadurismo.- Aunque parezca increíble las personas que son audazmente innovadoras en su propio trabajo -en sus bufetes o sus laboratorios, sus cocinas, sus aulas o sus empresas - parecen petrificadas - ante cualquier sugerencia de que nuestra constitución o nuestras estructuras políticas están anticuadas y necesitan ser sometidas a una revisión radical. Resulta tan aterradora la perspectiva de un cambio político profundo con sus riesgos concomitantes, que el statu quo, por surrealista y opresivo que sea, parece de pronto el mejor de los mundos posibles.

B.- No a los Revolucionarios.- A la inversa, tenemos en toda sociedad una periferia de seudorrevolucionarios, empapados en los supuestos anacrónicos de la segunda ola, para los que ningún cambio propuesto es bastante radical. Arqueomarxistas, anarcorrománticos, extremistas de derechas, demagogos racistas, fanáticos religiosos, guerrilleros de salón y terroristas hasta la médula que sueñan con tecnocracias totalitarias, utopías medievales o estados teocráticos. Incluso mientras nos adentramos en una nueva zona histórica, alimentan sueños de revolución extraídos de las amarillentas páginas de folletos políticos de antaño.

C.- Flexibilidad e Inteligencia.- Lo que nos espera en tanto se intensifica la superlucha no es otra representación de ningún drama revolucionario anterior, ningún derrocamiento de las elites gobernantes a manos de un "partido de vanguardia" que arrastre tras de sí a las masas, ningún levantamiento popular, espontáneo y supuestamente catártico provocado por el terrorismo. La creación de nuevas estructuras políticas para una civilización de la tercer ola no surgirá del paroxismo de una sola convulsión, sino como consecuencia de mil innovaciones y colisiones en muchos niveles, en muchos lugares y durante un período de décadas.

Esto no excluye la posibilidad de violencia en el tránsito hacia el mañana. El paso de la civilización de la primera ola a la de la segunda fue un largo y sangriento drama de guerras, revoluciones, hambres, éxodos, golpes de estado y calamidades. Lo que ahora está en juego es mucho más, con menos tiempo, aceleración más rápida y peligros aún mayores. Mucho depende de la flexibilidad e inteligencia de las elites, subelites y susperelites de hoy. Si estos grupos demuestran ser tan miopes, poco imaginativos y asustadizos como la mayoría de los grupos dirigentes del pasado, se opondrán rígidamente a la tercera ola y aumentarán así los riesgos de violencia y de su propia destrucción . Si, por el contrario, se dejan llevar por la tercera ola, si reconocen la necesidad de una democracia ensanchada, podrán integrarse en el proceso de creación de una civilización de la tercera ola, del mismo modo que las elites más inteligentes de la primera ola previeron la llegada de una sociedad industrial de base tecnológica y se sumaron a su establecimiento.

Las circunstancias de un país a otro difieren, pero nunca en toda la historia ha habido tantas personas razonablemente instruidas y colectivamente armadas con una gama de conocimientos tan increíble. Nunca tantos han disfrutado de un nivel de opulencia tan elevado, precario quizá, pero bastante desahogado para permitirles dedicar tiempo y energía a la preocupación y acción cívicas. Nunca tantos han poseído la posibilidad de viajar, comunicarse y aprender tanto de otras culturas. Nunca, sobre todo, tuvieron tantos mucho que ganar garantizando que los cambios necesarios, aunque profundos, fuesen pacíficos.




EL OBSTÁCULO PARA EL CAMBIO ES SOCIAL

Existe una aceleración en la marcha de la ciencia, una eclosión de resultados sucesivos que van conquistando nuevas regiones del conocimiento a un ritmo inconcebible para los antiguos. Los astrónomos estudian objetos situados en los confines del Universo y se interrogan acerca de sus inicios, ocurridos hace miles de millones de años; los físicos han descubierto decenas de partículas sub-atómicas, aún mucho más elementales que los neutrones y protones; los bioquímicos desentrañan la estructura molecular de la vida, analizando minuciosamente sus delicados equilibrios, y cada día sintetizan componentes más complejos de las estructuras vitales; los mecanismos que gobiernan la herencia, el clima y hasta el propio pensamiento son comprendidos cada vez más exactamente. En fin, la lista podría proseguirse sin riesgo de agotarla, llenando páginas y páginas con la simple enumeración de resultados.

Pero, cuando de conocernos a nosotros mismos se trata, las cosas cambian radicalmente. Apenas si entendemos la forma en que se reparte la riqueza en nuestro planeta, o los ciclos de recesión y prosperidad que tanto nos afectan a todos; guerras y crisis políticas estallan súbitamente, sin que podamos preverlas sino poco antes de que comiencen, del mismo modo que varía el estado de ánimo de las poblaciones o que se modifican instituciones tan importantes como la familia, la empresa o el Estado. Un desnivel evidente en los conocimientos científicos se percibe por el observador menos avisado: mientras la humanidad ha alcanzado a saber cómo nacen, evolucionan y mueren las lejanas estrellas, no es capaz, en cambio, de conocer conscientemente sus sentimientos y valores, o de entender la forma en que maduran las instituciones políticas y sociales.

Mientras somos capaces de lanzar sondas que escapan del sistema solar y encerrar en un centímetro cúbico un verdadero cerebro artificial, una quinta parte de la humanidad corre permanentemente el riesgo de morir de hambre, se acumulan desbastadores arsenales, se persigue a mucha gente -en muy diversas partes- simplemente por sus opiniones. Todavía el analfabetismo y las más simples enfermedades limitan la vida de millones de personas.

La ciencia, en sí, no es un pensamiento fundamentalmente utilitario, pero no resulta absurdo pedirle que tenga alguna capacidad para modificar nuestro entorno inmediato. Es por eso algo desconcertante constatar que la ciencia y la tecnología modernas hayan desarrollado ampliamente sus posibilidades en algunos campos, mientras que en otros aparezcan casi totalmente ineficaces, sin repercusiones en la vida cotidiana. La discrepancia constituye un verdadero problema de investigación que incumbe también a las ciencias sociales pues, si de analizar el progreso de la ciencia se trata, si nos interrogamos acerca del desenvolvimiento de las tecnologías, habrá que aceptar que ciencia y técnica son construcciones humanas, que hacen los individuos y las instituciones en sociedades específicas. Para hallar las respuestas, entonces, es preciso indagar respecto a muchas facetas de lo que ha sido y es la organización social que nos envuelve, comprender su estructura, encontrar los mecanismos que la determinan para encontrar una salida.

El problema es social con el agravante que las ciencias sociales se encuentran entrampadas en los "particulares problemas" metodológicos que afrontan tales ciencias, derivados en gran parte de las características de sus objetos de estudio, entre ellas:

1.- El hecho de que los fenómenos sociales nos involucran tan directa y plenamente, que en este caso la separación entre un sujeto investigador y un objeto de estudio independiente se hace poco menos que difusa; el investigador "pertenece" siempre a una sociedad de un modo que lo compromete mucho más que su pertenencia al mundo físico o biológico.

2.- La complejidad evidente de todo lo social. Las sociedades humanas son complejas porque sus instituciones y su organización suponen y multiplican las conocidas complejidades de los seres vivos; su estudio implica entonces el riesgo del reduccionismo, y una dificultad para construir modelos abstractos útiles y significativos.

3.- La realidad social involucra un algo de apremiante, plantea problemas inmediatos, perentorios, que hay que resolver porque de ellos dependen nuestra felicidad, nuestra estabilidad emocional y, muchas veces, nuestra propia existencia, y de paso la perpetuación de la biosfera en el Planeta Tierra.

Ahora bien, no se trata de esperar a una toma de conciencia de parte del sistema social, sus sostenedores y sus investigadores: el proceso amenaza con ser lento, de allí que nuevamente Toffler plantea una solución en el campo de la política.

La salida al Problema.- Las elites por instruidas que sean, no pueden crear por sí solas una nueva civilización. Se necesitan las energías de pueblos enteros. Pero estas se hallan a nuestro alcance y solo aguardan a ser formadas y concienciadas. De hecho si adoptásemos como objetivo explícito para la próxima generación la creación de instituciones y constituciones enteramente nuevas, podríamos liberar algo mucho más poderoso que la energía: la imaginación colectiva. Cuanto antes empecemos a diseñar instituciones políticas alternativas basadas en la democracia participativa, la justicia social y la solidaridad humanas, más probabilidades tendremos de una transición pacífica. Es el intento de impedir tales cambios, no los cambios mismos, lo que aumenta el nivel de riesgo. Es el ciego afán de defender la obsolescencia lo que suscita el peligro de derramamiento de sangre. Este esfuerzo requiere de cuatro acciones sencillas:

1) Para evitar una violenta agitación debemos empezar ya a centrar nuestra atención en el problema de la obsolescencia política estructural en todo el mundo. Y tenemos que llevar esta cuestión a la consideración no solo de los expertos, los constitucionalistas, abogados y políticos, sino también del público mismo...organizaciones ciudadanas, empresarios, sindicatos, iglesias, grupos feministas, minorías, étnicas y raciales, científicos y amas de casa. Debemos, como primer paso, suscitar el más amplio debate público sobre la necesidad de un nuevo sistema político sintonizado con las necesidades de una civilización de la tercera ola.

2) Como nadie conoce con detalle qué nos reserva el futuro ni qué funcionará mejor en una sociedad nueva, no debemos pensar en una única y masiva reorganización ni en un solo cambio revolucionario y cataclísmico impuesto desde arriba, sino en miles de experimentos conscientes y descentralizados que nos permitan ensayar nuevos modelos de adopción de decisiones políticas en los ámbitos local y regional, antes de aplicarlos en los ámbitos nacional e internacional.

Al mismo tiempo, tenemos que empezar también a constituir un electorado para una experimentación similar -y un diseño radicalmente nuevo- de instituciones en los niveles nacional e internacional. La desilusión, la irritación y la amargura generalizadas contra los gobiernos de la segunda ola pueden ser excitadas hasta un fanático frenesí por demagogos deseosos de implantar regímenes autoritarios, o bien movilizadas para el proceso de reconstrucción democrática.

3) Desencadenando entonces un vasto proceso de instrucción social -un experimento de democracia anticipante en muchas naciones a la vez- es posible detener el empuje totalitario. Podemos preparar a millones de personas para las dislocaciones y crisis peligrosas que nos aguardan. Y podemos ejercer una presión estratégica sobre los sistemas políticos existentes para acelerar los cambios necesarios.
Sin esta tremenda presión desde abajo, no es posible esperar que muchos de los actuales líderes nominales o formales desafíen a las mismas instituciones que, por anticuadas que estén, les dan prestigio, dinero y la ilusión -ya que no la realidad- del poder. Algunos políticos o funcionarios extraordinarios y perspicaces prestarán desde el principio su apoyo a la lucha por la transformación política. Pero la mayoría solo encuentre cuando las demandas procedentes del exterior sean irresistibles o cual la crisis se halle ya tan avanzada y la violencia tan próxima que no vean ninguna alternativa.

Toffler, el futurólogo, nos invita a dar el paso en busca del cambio. La responsabilidad del cambio nos incumbe. Debemos empezar por nosotros mismos, aprendiendo a no cerrar prematuramente nuestras mentes a lo nuevo, a lo sorprendente, a lo radical en apariencia. Esto significa luchar contra los asesinos de ideas que se apresuran a matar cualquier nueva sugerencia sobre la base de su inviabilidad, al tiempo que defienden como práctico todo lo que ahora existe, por absurdo, opresivo o inviable que pueda ser. Significa luchar por la libertad de expresión, por el derecho de la gente a expresar sus ideas, aunque sean heréticas. Significa dar ya comienzo a este proceso de reconstrucción, antes de que una mayor desintegración de los actuales sistemas políticos haga salir a la calle a las fuerzas de la tiranía y torne imposible una transición pacífica a la democracia del siglo XXI.

Si empezamos ahora, nosotros, nuestros hijos y nuestros nietos podremos participar en la apasionante reconstitución, no solo de nuestras anticuadas estructuras políticas, sino también de la civilización misma. Como la generación de los revolucionarios puros, la nuestra está destinada a crear para evolucionar. Y evolución es, como sabemos, desde un principio -incluso en la materia inorgánica- es la intensificación de la "consciencia". Y esto seguirá siendo en lo sucesivo. Así pues, la evolución tiene que culminar definitivamente en un grado sumo de "consciencia". Pero puesto que en el hombre esta "consciencia" se elevó a la consciencia del yo, a la personalización, también el ulterior progreso del hombre deberá seguir la misma línea, no en dirección hacia algo impersonal, sino ahora hacia algo suprapersonal. El futuro de la humanidad consiste, por tanto, a todas luces en un centrarse -en forma superior- la sustancia de la humanidad alrededor de un punto.

EN BUSCA DE OMEGA

A esta meta de la evolución, para nosotros difícil de concebir, la llama Theilhard de Chardin el Punto Omega. Es el fin del ascenso humano, el centro o foco cósmico hacia el cual confluyen todas las energías espirituales de la humanidad. La fuerza de atracción que origina este movimiento convergente, es el amor. Por consiguiente, el Punto Omega debe poner en marcha este movimiento de convergencia hacia él. Por eso el punto omega no se limita a ser un punto futuro de intersección, sino que además debe existir ya actualmente. El Punto Omega, en cuanto yo suprapersonal, desempeña en la profundidad de la masa pensante el papel de energía unificadora. Como el "interior" o la "consciencia" de la materia cósmica impulsó la evolución hacia adelante, así también el punto omega atrae hacia sí las partículas de consciencia.

Hoy día no tenemos todavía una idea clara de la magnitud de la evolución que ha de recorrer la noosfera hasta alcanzar este punto; en efecto, la esencia de la evolución implica el que nosotros, que formamos un estadios temprano, no podamos todavía prever el curso del proceso. pero si es nuestro deber entenderlo para impulsarlo, en las tres direcciones el avance de la humanidad hacia el teórico Punto Final Omega,que requiere pasar por tres estadios:

Primer Vector: Una organización cada vez mejor de la investigación, sobre estas bases: a) Con los modernos descubrimientos de los hombres ha surgido algo enorme en el Universo. La humanidad avanzará en este sentido. De las poderosas energías que todavía hoy se emplean para la producción y los armamentos, se dedicarán cada vez mayores contingentes a los estudios, a los laboratorios, al descubrimiento de la verdad. También las energías que se liberan por medio de las máquinas, se dedicarán cada vez en mayor escala a la investigación. Todo se debe profundizar y todo se debe intentar. El ansia de poseer que tiene el hombre se sublimará cada vez más. b) El hombre sabrá más para adquirir más capacidades, adquirirá más capacidades para hacer más y hará más para ser más. Con los conocimientos adquiridos mediante la investigación nuclear, ha llegado ya a adquirir dominio sobre los elementos. c) Un día, mediante el perfeccionamiento de las síntesis albuminoideas acaso consiga producir la vida. En todo caso, mediante los progresos de la investigación del virus y mediante conocimientos más exactos de los procesos hereditarios, alcanzará un dominio cada vez más soberano de los procesos vitales. e) Finalmente, llegará también a tener un domino de día en día más amplio sobre la vida psíquica. Así el hombre sostendrá en su mano con firmeza creciente las riendas del Universo. f) Los que con más arrestos trabajan en esta dirección son, desde el punto de vista de la evolución, los más humanos de los hombres, puesto que trabajan directamente sobre el eje de la evolución de la humanidad. Desde luego, esta tendencia a investigar más, a inventar más, a saber más la humanidad no puede controlarla del todo. Está sujeta, como antes al ciego tantear de la vida, al imperativo de la evolución. El hombre no lo puede remediar: tiene que inventar también cosas peligrosas.

Segundo Vector: La segunda dirección del progreso hacia el punto omega va orientada hacia el hombre mismo sobre estas consideraciones: a) El hombre existe desde hace muchísimos años. Pero solo desde hace pocos años ha vuelto la mirada hacia atrás, sabe quién es y de dónde viene; b) El futuro será cada vez en mayor escala la era de la ciencia del hombre mismo; en efecto, dado que el hombre es la meta de la evolución, es también, como objeto de la investigación, la clave del Universo entero; c) El hombre es propiamente la respuesta a todas las cuestiones que se nos plantean. Descifrar al hombre equivale a descifrar la manera como surgió el mundo y cómo ha de continuar formándose; d) La creciente investigación y experiencia de sí mismo incrementará y afinará lo humano en el hombre, de tal manera, que poco a poco irá dirigiendo cada vez menos contra sí mismo el peligroso instrumento de que dispone con el dominio de los elementos.

Tercer Vector: La tercera dirección del progreso hacia el punto final Omega tiende hacia la unión de ciencia y religión por estas razones: a) Hace varios siglos que reina una tensión entre ambas. Según la concepción materialista, la religión es un fenómeno infantil de la humanidad; b) Dios no existe del todo y al avanzar la evolución social irá desapareciendo la religión, porque hasta ahora la religión había indicado al hombre el sentido de la vida y le había brindado refugio en sus crisis; c) Hoy día estas dos funciones han sido asumidas por la ciencia; en efecto, la ciencia dará una explicación cada vez clara del mundo y logrará controlar cada vez mejor los males que amenazan al hombre; d) La religión desaparece a medida que progresa la ciencia. Tal es el pensar materialista; e) Después de casi tres siglos de luchas entre la ciencia y la fe, ninguna de las dos ha logrado dejar a la otra fuera de combate. Todo lo contrario: cuanto más penetra la investigación moderna en la estructura de la creación, tanto más numerosas, enigmáticas o intrincadas van siendo las cuestiones metafísicas que afectan al reverso del mundo; f) La ciencia no es capaz de ofrecer la última y decisiva explicación del mundo. Ni es esto todo. La misma investigación científica puede, en el mejor de los casos, avanzar solo con ciertos presupuestos de fe, como por ejemplo el supuesto de que el Universo tiene algún sentido, que forma una unidad, que ha sido hecho para seguir desarrollándose; g) La ciencia y la religión no son dos extremos opuestos, sino solo las dos caras o las dos fases de un único acto perfecto del conocimiento. Actualmente estas dos caras del conocimiento están en contradicción aparente. Cuanto más vaya avanzando la humanidad en miles y cientos de miles de años hacia el punto omega, tanto más se irán acercando estas dos caras; h) En efecto, cuanto más ampliamente comprenda el hombre el puesto que le corresponde en el Universo, tanto más ganará en profundidad y plenitud su adoración del Creador.

REFLEXIONES. - El proceso evolutivo que se inicia con el Big Bang, va de la información a las radiaciones, a los elementos primitivos, a los átomos y sus asociaciones; de estos a las moléculas, que por diversas y complicadas interacciones y reacciones intermoleculares (con el carbono como centro aglutinador), propician el paso ascendente de la vida, emergiendo de la materia inanimada pero "informatizada" (o provista de un eje ordenador psíquico), para llegar a la emergencia del Ser Humano , que va evolucionando también en su pensamiento y en su conciencia y debe continuar su espiritualización, de la cual la información es la nueva superficie de contacto con la sublimación de la materia altamente evolucionada.

En la actualidad puede afirmarse de acuerdo a los cálculos de los químicos, el francés Jacques Monod y del alemán Manfred Eugen, que el ser humano ha pasado el 99% de su existencia sumido en la Prehistoria (200.000 generaciones), frente a solo 20.000 generaciones que representan el trozo de camino recorrido desde que se presenta el fenómeno de la hominización lo que posiblemente signifique que apenas empezamos el camino sobre nuevas bases.

El proceso evolutivo se inicia con información, su principio rector es la información y su final es la información. ¿de dónde procede la información? ¿Por qué se quiebra la simetría perfecta en que no existe el espacio ni el tiempo, para dar inicio a la imperfección o simetría quebrada que caracteriza al Universo conocido?

De acuerdo con el genetista norteamericano Thomas Caskey, Presidente Internacional del Proyecto Genoma Humano, que busca trazar el "mapa genético" de la raza humana, resulta que el esqueleto de la estructura del ADN de todos los humanos es la misma (3x109 bases de ADN), lo que hace la diferencia son detalles secundarios que se dan a partir de variaciones de esas bases; y así es posible afirmar que son mucho mayores las variaciones que se presentan entre los miembros de un mismo grupo étnico, que los que existen entre todos los grupos étnicos. En consecuencia, todos somos hermanos en el verdadero sentido de la palabra, ya no solo porque así lo preconicen las religiones - de capa caída hoy día - sino la ciencia - la nueva emperadora del saber.

También de esa consecuencia se desprende un deber: conforme se devela el misterio del origen - y aunque no se logre - en ese camino nos encontramos - surge el deber hacia el futuro.

Para hacer una sinopsis con la simetría perfecta y comprenderla se requiere intuición, pensamiento, conocimiento y emoción; pero el ser humano -aun imperfecto y sumido en un Universo de simetría imperfecta- solo atina a llamar Dios Creador a la simetría perfecta y a atribuirle -en su semejanza- características antropomórficas; lo que desata pasiones bien para adorarle, bien para denostarle y lo realmente difícil de entender es porque debe ser así y no de otro modo. Y de frente a esta muralla las religiones, la filosofía y la ciencia son apenas intentos infantiles para lograr acceso a la verdad mientras la política es cada vez menos eficiente para resolver los más vitales problemas de la humanidad.

En estas circunstancias de crisis por todos lados el vacío en que se debe mover el espíritu hace surgir movimientos ecológicos, resurgen ritos primitivos, aumenta la superchería, renace la brujería y los cultos satánicos y en medio de ellos -como recogiéndolos para darles una nueva expresión- asoma tímidamente el sincretismo religioso occidental-oriental: la Nueva Era, cuya orientación inicial es la búsqueda de una religiosidad basada en creencias hinduistas y budistas, pero el sincretismo mal digerido y propuso a la comercialización tempranera, se enreda con las creencias procedentes de grupos gnósticos, de las especulaciones sobre los extraterrestres (y sus pretendidos contactos), y lo que pudo haber sido un punto de atracción espiritual comienza a ser promocionada como una mercancía de consumo a la par de la Coca Cola y las hamburguesas Mc Donalds.

Mientras tanto el movimiento cristiano (tanto al catolicismo como las llamadas iglesias "históricas", para diferenciarlas de sus sectas experimentan un reavivamiento de su fe; pero no en la intimidad del espíritu, sino tecnologizada: por medio de altavoces, radio, televisión y transmisiones masivas por satélite: es el nacimiento del "teleevangelismo" y de los "grupos carismáticos"; asistimos a la eclosión de una nueva forma de expresión de la fe de los centros urbanos que se centra en la "felicidad" -una cara de la sociedad consumista-; en la música bulliciosa- una cara de la extroversión ritual; y desemboca en el contagio psicológico y en "curas milagrosas" colectivas de "enfermedades histéricas reversibles".

Parece ser que la ciencia que ha transformado al mundo físico conocido también da paso -como una consecuencia no buscada, pero si encontrada- a la transformación de las expresiones religiosas. La crisis en esta década es también del espíritu, y llega a tal profundidad que renace la prédica irracional del Apocalipsis como salida y las secuelas no se hacen esperar como nos lo recuerdan el suicidio colectivo en Guyana, luego reiterado en las dos décadas siguientes por varias sectas en Estados Unidos de América y Canadá (países bajo fuerte influencia de prédicas "fundamentalistas"), fuertemente aderezadas por el cine y la televisión comerciales, que en mucho ayudan a fomentar otros fenómenos sociales que se les unen a la crisis: la violencia, la pornografía, la drogadicción, la corrupción. Todo deja como sedimento la eclosión de un nuevo orden de valores: los antivalores.

La crisis se hace extensiva a otras regiones del globo, cuando a finales de la década siguiente la Unión Soviética no resiste el embate de la Perestroika ("cambio") y del Glasnot (transparencia) que predica Mijail Gorbachev. El resquebrajamiento de este Estado-Nación, se acompaña de los procesos de democratización de países de Europa Oriental y de la efervescencia democratizadora que recorre América Latina, África y parte del Asia.

También en la década siguiente irrumpen dos fenómenos: el primero, la entronización del sistema capitalista como ideología-pragmatismo político prácticamente única en el globo; el segundo: el fenómeno de la creciente globalización económica que entroniza de golpe la prevalencia de lo material como objeto-sentido de la vida y relega a un plano inferior la solidaridad humana: es el momento en que la expresión: Lo importante es "ser", no "tener", llega a tocar fondo y curiosamente el materialismo-dialéctico marxista al morir no puede cumplir con su cometido de aniquilar el espíritu humano; pero le cede su lugar al materialismo capitalista, que comienza su reinado mundial, en pos del mismo objetivo.

Repensar a Dios.- Repensar a "Dios Hoy", es hacer un esfuerzo de situar en contexto el misterio divino tan venido a menos por las causas que hemos analizado en capítulos anteriores. Cuales pueden ser algunas formas de acercarse a Diso cuando se ha preconizado du muerte y la ciencia le niega reiteradamente porque-obviamente-no le encuentra en sus formulas y ecuaciones. Examinemos dos opciones opciones :
a) Compromiso de libertad.- Sea cual fuere el punto de partida de mi marcha hacia Dios… sólo lo alcanzaré mediante una marcha personal que es un compromiso de libertad, mediante una comprensión que no es verdadera más que cuando es participante”, advierte B. Montagnes.
En otras palabras, si bien esta opción, sea la que fuere, puede y debe justificarse por la razón, pertenece inevitablemente al orden de la toma de posición voluntaria y del compromiso. El creyente sabe que no puede totalmente justificar la opción por Dios, lo mismo que el ateo sabe que tampoco él puede dar preferentemente cuenta de su propia posición.
b) Proceso racional.- Buscar a Dios hoy se trata de una decisión eminentemente libre, pero de una decisión que, una vez más, está lejos en ambos casos de ser irracional, ya que “No puede haber “verdadera decisión de libertad” que pueda prescindir de un “proceso racional” totalmente coherente y riguroso” ,como señala Labarniére
c) Sentido de la vida.- Opción libre no significa ni mucho menos opción arbitraria. Y hoy es perfectamente posible al creyente, al no poder “probar” que Dios existe –algo que es imposible, justificar su opción de una forma razonable y coherente. ¿Cómo? Planteando, la cuestión del significado de la existencia del universo y del sentido de su propia vida en este conjunto..Esta problemática nos ha llevado a plantear la cuestión del sentido de la existencia. “¿Tiene la vida humana un sentido?, ¿tiene el hombre un destino?.
d) Consecuencias de la elección.- Querámoslo o no, todos estamos comprometidos en concreto. Se trata en este caso de justificar una opción, y una opción muy importante, la de la aceptación o el rechazo de Dios. El hombre se encuentra aquí frente a una alternativa fundamental, ya que de esta opción dependerá el significado de su vida y de su destino. Por eso, sea cual fuere la respuesta que se dé, esta opción es esencial.
e) Compromiso existencial. La búsqueda racional no es es una cuestión neutra o secundaria. Es realmente una cuestión existencial, es decir, en el sentido propio de la palabra, una cuestión que está en el corazón de la existencia, una cuestión que compromete al hombre por completo en toda su vida en lo que ésta de más concreto. Y precisamente porque compromete toda la existencia, esta cuestión no puede resolverse tan sólo a fuerza de argumentos intelectuales a favor de una u otra tesis. Supone un compromiso real del hombre y la respuesta que se le dé no puede ser más que el fruto de una decisión libre, voluntaria y maduramente refleja.En efecto, es una cuestión que exige una respuesta.
f) Compromiso total.- Esta decisión nos comprende pues por entero tanto en nuestra inteligencia como en nuestra sensibilidad, tanto en nuestra vida material como en nuestra vida espiritual en el sentido más amplio de la palabra. Por eso los argumentos intelectuales o morales, o los testimonios, o la revelación cristiana, si se utilizan solos y por separado, no pueden arrastrar la decisión. Se trata de una opción global, realizada a partir de las reflexiones. No podemos eludir las exigencias de lo real.
g) Visible en el accionar concreto.- De una forma o de otra, el hombre está embarcado . Inconscientemente o no, reconoce un sentido a lo que vive. Impregna de él sus pensamientos, sus hábitos, sus decisiones. Lo expresa prácticamente a través de sus afectos, de sus relaciones, de sus trabajos, de sus posiciones políticas y de la forma como concibe sus ratos de ocio… A falta de lenguaje explícito, traduce el sentido de su vida en su acción. Compromete en él su libertad y su fe. En estas condiciones, negarse a iluminar las cuestiones fundamentales es inevitablemente abandonarse a los azares de opiniones irracionales”. (J. Mouse).
Para todos esta cuestión es esencial, y la respuesta se compone de una totalidad en la que se entremezclan indisolublemente nuestras experiencias, nuestros encuentros, nuestra educación, nuestras lecturas, nuestros sentimientos, nuestra personalidad en lo que tiene de más intimo, nuestro temperamento, nuestro cuerpo y nuestro mismo inconsciente. En el corazón de esta cuestión se encuentran… Dios y el hombre.
h) Reflexionar a Dios en el ser Humano y viceversa.- No se puede ya hablar de Dios sin hablar del hombre. Estas dos cuestiones son ahora inseparables. Reflexionar sobre Dios es reflexionar sobre el hombre, y no se puede pensar en el hombre sin plantearse la cuestión de Dios (aunque sea para refutarla). Por tanto, la cuestión es finalmente la del hombre en cuanto tal frente a Dios. ¿Será Dios un freno a su desarrollo o le ayudará a vivir plenamente su vida? Precisemos lo dos términos de esta alternativa a partir de las “pruebas” de la existencia de Dios.

Los dos términos de la alternativa: hoy dia se encuentra en la opción entre el vértigo de lo infinito y la tentación del nihilismo. En primer lugar, ¿qué ocurrirá si se niega la hipótesis de la existencia de Dios? Al negar la existencia de Dios, el ateo no encuentra la razón de ser Dios, se decide contra una finalidad y un sentido últimos de la realidad. No hay nada que explique, que justifique realmente la existencia del mundo y su propia existencia. Estamos entonces, como dice Sartre siguiendo a Heidegger, “abandonados” en un mundo en el que el hombre no puede hacer más que descubrir su soledad total... (en un) universo sordo a su música, indiferente a sus esperanzas, como a sus sufrimientos y a sus crímenes”. (J. Monod) . De frente a la disyuntiva caben dos posibilidades:

1.- Aceptar y vivir la “muerte de Dios” es, en efecto, un acontecimiento inmenso de consecuencias inimaginables, ya que con ella aparecen el frío y la noche mortal del nihilismo, es decir, la convicción de la contradicción total, del sin-sentido y del no-valor de la realidad. Nietzsche es sin duda el filósofo que mejor ha mostrado el aspecto “suicida” para el hombre de esta muerte de Dios. En efecto, entonces ya no hay nada claro, evidente, sólido. Desaparecido su soporte, los valores habituales se derrumban. No hay respuesta alguna a la pregunta: ¿por qué? Falta una meta. Aparece el vértigo de la nada.

2.- Aceptar a Dios como fundamento último de la realidad. Si, por el contrario, se admite que Dios existe, ¿qué ocurrirá con nuestra comprensión del mundo y de nosotros mismos? Encontraremos en él el sentido último de la realidad y de nosotros mismo. Dios, en esta hipótesis, será a la vez el origen primero de mi vida, el sentido último de mi vida y la esperanza que engloba mi vida. Será al mismo tiempo el fundamento, el origen, el apoyo y el fin de toda la realidad. Dios será entonces la respuesta al carácter esencialmente problemático de la realidad. Dado que – según J Lacourt- la afirmación de Dios, a pesar de su dificultad, da coherencia, valor y sentido a la vida” .

El Argumento Kalam.- A partir de 1979 y en años sucesivos , el filosofo, teólogo y doctor en fisicomatemáticas, William Lane Craig ha venido exponiendo en diversos foros el llamado Argumento Kalam que expresa lo siguiente en lo esencial:

…“La primera pregunta que, justamente, se debería hacer”, escribió G.W.F. Leibniz, “es ‘¿Por qué hay algo en lugar de nada? “Esta pregunta, en verdad, aparenta poseer una fuerza existencial profunda, la cual algunos de los grandes pensadores de la humanidad han sentido. Según Aristóteles, la filosofía comienza con un sentido de asombro acerca del mundo, y las preguntas más profundas que un hombre se puede hacer son con respecto al origen del universo

En su biografía de Ludwig Wittgenstein, Norman Malcolm informa que Wittgenstein dijo que él, a veces, tenía una experiencia determinada, la cual podía describirse mejor diciendo que “cuando la tengo, me asombro ante la existencia del mundo. Me inclino a utilizar frases como: ‘¡Qué extraordinario que alguna cosa exista!’”

Igualmente, un filósofo contemporáneo comenta: “... Mi mente, con frecuencia, parece dar vueltas bajo el inmenso significado que esta pregunta tiene para mí. El hecho de que algo exista, en verdad, me parece un motivo para el asombro más profundo”.(
¿Por qué razón existe algo en lugar de nada? Leibniz contestó esta pregunta alegando que existe algo en lugar de nada porque un ente necesario existe, el cual lleva en sí mismo su razón para existir, y es razón suficiente para la existencia de todo el ente contingente.

A pesar de que Leibniz (seguido de ciertos filósofos contemporáneos) contempló la no-existencia de un ente necesario como algo lógicamente imposible, John Hick dio una explicación más sencilla de la necesidad de la existencia en términos de lo que él llamó “necesidad real”: un ente necesario es un ente eterno, infundado, indestructible e incorruptible.

Por supuesto, Leibniz identificó ese ente necesario como Dios. Sus críticos, sin embargo, cuestionaron esta identificación, contendiendo que al universo material en sí mismo se le podía adjudicar la condición de ente necesario. “¿Por qué”, preguntó David Hume, “el universo material no puede ser el Ente existencial necesario, según esta supuesta explicación de la necesidad?”

Típicamente, ésta ha sido, precisamente, la posición del ateo. Los ateos no se han sentido forzados a aceptar la visión de que el universo existió de la nada por ninguna razón en absoluto; antes bien, ellos contemplan al universo en sí mismo como una especie de ente necesario real: el universo es eterno, infundado, indestructible e incorruptible. Como dijo Russell diestramente: “... El universo tan sólo está ahí, y eso es todo.

¿Nos deja, entonces, el argumento de Leibniz en un atolladero racional, o pueden haber otras fuentes disponibles para desenredar este acertijo de la existencia del mundo? Me parece que sí las hay. Se recordará que una característica esencial del ente necesario es su eternidad. Si, entonces, se puede hacer creíble que el universo comenzó a existir y, por consiguiente, no es eterno, hasta ese punto, uno podría demostrar la superioridad del teísmo como una visión racional del mundo.

Ahora, hay una forma del argumento cosmológico, muy menospreciada hoy pero de gran importancia histórica, que apunta, precisamente a la demostración de que el universo tuvo un principio en el tiempo. Originándose en los esfuerzos de los teólogos cristianos de refutar la doctrina griega de la eternidad de la materia, este argumento se desarrolló en formulaciones sofisticadas por teólogos islámicos y judíos medievales, quienes, a su vez, lo pasaron al occidente latino. El argumento, por lo tanto, tiene un amplio atractivo inter-sectario, ya que fue defendido por musulmanes, judíos y cristianos, tanto católicos como protestantes.

Craig se extiende en la defensa del argumento y aunque hay numerosos intentos de refutación se puede afirmar que su pensamiento es muy sólido. Lo importante es que concluye así:
“Resumen y Conclusión : En conclusión, hemos visto, basándonos en argumentos filosóficos y confirmaciones científicas, que es creíble que el universo comenzó a existir.
Dado el principio intuitivamente obvio de que cualquier cosa que comience a existir tiene una causa para su existencia, somos guiados a concluir que el universo tiene una causa para su existencia.
En la base de nuestro argumento, tendría que ser sin causa, eterna, inmutable, atemporal e inmaterial. Por otra parte, tendría que ser un agente personal quien, libremente, elija crear una consecuencia en el tiempo.
Por lo tanto, basados en el argumento cosmológico kalam, concluyo que es racional creer que Dios existe “.

Comentario Final.- En este capítulo hemos pasado repaso a varios acontecimiento importantes que inician con la formulación científica de un prototipo de Modelo Estándar del Big Bag en Caliente) debido al cosmólogo Harrison y terminamos con una propuesta de teológica similar a las utilizadas en la antigüedad, producto del intelecto de Craig ,pero revitalizada por planteos contemporáneos y de mucha solidez no solo conceptual ,sino demostrativa.
En los próximos capítulos incluiremos nuevo material que muestra como década tras década se van estableciendo mas y mas pruebas a favor de la aparición del Universo (como se le denomina por parte de los científicos) o de la creación del Universo ( como se afirma por parte de los que profesamos alguna fe religiosa, concordante con el modelo señalado).

2 comentarios:

martinjaramillo dijo...

El fondo cósmico de microondas no puede ser ni el eco del Big-Bang, ni sus supuestos restos fósiles, por varias razones que se caen de su peso:

1. Cuando se produjo el Big-Bang, según sus defensores, no existía nada, por lo tanto, la onda expansiva o la energía liberada de la gran explosión no pudo haber chocado con nada para que se produjera un supuesto eco o secuencia de ecos que todavía puedan ser detectables en nuestro planeta. El eco son ondas que rebotan en algún obstáculo que encuentran en su camino. La onda expansiva de la gran explosión tuvo que alejarse del sitio donde se produjo, formando una gran esfera en su frente energético en crecimiento explosivo, abriéndose paso entre la nada, y que al no encontrar ningún obstáculo, debe haber seguido creciendo indefinidamente y pasó hace ya miles de millones de años por este sitio, por donde posteriormente se formó nuestro planeta, por lo tanto actualmente, donde está la tierra, es imposible detectarse ningún eco proveniente de la tal explosión.

2. La energía liberada en el Big-Bang, como la de cualquier explosión, debió haber sido emitida de un solo golpe, con una misma intensidad y en un solo instante y no durante un intervalo de tiempo considerable, primero con gran intensidad y luego, después de mucho tiempo continuar una emisión débil, como para que todavía hoy estén llegando sus restos directamente hasta nosotros y se estén detectando como los llamados o los supuestos : “Restos fósiles del Big Bang”. La única posible onda producida por la supuesta explosión ya va supremamente lejos en el tiempo y en el espacio y viaja alejándose de nosotros.

Cómo hoy vamos a poder detectar algo que pasó por aquí cuando nosotros no existíamos.

Amigos del Big-Bang y de la inflación, por qué no se inventan otra “Prueba Reina” más convincente para su teoría.

martinjaramilloperez@gmail.com

Ver Artículo completo en :

http://www.monografias.com/trabajos68/nueva-teoria-universo/nueva-teoria-universo2.shtml

Jopoki dijo...

He revisado sus criterios en las 29 paginas que Usted publica en Monografias. Le alabo el esfuerzo .
En relación con mi libro le agradezco tomar nota :
a) que no soy abierto partidario de ninguna teoría o planteamiento científico a ciegas.
b) tengo simpatía con el planteamiento del Big Bang , termino que acoge varias posibilidades, de inicio , no una sola.

Mi obra lo que busca ,como dice bien el presentador es: hacer una relación cronológica de planteos míticos, místicos, religiosos, científicos sobre el Universo procurando incluir lo mas representativo desde que se recogen los primeros balbuceos del ser humano hasta lo ultimo escrito sobre la materia en la fecha en que se cierra la obra.

En lo relativo a la teoría del Big Bang no todos los científicos están de acuerdo. Como es obvio hay quienes están en desacuerdo.

Sin embargo-hasta el momento la teoría del Big Bang es la mas reputada oficialmente entre los astrofísicos y cosmologos.

En ciencia hay que demostrar los planteos teóricos como los que hace Usted en Monografias. En el tanto Usted no lo haga no creo que los científicos le presten mucha atención.

Incluso tengo amigos científicos que envían y envían escritos a revistas técnicas y no se los publican porque no cumplen con los requisitos mínimos requeridos para tales efectos.

Cordialmente, Jorge

Publicar un comentario

Visite

Ultimos artículos de VERDAD-BLOG