Capítulo III: Nacimiento de la Ciencia Cosmológica

( Años 1950 – 1980 aproximadamente )

Si se busca la fecha del nacimiento de la cosmología como ciencia y según descifren el tema, distintos autores, se suele dar varias fechas no coincidentes. Antes de ubicarlas en tiempo y contexto social debe recordarse que la denominada “practica social”, esto es el conjunto de significados que se dan al interior de una sociedad dada-y en nuestro caso en la sociedad occidental como un todo- la cosmología que se va haciendo es hija de la cultura ,la que a su vez es un factor no aislado, sino interrelacionado con otros factores sociales, económicos y espirituales ,porque la cosmología no es un producto que se arrastra inerte desde los primeros estadios del ser humano, sino que va sufriendo mutaciones ,que si no afectan al Universo, afecta la forma en que los seres humanos pensamos y nos relacionamos con el Universo, el Planeta, el ambiente, la sociedad, la economía, la política, en síntesis con todo el quehacer societario.

En cuando a cuáles son las fechas que se reconocen como el nacimiento de la cosmología como una disciplina separada y dependiente a la vez de la astronomía , digamos que :
a) la primera señalará el surgimiento del concepto de Anaxágoras: el "nous", como la explicación racionalista-materialista primera, que despega el conocimiento de las explicaciones religiosas anteriores;
b) la segunda ubicará a Aristóteles como el primer científico y Padre de la Cosmología.
c) una tercera fecha puede ser el intento de Galileo de encontrar soluciones empíricas para enfrentarlas a las creencias de su época.
d) a cuarta apuntaría hacia Copérnico como autor de un nuevo paradigma cósmico .
e) la quinta deberá ubicarse en el siglo XX, bien en los esfuerzos explicativos que se gestan alrededor de la relatividad einsteniana ,o la aparición de la Teoria del Huevo Cósmico de Lemaitre o la expansión explicada por Hubble (años 20-30).

Para otros autores, en cambio la Cosmología Moderna nace en la década de los 80 cuando la física cuántica debe unirse al relativismo para explicar de manera convincente lo que se va descubriendo gracias a la sofisticación tecnológica y al replanteo de las leyes físicas básicas .
Y hay quienes más bien señalan que la Cosmología nace a partir de la década de los 90, exactamente en 1996, cuando buscando ser ciencia exacta y no mera especulación teórica, buscará desprenderse del método deductivo ,que la ha dominado, para asentarse exclusivamente en los datos empíricos.
Sin embargo habrá que esperar al Tercer Milenio en donde se hacen planteamientos totalmente renovadores que algunos denominan la Nueva Física que estudiaremos en otros capítulos, para que la Cosmología entre de lleno al campo de la ciencia con honores.

En todo caso este itinerario , que muestra avances, dudas, vacilaciones, retrocesos y saltos , es más o menos , el mismo derrotero de muchas disciplinas que al irse depurando con el paso del tiempo requieren más autonomía para aplicar métodos cada vez más reduccionistas. Cabe advertir, sin embargo, que el reduccionismo si bien mejora notablemente la capacidad para examinar los "datos" corre el riesgo de que en su nombre se terminen haciendo extrapolaciones subjetivas francamente deplorables, que los filósofos de la ciencia denominan "cientifismo " o "fisicalismo" y que en el campo de la cosmología son francamente deplorables, pues irán a afincarse en versiones materialistas que buscan despojar de contenido superior el conocimiento que surge.

En todo caso puede afirmarse que las cosmologías que se examinan, sin entrar en detalles, sino a manera de compendio, en este capítulo, son herederas -aún- de los resabios de las explicaciones cosmogónicas creacionistas de raigambre cristiana y de las refutaciones empírico-deductivas que caracterizan las décadas que cubre.

En el Capítulo anterior tuvimos la oportunidad de hacer una revisión de los elementos con los cuales deberá enfrentarse el ser humano para crear nuevos modelos del Universo. Tales ingredientes serán, los que aporten el relativismo y la física cuántica en la proporción mayor; así como la metafísica y la teología, pero estas con una presencia cada vez más discreta ,cuando no nula y ya asistiremos –conforme nos adentremos en la formulación de modelos cosmológicos-como el tema de la presencia de Dios surge ,se abate y resurge según sea la ideología de los científicos que postulan los modelos ,por lo que el tema se sale de la objetividad. La razón recurrente para abolir la existencia de Dios nace-fundamentalmente- del hecho innegable sea desde el ángulo científico o desde el ángulo religioso , que Dios no cabe en ninguna formulación matemática. Y afirmémoslo de una vez: la matemática no es una ciencia per se, es tan solo el lenguaje en que se expresa la ciencia. Y respecto de ese lenguaje aun subsisten dudas tanto en cuanto a sus métodos, como a su esencia misma.

En la época bajo examen (años 50-80 del siglo XX) la cosmología puede dividirse en cuatro períodos bien definidos :
a) el primero constituido por los aportes de la teoría de la relatividad (1905-1915) y la postulación de un Universo creado como el modelo propuesto por Lemaitre ,
b) el segundo es el aporte empírico que se inicia con la observación de la expansión galáctica (1929).
c) el tercero que se inicia en 1948 que se ha llamado el "Gran Debate Cosmológico" entre la teoría de la Gran Explosión (o Big Bang, evolucionista) y la teoría del Estado Fijo o Estacionario (que culmina en el año 1965,cuando se descrubre la radiación en la franja del infrarrojo por Penzias y Wilson ).
d) el cuarto que se inicia en el año 1965 cuando desechado el Modelo del Estado Fijo o Estacionario queda como única explicación oficial el modelo del Big Bang ,pero en dos versiones distintas). Sin embargo dado que la cosmología durante las décadas de los 50 hasta los 70 no refleja aun en sus modelos el aporte vital constituido por las teorizaciones y hallazgos provenientes de la física cuántica y las modificaciones a la relatividad einsteniana ,recurriremos a otro enfoque metodológico.

Por consiguiente en este capítulo nos interesa agrupar la,la materia bajo examen en cuatro áreas que son las que ponen acento y dejan huella permanente en los “retrtos” que van surgiendo acerca del origen y evolución del Universo :
1.- La primera detalla las razones que se encuentran detrás del llamado Gran Debate entre dos teorías rivales, una defendiendo una concepción de Universo Estacionario (o de Creación Continua) , que lo hace aparecer así y otra aportando elementos observacionales para razonar en pro de la evolución del Universo .
2.- Si bien el Gran Debate se da prácticamente con ausencia de argumentación sacada de la Física Cuántica ,es necesario conocer las inquietudes metafísicas que producen los avances de la física cuántica que van a ir impactando a la cosmología evolucionista relativista.
3.- La tercera parte nos lleva a asomarnos a las preocupaciones acerca de la necesidad de estudiar la creación de ideas culturales, que incluyen las ideas científicas y las religiosas. Esto es importante, porque los cambios que se operan con la aparición de nuevos paradigmas en las ciencias sociales, tendrán luego un gran impacto en las décadas futuras, como se examina en otros capítulos.
4.- La cuarta parte la dedicaremos a examinar algunas ideas en boga acerca de la relación entre la ciencia y la fe .El tema de la relación entre la ciencia y la fe ,que es asunto al cual no suelen aludir los científicos, pero si algunos cosmólogos es crucial porque mucha de la divulgación científica –aunque no se escriba así y no se divulgue así- están matizadas de posiciones apriorísticas

Es necesario reiterar que dado que aunque esta obra se divide en capítulos que analizan los acontecimientos de manera sincrónica, los conceptos y datos que se utilizan son las vigentes en cada época bajo examen, y solo en ocasiones especiales -previa advertencia al lector- se adelantan informaciones que corresponden a períodos que se examinan en capítulos venideros.

También cabe reiterar que dado que el avance científico tiene particularidades que no se ajustan necesariamente a una cronología histórica de secuencia lineal, hay criterios que se adelantan a la época pero no son aceptados por la comunidad de especialistas hasta tiempo después (o del todo se descartan); pero –igualmente- en la cosmología las hipótesis viejas descartadas vuelven a resurgir y se incorporan al cuerpo oficial de conocimientos, en cualquier instante.

Y como veremos más adelante con la irrupción de conocimientos tipificados como "ciencias del caos" o "ciencias de la complejidad", en donde los conceptos clásicos lineal-secuenciales entran en franco descredito para volverse multisecuenciales y multifenoménicos, en las décadas siguientes, el ser humano va a tratar de encontrar explicaciones racionales para los hilos que atan secuencias perdidas , y surge otra forma de explicar lo que vemos, la forma en que las vemos y analizamos y en consecuencia lo que se desprenda de esos ejercicios del intelecto .Pero esto se explicará en otros capítulos.

Nos interesa particularmente situar la cosmología dentro de los parámetros humanos en los cuales se hacen tales reflexiones teóricas., es decir, dentro de la cultura occidental ,que pre condiciona las teorizaciones. Así como en esta época queda más claramente dibujado que la cultura es la que hace al ser humano y no al contrario, este giro tiene consecuencias en la elaboración de planteamientos cosmológicos en los que-por más que el ser humano trate de desligarlos de su cultura y subjetividad- contrariamente : la reflejan con gran fuerza.

1.- EL “GRAN DEBATE” ENTRE DOS TEORIAS COSMOLOGICAS RIVALES

De la lectura de las obras científicas salidas de la astrofísica se da cuenta de un debate cosmológico aparentemente fundamentado en la ciencia pura. La verdad -sin embargo- es otra, como se puede constatar en las páginas siguientes.

Las Cosmologías modernas que toman auge en el siglo actual a partir de los años treinta, se dividen en dos grandes corrientes, una escuela llamada Cosmología Relativista Evolucionista (o Cosmología de la Gran Explosión o más comúnmente Big Bang que aquí aparece -a partir de ahora- simplemente como B.B.) y otra escuela, la del Estado Fijo o Estacionario, asociada únicamente como necesidad argumental –dado que son diferentes- a la llamada Cosmología de la Creación Continua.

A la primera, que es la más aceptada actualmente -pero no desde que se postula- se asocian los nombres de muchos renombrados astrónomos y desde los años setenta ha tomado la punta convirtiéndose prácticamente en la única teoría universalmente aceptada por la comunidad científica. A la segunda se asocian los nombres de los cosmólogos ingleses Hermann Bondi, Thomas Gold y Fred Hoyle y prácticamente desde 1965 ha perdido vigencia -aunque no todos sus planteamientos son descartables, y vuelven a tomar fuerza en la década de los 80 y 90, como se analiza en otros capítulos.

1.- COSMOLOGIAS EVOLUCIONISTAS.- Las Cosmologías relativistas de claro corte evolucionista que nacen de la deducción y mezclan aspectos físicos que se estructuran con base en la aportación teórica inicial de Einstein y otros pioneros y de la posterior observación telescópica de Edwin Hubble, al inicio de los años treinta, formulan una cuestión fundamental: el Universo se extiende no solamente en el espacio, sino también en el tiempo, prolongándose en el pasado y en el futuro y teniendo su origen en el B.B.; por consiguiente estas cosmologías se oponen -rotundamente- a la idea de un Universo eterno e infinito.

La Relatividad General es la teoría que sirve de fundamento para obtener información sobre el pasado del Universo, y más particularmente, sobre su comienzo. Para los cosmologistas de esta escuela que han elaborado modelos cada vez más detallados, la teoría está respaldada por las comprobaciones, pues resulta - según afirman - que la observación corrobora los datos relativistas sobre dos puntos principales que la apoyan: la expansión del Universo y su temperatura absoluta. Si la extensión del Universo está en continua expansión, como lo demuestra la desviación hacia el rojo de la luz de las galaxias, en su movimiento de recesión (actualmente llamado expansión) ello es porque a juicio de los evolucionistas en un remoto pasado, esta extensión tenía dimensiones mucho más reducidas que ahora. Cabe incluso hacer una especie de cuenta regresiva hasta el momento en que el radio del espacio es nulo y les ha parecido lógico situar el tiempo de creación del Universo en ese instante que denominaremos Tiempo Cero y, según sea la obra consultada aparece como T=0 o bien To, según sea la notación científica utilizada.

Teniendo en cuenta los datos numéricos de que se ha dispuesto en diversas fechas para mejorar el valor de la expansión se calcula que este nacimiento del Universo originado en una gran explosión, denominada comúnmente “B.B.”, tuvo lugar hace unos 10 a 20 mil millones de años (esta cifra, sin embargo, debe admitirse con cierta reserva ya que desde que se observó la expansión por Hubble se ha ido modificando continuamente, pues se empezó con cuatro a cinco mil millones de años, para llegar luego a esas cifras como parámetros mínimo y máximo).
(Aunque debamos adelantarnos a los años 2000, a partir de ellos los datos que se manejan ubican el nacimiento del Universo en cifras que oscilan entre 23.7 millardos de años luz ,según algunos cálculos y 15 millardos de años luz de acuerdo a otros cálculos. y el dato ira afinándose conforme se sofistiquen los métodos de medición y la teorización que se extrapola de ellos (y para no confundir al lector señalemos que la cifra actual es de unos 13.7 millardos de años).

Aquí es necesario adelantar unos datos: en diciembre de 1983, el astrónomo Gerald de Vancouleurs, del Observatorio Mac' Donalds de la Universidad de Texas publica un documentado análisis sobre la escala de distancias en el Universo y su variación conforme se refinan los métodos observacionales. La revisión incluye la constante de Hubble, que desde el inicio se modifica por el refinamiento de las observaciones, lo que ha ocasionado frecuentes discrepancias. Por otra parte, el hecho que haya dos criterios para medir las distancias intergalácticas aspectos en los que son pioneros los trabajos de Allan Sandage y Gerald Vancouleurs respectivamente provoca que ésta sea una cifra convencional. No es sino hasta 1993 en que por otra convención se decide adoptar una cifra intermedia (15 mil millones de años) pero ese criterio aún está sujeto a la aprobación oficial de la cifras por parte de la Unión Astronómica Internacional (IAU en inglés). Y para que el lector no se llame a engaño debe advertirse que en las ciencias el lenguaje universal es el inglés y por ello no siempre logramos encontrar traducciones exactas en español, siendo necesario adaptarse al uso de las notaciones inglesas tanto en lo que respecta a nombres convencionales, como a cifras ,formulas y a su forma de escribirlas

Los cosmologistas relativistas calculan que en la época de nacimiento del Universo (T=0), el Universo tenía dimensiones muy pequeñas, comparables a las del Sol actual de nuestra Galaxia Local. La teoría admite que la temperatura, en ese período, era de varios miles de millones de grados absolutos y que en ese “horno” no podrían existir partículas de materia como se conoce, pues todo estaba en estado de radiación electrónica que ha sido llamada “sopa primordial” conformada por partículas elementales en estados de excitación muy especial y por lo tanto con particularidades radiantes. En estas primeras formulaciones no se plantea aún la existencia de antimateria, criterio aportado por la teorización en el campo de la física cuántica y retomado por la cosmología a inicios de la década de los ochenta.

Después gradualmente, esta radiación (luz principalmente) se transformaría en materia. La gran nube de la materia en expansión - con el tiempo y bajo el efecto de fuerzas gravitatorias - se disloca en multitud de nubes más pequeñas que son las primeras galaxias tales como las que se observan ahora. En el seno de las galaxias, las fuerzas gravitatorias provocan condensaciones de materia que van a convertirse en estrellas. Cuando la densidad alcanza en el centro de una estrella una temperatura suficiente, bajo el efecto de la energía desarrollada por la comprensión gravitatoria, la estrella se “enciende” por reacción termonuclear e inicia su proceso de vida que sigue un ciclo definido, según el tamaño de su masa.

Alrededor de las estrellas el polvo cósmico forma nuevas condensaciones, lo cual da origen a los planetas. Finalmente, en determinados planetas, como la Tierra, por ejemplo, a la cual se le da una edad cercana entre los 4 mil a 5 mil millones de años, la evolución prosigue de la materia mineral a la vegetal, del vegetal al animal y del animal al Hombre, al que se asigna una edad que oscila entre un millón de años a la de apenas varios miles de años de existencia, según sea la clasificación arqueo-taxonómica que se utilice.

Evolución y Vida Extraterrestre.- Muy ligado a lo comentado, se encuentra el tema de la evolución de la vida en el cosmos. Para los cosmologistas modernos basados en el relativismo einsteniano y las tesis evolucionistas de Darwin, el Universo se creó en una fase que debía ser entonces homogénea e isótropa, puesto que la radiación era de altísima temperatura. Esto obliga a pensar que la evolución por término medio se habría producido de la misma manera en todas las regiones del Universo.

Y la cosmología moderna, que pretende ser científica obliga pues, a creer que planetas semejantes a la Tierra existen por millones en la inmensidad cósmica lo cual origina una investigación científica que se inicia en los años cincuenta y alcanza su culminación en la década de los setenta para luego decrecer - por razones financieras - hasta su nuevo renacimiento en la década de los noventa, con el apoyo entusiasta (al inicio que decae luego de muchos aficionados provistos de una computadora).
Pueden señalarse al menos estas formulaciones que mezclan entusiasmo y cálculo de probabilidades acerca el tema:

Fórmula de Doyle: De acuerdo con los cálculos efectuados en la década de los sesenta por Stephen Dole, Jefe del Grupo de Ingeniería Humana de la Corporación Rand de California, la probabilidad (en términos astronómicos) de aparición de planetas habitables ( con posibilidad de contener vida inteligente sobre la base de la química del carbón ) únicamente en nuestra Galaxia –apenas una en millones de otras formaciones similares - está dada por el producto resultante de calcular diez factores , a saber::
N s, la abundancia de estrellas en la gama apropiada de masa, de 0,35 a 1,43 la masa solar;
P p, la probabilidad de que una estrella dada tenga planetas girando en órbita alrededor de ella;
P i, la probabilidad de que la inclinación del ecuador del planeta sea correcta para su distancia orbital;
P D, la probabilidad de que al menos un planeta gire en órbita dentro de una ecoesfera;
P M, la probabilidad de que el planeta tenga una masa apropiada, de 0,4 a 2,35 la masa de la Tierra;
P e, la probabilidad de que la excentricidad orbital del planeta sea lo suficiente baja;
P B, la probabilidad de que la presencia de una segunda estrella no haya convertido el planeta en inhabitable;
P R, la probabilidad de que el tipo de rotación del planeta no sea ni demasiado rápido ni demasiado lento;
P A, la probabilidad de que el planeta sea de edad apropiada;
P L, la probabilidad de que, siendo todas las condiciones astronómicas apropiadas, se haya desarrollado la vida en el planeta.

Establecidos los valores de todos estos factores, el número estimado de planetas habitables en la Galaxia se puede expresar con la ecuación:

[N H P = N s P p P i P D P M P e P B P R P A P L“.

Evidentemente, de cualquier modo, dicho número resultará altamente impreciso, ya que no todos los factores de la ecuación antes mencionada se conocen con precisión. De hecho, la mayor parte de ellos sólo se pueden considerar más bien aproximadamente y los valores asignados a algunos de ellos dependen de las teorías cosmológicas que resulte a su favor, o en su contra. Por lo tanto simplemente representan el intento para llegar a números respaldados por alguna razón fundamental y el científico que trabaja en esta materia de especulación racional puede alterarlos de cualquier forma que mejor se ajuste con su propia visión del Universo.

Los propios cálculos de Dole - de acuerdo a este método - arrojan un total de 645 millones de planetas “habitables” en la Galaxia y obviamente este número se comienza a reducir conforme los cálculos de las probabilidades se efectúan con datos más y más precisos, pero aún así el número es impresionante.

La búsqueda de vida extraterrestre se convierte en un afán científico en que descuellan los norteamericanos bajo el patrocinio oficial de la NASA y la literatura sobre las peripecias de los intentos son muy abundantes. Acerca de este tema debe señalarse que hay mucha especulación y fantasías de muy diversa índole y no siendo la pretensión de esta obra más que señalar algunos hitos importantes, mostrando como los pensadores serios imaginan el Universo las menciones al tema son apenas las indispensables.

Uno de los pioneros en el campo de la biología extraterrestre (exobiología) es Carl Sagan, médico y astrónomo norteamericano, quien ha escrito varios libros de divulgación sobre el tema y fungido como experto de la NASA en la elaboración de políticas que buscan tecnologías y estrategias adecuadas para emplear racionalmente el apoyo financiero disponible. En el caso de Sagan se puede recurrir a muchos de sus libros para conocer sus hipótesis sobre el tema. Sin embargo, hay una publicación que al recoger los resultados de un debate acerca de esta materia, permite sacar conclusiones sobre las ideas que se debaten en esa época. Se trata de la obra de escasa divulgación si se compara con Cosmos : “Life Beyond Earth and the Mind of Man”, publicada por NASA en 1959

En cuanto a los soviéticos, su estrategia se encuentra contenida en las Resoluciones de la Conferencia de Byrurakan, U.R.S.S., celebrada en 1964 sobre estas bases que mezclan lo científico con lo ideológico y aún la fantasía ( detalle que parece ser una peculiaridad de la ciencia oficial soviética) . El informe recogido por Vicktor Gindiles en un folleto de divulgación científica señala:

Fórmula de la Agencia Interpusnik.- Aunque la filosofía materialista favorece la existencia de vida extraterrestre inteligente, en los momentos actuales no existe una prueba válida de dicha existencia. Sin embargo, hay muchas indicaciones de que esa vida puede existir y de que puede desarrollar civilizaciones Un contacto con las civilizaciones extraterrestres sería de la mayor importancia e interés, pero hasta hace muy poco fue claramente imposible. Actualmente, sin embargo, existe la posibilidad de establecer comunicaciones interestelares mediante ondas electromagnéticas. La mejor gama para este propósito son las frecuencia de 109 a 1011; es decir, la región de centímetro y decímetro de ondas. La tecnología actual permite registrar radioseñales de distancias estelares. Un rápido desarrollo de la cibernética permite formular el problema de la lingüística cósmica. El rápido crecimiento de la literatura científica sobre la materia y los primeros pasos prácticos dados en Estados Unidos de América para contactar con las civilizaciones extraterrestres demuestran que la comunicación interestelar es un problema científico actual.

b.- Es necesario acometer el desarrollo de un tratamiento experimental y teórico del problema. El trabajo experimental se realizará en las dos líneas siguientes: a) Una revisión sistemática del cielo con el fin de detectar señales de objetos que se encuentren a una distancia máxima de 1.000 años luz, y el envío de señales a esa distancia a posibles correspondientes cósmicos. b) Investigación de las señales de civilizaciones substancialmente más desarrolladas que la nuestra realizando un análisis cuidadoso a discretas fuentes de radio cósmicas que se sospecha sean de origen artificial. Para realizar estos proyectos es necesario utilizar los aparatos ya existentes e instalar interferómetros de radio con largas líneas de base del orden de 106 a 107 lambdas , en la longitud de onda de centímetro.

c.- Es necesario continuar e intensificar las investigaciones ópticas que tengan relación con los programas anteriormente mencionados. Ello incluiría el trabajo sobre cosmogonía planetaria y estelar, identificación de fuentes de radio y organización de investigaciones especiales fuera de la atmósfera de la Tierra.

d.- Dentro de estos programas habría estudios organizados de campos adyacentes: a) Un estudio teórico de las propiedades estadísticas de fuentes de radio artificiales de las señales y el desarrollo de métodos para el descubrimiento de las señales artificiales. También es necesario desarrollar métodos de análisis de las propiedades estadísticas de las señales de radio y aplicar estos métodos a las fuentes cósmicas que se sospechan de origen artificial; b) El desarrollo de métodos para el establecimiento de contacto y de lenguaje cósmico sobre la base de la teoría general de la lingüística; e) también el desarrollo de la teoría del desciframiento y de los principios básicos de la teoría del aprendizaje.

e.- Para realizar estos programas es necesario establecer un número de organizaciones científicas especiales que trabajen en grupos, con base en la fórmula ideada por el astrónomo Gindilis, que cuantifica estos parámetros: N c = N k¹ k² p¹ p² f (t c); en donde:
N c = número de civilizaciones en nuestra galaxia que coexisten en tiempo con la nuestra.
N = número total de estrellas en nuestra galaxia.
k 1 = factor que especifica la presencia de sistemas planetarios (por tanto, Nk1 es el número de sistemas planetarios con condiciones convenientes para que comience la vida.
p1 = probabilidad de que la vida empiece en un planeta con condiciones convenientes.
p1 = probabilidad de que en el proceso de evolución de la materia viva en un planeta determinado se desarrollen seres inteligentes capaces de unirse en una sociedad y crear su propia civilización.
t c = tiempo de vida de las civilizaciones tecnológicamente desarrolladas.

De acuerdo con Gindilis, sólo el factor k1 ser evaluado actualmente con un cierto grado de confianza. La evaluación se basa en un estudio de la velocidad rotacional de las estrellas de clases espectrales diferentes. En consecuencia y por simple extrapolación lógica, la cosmología evolucionista parte de la hipótesis que el fenómeno humano engendrado en un punto del espacio, podría ser un fenómeno a escala de todo el Universo y no un hecho insignificante producido por azar (o especialmente) en el Universo; entonces el punto de vista antropocéntrico que pretende que la especie humana conforma los únicos seres pensantes del Universo, es, difícilmente sostenible.

Criterio de Reeves.- El astrofísico Hubert Reeves, Director de Investigaciones del Centro Nacional de Investigación Científica (CNRC) de Francia, tipifica a los científicos que suelen no escribir sobre estos temas dadas las condiciones en que se mueven las especulaciones sobre la materia . Reeves, con cautela , apenas esboza la posibilidad; pero sin ningún compromiso para cuantificar las posibilidades. Señala: “El Universo posee, desde los tiempos más accesibles a nuestra exploración, las propiedades requeridas para llevar la materia a ascender los peldaños de la complejidad (evolución nuclear, atómica, molecular, biológica)".

Criterio de Erbsen.- Otros científicos, tal el caso del biólogo Heinrich K. Erbsen, Director del Instituto de Paleobiología de la Universidad de Bonn, niega por completo tal posibilidad ya que el “saldo”, una vez confrontadas las posibilidades positivas y las negativas no es favorable para la existencia de vida en otros hipotéticos planetas . Afirma:
a) “Existe ... la posibilidad, entre varios millones, de que haya inteligencias cósmicas; pero también una mayor, con una diferencia de millares de millones - por consiguiente, una muy preponderante - , de que los seres vivos inteligentes no hayan aparecido sino una sola vez”. Esta proporción numérica basta, por sí sola, para poner las cosas en claro.
b) He señalado la posibilidad de un “pro” por el deseo de complacer. Si tenemos en cuenta las limitaciones señaladas que resultan de la advertencia de Michael Hart (sobre las condiciones prebiológicas que deben sumarse a las condiciones astronómicas biológicas y culturales), los millones concedidos se reducen mucho.
c) Más importante aún que el número enorme de condiciones y pasos decisivos, en el camino de la formación de una inteligencia extraterrestre, es que no debieron efectuarse en cualquier orden. Si hay en el cosmos una civilización técnica, además de la nuestra, todos los incontables pasos evolutivos tuvieron que verificarse en sucesión idéntica a los de la Tierra. No hubo de fallar ninguna de las condiciones, dentro de esa secuencia, y no debió ocurrir ninguna variación por culpa de sucesos fortuitos, ninguna influencia catastrófica del medio ambiente, y eso por lo menos durante cuatro mil millones de años. Para decirlo de otra manera: tuvo que suceder algo semejante a un milagro.
d) “Por lo tanto: tengo por verosímil que haya en el Universo lugares adecuados para la formación de sistemas prebióticos. Y no excluyo por completo (aunque lo tenga por muy improbable) que hayan evolucionado, en uno u otro cuerpo celeste, formaciones iguales o, si se quiere semejantes a una biocélula. No obstante, si se considera lo que hemos expuesto, las perspectivas de que, en cualquier lugar del universo, fuera de la Tierra, progresara la evolución hasta originar seres dotados de inteligencia, con una civilización técnica, resultan tan exiguas, que su probabilidad estadística coincide prácticamente con cero. Así pues, parece que sí estamos solos en el cosmos".

Creación de ISSOL.- En Barcelona, España el 25 de junio de 1973 se inaugura la Primera Reunión de la Asociación Internacional para el Estudio sobre el Origen de la Vida (ISSOL, siglas en inglés ). Los organizadores Juan Oró, Ciryl Ponnamperuna y Robert S. Young, deben dar asistencia a más de trescientos científicos que se organizan en paneles que fueron siguiendo el proceso evolutivo de la vida en el Planeta Tierra. Lo importante del evento es que queda en evidencia que no hay una sola línea de investigación, sino al menos seis lineamientos, que van desde un extremo de franco optimismo: la idea de que la vida es de origen externo, hasta otro de marcado pesimismo: que ésta es intrínseca y por tanto restringida al planeta Tierra.

Es justo recordar que el primer científico que se plantea contemporáneamente el tema es Enrico Fermi en 1950 (Kant se le había adelantado mucho antes, así como varios pensadores griegos) porque aunque no sea fácil rastrear obras sobre la materia ya habían especulaciones sobre la posibilidad de vida extraterrestre parecida a la existente sobre el planeta Tierra, desde la antigüedad. Esas especulaciones ciertamente en nuestros días han venido a ser fortalecidas con verdaderas tesis fantasiosas por parte de escritores de ciencia ficción y de investigadores de los fenómenos para-normales y ovnivológicos.

Fórmula de Drake.- Fue concebida por el radioastrónomo y Presidente del Instituto SETI Frank Drake, con el propósito de estimar la cantidad de civilizaciones en nuestra galaxia, la Vía Láctea, susceptibles de poseer emisiones de radio detectables.La ecuación fue concebida en 1961 mientras trabajaba en el Observatorio de Radioastronomía Nacional en Green Bank, Virginia Occidental ,EUA. La formulación eminentemente teórica, identifica los factores específicos que, se cree, tienen un papel importante en el desarrollo de las civilizaciones. Aunque no hay una solución única, la comunidad científica la ha aceptado como herramienta para examinar estos factores.

Parte del hecho inicial de que Nuestro Sol es sólo una estrella solitaria en una colección de cuatrocientos mil millones. La Vía Láctea es sólo una galaxia entre cientos de miles de millones de galaxias en el Universo. Parece ,en consecuencia que debería haber un montón de vida ahí fuera. En su forma pura la Ecuación tiene estos elementos:

N representa aquí el número de civilizaciones que podrían comunicarse en nuestra galaxia, la Vía Láctea. Este número depende de varios factores.
R* es el ritmo de formación de estrellas "adecuadas" en la galaxia (estrellas por año).
fp es la fracción de estrellas que tienen planetas en su órbita.
ne es el número de esos planetas en el interior de la ecosfera de la estrella (se trata del espacio que la rodea, y que está en condiciones de albergar alguna clase de forma de vida. Demasiada cerca es demasiado caliente; demasiado lejos es demasiado frío.)
fl es la fracción de esos planetas dentro de la ecosfera en los que la vida se ha desarrollado.
fi es la fracción de esos planetas en los que la vida inteligente se ha desarrollado.
fc es la fracción de esos planetas donde la vida inteligente ha desarrollado una tecnología e intenta comunicarse.
L es el lapso de tiempo que una civilización inteligente y comunicativa puede existir (años).

Ahora bien, a efecto de ponerle números a cada una de las variables intervenientes algunos astrónomos han convenido en que estas pueden ser los datos mas precisos, de acuerdo a los conocimientos existentes a inicios de la década de los ochenta:
Aunque el tanto por ciento de formaciones de estrellas adecuadas era indudablemente mucho mayor cuando nuestra galaxia se formó, todavía se pueden ver estrellas naciendo. Existen fotografías de "guarderías estelares" tomadas por el Telescopio Hubble en la Nebulosa del Águila y en la Nebulosa de Orión: grandes nubes de gas se colapsan para formar estrellas. Un buen pronóstico para esa formación de estrellas es de unas 20 estrellas por año. R = 20.

Muchas de estas nubes tienen cierta rotación. Cuando se colapsan, la nube gira cada vez más rápido, como una patinadora de hielo levantando sus brazos. Esto provoca que la nube forme un disco aplanado de gases. En el centro, se forma la estrella principal. Bastante más lejos, pequeñas agrupaciones pueden formar planetas. Hasta hace muy poco, no existía evidencia de planetas fuera de nuestro sistema solar. En los últimos años, algunos equipos de astrónomos han anunciado el descubrimiento de planetas alrededor de estrellas cercanas. Este excitante descubrimiento incrementa la probabilidad de planetas alrededor de muchas estrellas. Podemos estimar, siendo conservadores, que la mitad de las estrellas forman sistemas planetarios; la otra mitad forman sistemas de estrellas binarias, así que fp = 0,5.

El factor ne es algo más complicado. Las estrellas pequeñas son frías y rojas. Los planetas tendrían que orbitar muy cerca para estar en su ecosfera, que sería muy estrecha, sin demasiado espacio para planetas. Los planetas que orbiten muy cerca de sus estrellas suelen estar fuertemente atraídos y presentan una misma cara hacia la estrella todo el tiempo. La atmósfera de un planeta así estaría helada en la cara opuesta a la estrella, y esto no favorece la vida. Por otro lado, las grandes estrellas azules tienen una ecosfera más amplia. Por supuesto, a juzgar por nuestro Sistema Solar, los planetas están más espaciados conforme se alejan de las estrellas, de manera que una ecosfera más ancha se ve compensada por este efecto. Estas estrellas grandes también queman más combustible y no duran demasiado. Normalmente duran tan poco que no dan oportunidad a que se desarrolle la vida antes de que se conviertan en una nova o una supernova y destruyan todo el sistema. En nuestro sistema solar, con nuestra estrella amarilla de tamaño medio, tenemos dos (Tierra y Marte), o quizás tres planetas (Venus) dentro de la ecosfera. Un cálculo conservador del número de planetas dentro de la "zona de vida" o ecosfera es sólo uno. ne = 1.

El siguiente factor, fl, es donde las cosas se complican aún más. El problema es que tenemos pocos ejemplos de planetas donde las condiciones sean correctas para el desarrollo de la vida. Como hemos indicado antes, Venus, la Tierra y Marte podrían tener, al mismo tiempo, las condiciones adecuadas. Sabemos que la vida se desarrolló en la Tierra, y estamos tanteando las evidencias de vida primitiva en Marte hace millones de años. Un cálculo conservador para este número sería 0,2; o uno de cada cinco planetas con condiciones desarrollará la vida.
fl = 0,2.

¿Cuántos de esos planetas desarrollarán vida inteligente? Difícil pregunta, pero si creemos en la evidencia de la selección natural y supervivencia de los mejores, la mayoría de los científicos dirían que el 100%: la vida inteligente es un resultado natural de la evolución. Por supuesto tenemos sólo un ejemplo, la Tierra. fi = 1.
¿Cuántas de esas especies inteligentes desarrollarán tecnología y la usarán para comunicarse? Si miramos a la Tierra, vemos que los humanos lo hacemos, pero también vemos ballenas y delfines que poseen un nivel moderado de inteligencia pero nunca han desarrollado tecnología. Vamos a poner un valor de 0,5 en principio. fc = 0,5.

Ahora falta determinar el número más difícil. L es el número de años que una civilización tecnológica y comunicativa perdura. Nosotros sólo llevamos en esta fase de nuestra evolución unos 50 años. ¿Se destruyen las civilizaciones avanzadas poco después de descubrir la tecnología para conseguirlo? O ¿resuelven sus problemas juntos antes de que suceda? Por ahora, no asignemos un número a L.

Coloquemos los demás números y veamos que pasa.
N = R × fp × ne × fl × fi × fc × L
N = 20 × 0,5 × 1 × 0,2 × 1 × 0,5 × L
Multiplicando todos los números, nos da que N = L. En otras palabras, el número de civilizaciones inteligentes y comunicativas en la galaxia es igual a los años que dura una civilización. La cifra sobre la que sabemos menos tiene un gran significado en nuestros cálculos. La mayoría de los científicos esperan que si una civilización puede superar su tendencia inicial a autodestruirse con su propia tecnología, entonces esa civilización existirá mucho tiempo. En cualquier caso, habría al menos 50 (el número de años que hemos estado comunicándonos) y, si una civilización comunicativa dura millones de años, habría la posibilidad de buscar millones de civilizaciones

De SETI a CETI.- SETI ( primero con apoyo oficial a cargo del presupuesto nacional de USA y luego eliminado por razones políticas) logra sobrevivir por un tiempo y luego se transforma en un proyecto mas práctico y ambicioso: contactar civilizaciones extraterrestres . Se cierra entonces SETI (Search Extra Terrestrial Intelligence ) y nace CETI (Contact Extra Terrestrial Intelligence) que toma como base de operaciones el radiotelescopio ubicado en Arecibo, Puerto Rico, bajo la dirección de la astrónomo Lil Tarter y se nutre de donaciones privadas, así como del soporte de aficionados que donamos tiempo en nuestras computadoras para el trabajo de “campo”.

Prescindiendo de los detalles técnicos de operación del programa los criterios básicos de CETI son los siguientes:
a) Si se parte del hecho de que nuestro sistema solar tiene sólo cinco mil millones de años de edad, pero la teoría de la formación estelar indica que la formación fue más eficiente al comienzo de la vida de la galaxia, con lo que ya deberían de haberse dado las condiciones para el desarrollo de un buen número de civilizaciones tecnológicamente avanzadas.
b) Si esto es así, no les hubiera resultado muy difícil comenzar a explorar la Vía Láctea. Existen argumentos basados en la posibilidad de explorar la galaxia con tecnologías no muy diferentes a las actuales, utilizando métodos de propulsión para alcanzar bajas velocidades comparadas con la de la luz, por ejemplo con motores nucleares.
c) Utilizando máquinas que pudieran explorar, reproducirse, y autorepararse en forma automática, llamadas maquinas de Von Neumann en honor al matemático germano-americano, pionero en la ciencia de la informática que estudió la posibilidad de su construcción, sería posible explorar toda la galaxia en tiempos que oscilan entre 300 y 10 millones de años, lo cual es muy corto cuando se compara con la vida de nuestra galaxia, entre 8 y 15 mil millones de años.

En conclusión: si es teoría entonces tan fácil de colonizar la galaxia, ¿donde están sus habitantes? Las explicaciones de su ausencia son variadas, siendo una de las más populares la hipótesis del zoo, según la cual existe un acuerdo tácito por el cual no existe interferencia con nuestro desarrollo por parte de las posibles civilizaciones extraterrestres dada su superioridad tecnológica. Y fuera de esta hipótesis, que puede ser aceptada o rechazada a criterio de cada quien, no existe ninguna otra explicación plausible, por lo que algunos exobiologías han ensayado otras formas de eventual búsqueda de seres extraterrestres: limitarse a dos estrategias:
1.- Buscar en las nubes interestelares de nuestra galaxia la presencia de aldehídos ,hidrogeno y otras sustancias favorables para el desarrollo de la vida
2.-Identificar en los meteoros y meteoritos rescatados en nuestro planeta eventuales rastros de alguna forma de vida .
3.-Idear condiciones en ausencia de carbono y agua ,así como en la ausencia de sustancias no aptas para la vida como la conocemos ,así como de presión atmosférica menor y mayor a la del planeta Tierra , en las que podrían sobrevivir hipotéticas especies extraterrestres.
4. Iniciar la búsqueda de seres microscópicos en la Tierra en sitios poco probables para la vida (entre ellos gran profundidad marina, cercanía a geiseres, volcanes y otros sitios en donde las condiciones de vida siendo extrema podrían albergar seres que se han denominado transitoria y genéricamente extremofilos.

PRUEBAS A FAVOR DE LA TEORIA B.B.- Decir que el Universo comenzó una docena de miles de millones de años no responde ciertamente a la pregunta metafísica esencial ... ¿Quién o qué ha creado el Universo?; o, si se prefiere, ¿cómo ha podido el Universo salir de la nada, si la teoría de la expansión indica que este atraviesa por una fase de volumen nulo o de tamaño muy discreto en el instante de su nacimiento ?.

Para el científico francés Charon en los primeros intentos por explicar estos aspectos: “resulta que los cosmólogos relativistas justifican la aparición de la energía a partir de la nada considerando simultáneamente una energías positivas (cinéticas) y otras potenciales (negativas). Pero esto está lejos de acallar todas las objeciones, pues sobre todo queda por señalar qué es lo que provoca el paso de la nada a dos estados contrarios. La única respuesta satisfactoria para acallar la duda, pero no para eliminarla, parece ser la que dice que es el espíritu humano el que, en su dialéctica racional e incluso en su percepción intuitiva discontinua del mundo, da existencia a las cosas formulándolas como parejas de contrarios, como una forma de llenar el miedo al vacío.

Para la escuela cosmologista evolucionista relativista en un principio la materia no existía aún al producirse el B.B., todo el espacio estaba ocupado por la radiación; luego el radio del Universo aumenta y a la expansión sigue luego un enfriamiento rápido y continuo de la radiación térmica del Universo. Teóricamente esta caída de la temperatura debe de realizarse muy rápidamente. Antes de que el Universo hubiera llegado a su primer milenio la temperatura ordinaria, es de unos 300 (27 ºC) y mil años después de su nacimiento el Universo sería teóricamente habitable si sólo del factor temperatura dependiese la vida como se conoce en la Tierra. A partir de esa época, la temperatura va a seguir disminuyendo y, actualmente ha alcanzado una de apenas algunos grados absolutos.

Los cosmólogos evolucionistas señalan dos hechos como las pruebas más fuertes en contra del Modelo Estacionario que se oponen a sus principios. Estos son por orden de importancia:
a) La existencia de 2,7 grados Kelvin de temperatura a nivel general en el Universo: la radiación isotópica de microondas de fondo que ha sido medida con radiotelescopios se estima forma el remanente de la radiación resultante del B.B., aunque, por supuesto, esta radiación se ha enfriado por la expansión que sufre el Universo.
b) El hecho que las galaxias sean más comunes antes que lo que son en la actualidad. Sin embargo, esta prueba es débil, porque, desde el punto de vista observacional los problemas de medición de galaxias están determinados por varios factores: a) el diámetro angular que subtienden las galaxias cuando son observadas desde la Tierra; b) El tamaño del telescopio que toma la fotografía; c) El diafragma del fotómetro; la hipótesis del “cansancio” de la luz (puesto que la cantidad de fotones que han salido de una determinada región del espacio no es la misma que llega al telescopio que está observándolos); d) El cambio en la luminosidad y tamaño de las galaxias que tienden a “fagocitar” cuerpos satélites; e) El tipo de curvatura del espacio, que determina variaciones en el ángulo que subtiende una galaxia, en forma tal que una galaxia situada en un sitio más lejano se observa de tamaño mayor que una situada en un sitio más cercano.
c) De los criterios anteriores se desprende, sin embargo, que el retrato del Universo (según las placas fotográficas obtenidas en los grandes observatorios) no es igual a un “mapa del Universo” puesto que se fotografía lo que fue el Universo y no lo que es en la actualidad. Esta deducción -por lo tanto- abogaría a favor de un indudable proceso de evolución y no de un fijismo cósmico.

Cosmología del Estado Estacionario.- El astrónomo y cosmólogo inglés Herman Bondi, sostenedor de la Teoría del Estado Estacionario en su obra “Principios Cosmológicos” publicada en 1951, (aún reimpresa en 1972 ,pero con menos planteamientos en favor de su tesis), mantiene un criterio contrario y afirma que hay respetados astrónomos que no piensan igual que los cosmologistas evolucionistas relativistas y lleva por un sendero diferente la cuestión de la existencia y evolución del Universo.

Es necesario aclarar que aunque los conceptos: “Estado Estacionario” y “ Creación Continua” se suelen citar juntos, como si obedecieran a una misma teoría , hay una diferencia fundamental entre los planteamientos de Bondi y Gold, y los de Hoyle, que se debe -afirma el cosmólogo George Coleman en la obra “Teorías Modernas del Universo”- a que los dos primeros utilizan el concepto del “Principio Cosmológico Perfecto”, mientras que Hoyle utiliza el esqueleto matemático de una modificación de la Teoría General de la Relatividad. Además, para Coleman en realidad el autor de esta teoría es el astrónomo inglés James Jeans quien la formula en 1928 como una conjetura para explicar algunas características desconcertantes de las galaxias.

Defensa del Estado Estacionario: El astrónomo británico Herman Bondi cita a Bertrand Russell y a Arthur Eddington, en su respaldo para afirmar con ellos que “no existen bases teóricas de peso suficiente para ningún modelo de Universo en particular” y luego hace estas consideraciones:
a) Aplicar la ley de la conservación de la masa (energía), principio a “escala terrestre” a todo el Universo (como hace la Escuela Relativista) es muy debatible, pues la ley, en si misma es una extrapolación de la experiencia en nuestro planeta y lo que a este nivel es negligible, a nivel cósmico es de enorme importancia. De ello deriva que: el porvenir de cualquier teoría que postule la conservación de la masa, como hacen los evolucionistas, es restringido, necesariamente, pues por ello mismo la teoría está incapacitada para entrar al tema del origen de la materia del Universo.”
b) Este punto ya había sido definido por el astrónomo inglés Edward Milne, defensor de la Cosmología Cinemática (derivada de los postulados newtonianos), quien aboga por separar la metafísica de los aspectos que estudia la astronomía cuando señala que: “cualquier asunto relacionado con el origen de la materia es una cuestión concerniente al cero del tiempo y toda cuestión antes del cero no le concierne a la ciencia“.
c) Al prescindirse de la artificialidad de la aplicación cósmica de la ley de conservación de la energía (aspecto fundamental para los cosmologistas evolucionistas) se deja el paso libre para teorías que permiten la creación de la materia, las cuales, sobre rigurosas bases científicas, son las que si pueden alentar consideraciones cosmológicas serias, sin las ataduras de teorías físicas establecidas para el campo local (Tierra).

Debe señalarse que Bondi, al igual que una minoría sustancial, de físicos teóricos - como él mismo la denomina - no aceptan la validez de la Teoría General de la Relatividad que Einstein se ve obligado a formular poco tiempo después de su Teoría de la Relatividad Especial. En consecuencia quienes defienden la tesis del Universo Estacionario ponen en duda la aplicación del Principio conocido como “Mach” que Einstein introduce para demostrar como masas separadas afectan la inercia de la totalidad del Universo.

El “Principio Mach” postula la relatividad de la inercia, ya que, parte de la razón de considerar que existen dos métodos diferentes para determinar la rotación de la Tierra, uno por medio de la dinámica terrestre (mediante un péndulo de Focault o un giroscopio) y otro por medio astronómico (mediante la correlación de la velocidad angular de la Tierra respecto a estrellas fijas o nebulosas). Ambos métodos dan el mismo valor de medición de la inercia y de aquí se desprende una pregunta crucial para Bondi: ¿ Es esto mera coincidencia o no ? La respuesta es polémica: hay quienes manifiestan que tal coincidencia es un hecho lógico que se desprende de las leyes de Newton o aún de la Teoría de la Relatividad; otros piensan que este es un “hecho fundamental” que debe ser explicado por una teoría ad-hoc de la dinámica. (El segundo caso es defendido por el matemático alemán Ernst Mach)

Sobre este principio, Einstein afirma que: si un cuerpo se aleja lo suficiente del resto de masas del Universo, su inercia debe quedar reducida a cero; pero Bondi, sostiene el punto contrario dado que la magnitud de la inercia de un cuerpo cualquiera está determinada por las masas del Universo y por su distribución. Por lo tanto, la inercia depende del Estado de Universo y no sólo de las propiedades intrínsecas del cuerpo en rotación, de lo que la Escuela del Universo Estacionario concluye que aquí está envuelta una “clave informativa del Universo”.

Por lógica, dice Bondi: “La evaluación de la importancia de esta constante para la caracterización matemática del Universo debe esperar hasta que exista una formulación correcta del Principio de Mach; pero está claro que si en algún momento el Universo se encontró en un estado distinto del actual el principio de Mach implica que la “constante” de gravitación en aquel momento tuvo un valor diferente. Si, por otra parte, el Universo no satisfaciera el principio cosmológico, la “constante” variaría de un lugar a otro. Por consecuencia toda teoría que acepte un universo variante debe tener en cuenta la posibilidad de que la constante de gravitación varíe, o por el contrario, deberá suponer deliberadamente que la constante es independiente de la estructura del universo, negando por lo tanto el Principio de Mach.”

Según Bondi este principio es refutable por cuanto es más una argumentación filosófica que física y como se le ha formulado tan solo por razones matemáticas, pero no se le ha podido comprobar experimentalmente, duda si en realidad el Principio de Mach es una clave de conexión entre el Universo y la física experimental (lo que induce cambios importantes en la constante de gravitación) o si queda como una especulación originada en una simple coincidencia.

Lo fundamental de esta teoría del Estado Estacionario defendida con tanto ardor por sus postulantes así como atacada con denodada fuerza por sus detractores, es plantear que el Universo a gran escala presenta un aspecto inmóvil: como el Universo debe encontrarse en expansión (en términos dinámicos) para mantener la densidad debe crearse continuamente nueva materia que proviene no de la radiación, sino de la nada. Por lo tanto, aparecen nebulosas de todas edades con cierta distribución de frecuencia. En consecuencia dado que en un universo invariable y estático se producirá tarde o temprano un equilibrio termodinámico, el “principio cosmológico perfecto” postulado por Einstein junto con la experiencia, demuestran que el Universo no puede ser estático, porque en un Universo en contracción el “efecto Doppler” conduce a un desequilibrio en el que la radiación es mayor que la materia, en tanto que en un Universo en expansión ocurre lo contrario.

Otro de los fundamentos físicos que sirven de base para no aceptar la teoría evolucionista relativista es que si se considera la estructura atómica de la materia, la existencia del “Estado Einsteniano” resulta completamente inexplicable porque como cualquier condensación conduce hasta el borde de la inestabilidad, los átomos deben estar distribuidos muy regularmente. Esto debe implicar la existencia de una estructura cristalina regular y esta estructura no puede existir en un espacio esférico curvado si hay más de cierto número reducido de átomos y como el número de átomos es ciertamente muy grande, se deduce por lo tanto que la existencia del “Estado Einsteniano” es incompatible con la estructura de la materia.

A diferencia de los modelos cosmológicos relativistas, que muestran un vasto conjunto de defensores que parten de la deducción -más que de la observación- Bondi defiende sus postulados recurriendo a trabajos anteriores de los astrónomos ingleses Edward Milne, William Mac Crea y George Mac Victie; del físico austríaco Karl Schwarzchild; de los matemáticos alemanes G.F. Bernhard Reimann y Hermann Weyl; y del matemático ruso Alexander Friedmann.

De acuerdo con los razonamientos de su autor “la tesis del Estado Estacionario” es la única de las teorías que deduce el hecho de la expansión del Universo a partir de las observaciones locales de desequilibrio termodinámico. Es así como, para los partidarios de un Universo en que se daría la Creación Continua de materia las observaciones de recesión de las nebulosas y galaxias, distantes sirven únicamente como comprobación de la teoría, y dado que uno de los objetivos principales de cualquier hipótesis científica debe ser el relacionar los distintos hechos observados, el descubrimiento de esa conexión es considerado por Bondi como un éxito especial de la Teoría del Estado Estacionario, y de esto se desprenden tres consideraciones fundamentales:

1) La expansión del Universo que pueda deducirse de la termodinámica o de las observaciones astronómicas parecería implicar una disminución en la distribución de materia porque el Principio Cosmológico Perfecto indica que la densidad media de la materia no debe sufrir cambios seculares; por lo tanto, solo existe un modo de que el movimiento de expansión sea compatible con una densidad constante y es por la creación continua de materia. Por ello solo si la disminución de densidad ocasionada por el alejamiento hacia el infinito es contrarrestada por una adición constante de materia recién creada, podrá un universo en expansión conservar un aspecto invariable.
Si bien es cierto que hay pocas dudas sobre el hecho que la creación continua de materia exigida por la teoría es el cambio más revolucionario propuesto, a pesar de ello, no hay observaciones significativas que se encuentren en contradicción con la velocidad de creación de materia exigida por el Principio Cosmológico Perfecto, la que es, por término medio: 3X (densidad de materia contenida en el Universo) en donde corresponde a la Constante de Hubble un valor de 10-46 g/cm 3 S; por lo tanto, para Bondi “por término medio, se crea la masa de un átomo de hidrógeno en cada litro de volumen cada 5x10" años y existen poderosas razones que demuestran que la velocidad de creación no varía grandemente entre lugares distintos, de modo que la velocidad media dada tiene significado universal”.

2) Para los defensores de la teoría es completamente imposible observar directamente esta velocidad de creación, pero no existe contradicción alguna con las observaciones de la materia. Este razonamiento se expresa en los siguientes términos: “Cuando las observaciones indicaron que la materia casi se conservaba, pareció más sencillo (y, por lo tanto) más científico) suponer que la conservación era completa. Pero al considerar un campo mayor puede verse que esta suposición, en apariencia simple, conduce a grandes complicaciones discutidas en conexión con la formulación del Principio Cosmológico Perfecto. El principio de mayor simplicidad en conjunto resulta ser entonces no el Principio de Conservación de Materia, sino el Principio Cosmológico Perfecto con su consecuencia de creación continua y desde este punto de vista, la creación continua sería la más sencilla, y por lo tanto, la más científica extrapolación de las observaciones.”

3) En el Modelo de Estado Estacionario la cantidad de materia es constante en la parte del Universo observable con un telescopio de potencia dada; de aquí que si bien es cierto que el carácter hipotético de la Creación Continua ha sido señalado por los detractores de estas teorías, Bondi no encuentra muy claro que sea una hipótesis mayor suponer que la creación se produzca ahora que suponer que ha tenido lugar solamente en el pasado, de allí que señale: "Por el contrario, la hipótesis de creación continua es más fácil y fértil cuando responde a más preguntas y rinde mayores resultados observables en principio. Por la razón anterior, en un claro deseo de separar tajantemente los aspectos basados en principios - más propios de la metafísica - de los cosmológicos puros (de los que debe tratar la ciencia), esta escuela afirma que relegar la cuestión entera de la creación al pasado es restringir la ciencia a una discusión de lo que ocurrió después de la creación, prohibiéndose el examen de la creación propiamente dicha y consideran “esto es un recurso desesperado al que hay que recurrir únicamente en último término.

La polémica trasciende el campo científico, invade el religioso a tal punto que el astrónomo soviético, nacionalizado norteamericano Otto Struve asevera en 1975 “que la defensa del Estado Estacionario por parte del astrónomo soviético Vorontzoff - Velyaminov obedece no a razones científicas, sino a presiones políticas.“

Pruebas Científicas para resolver la disputa.- A inicios de la década de los setenta, en un último intento de sostener la validez de sus aseveraciones, en su obra titulada: “Cosmología” , fueron propuestas por Bondi algunas pruebas para dirimir el diferendo, con base en demostraciones eminentemente empíricas, más que en intuiciones deductivas. Estas pruebas eran cinco fundamentales:
a) Efectuar recuentos numéricos radioastronómicos ya que el trabajo en este campo puede ser decisivo especialmente si se establecen las distancias a unas cuantas fuentes emisoras más, confirmando con ello la relevancia cosmológica de los datos sostenidos.
b)Hacer recuentos numéricos ópticos, pues éstas mediciones podrían resultar convincentes en vista de la dificultad inherente a la medición de la luminosidad de objetos difusos.
c) Ejecutar mediciones radioastronómicas de los diámetros angulares de los objetos distantes - y que según postula la teoría del Estado Estacionario estos decrecen con la distancia hasta un límite finito - y porque de acuerdo con casi todas las teoría (e ignorando los cambios evolucionarios) disminuyen con la distancia hasta cierto límite y luego aumentan de nuevo.
d) Llevar a cabo observaciones de la variación de las características físicas de la Galaxia local con la distancia ya que este parece ser el método de aproximación más importante, pues si es cierto que si el Universo se encuentra en estado de evolución, las galaxias distantes deberán aparecer más jóvenes que las galaxias próximas, pero si se encuentran en “estado fijo” no habrá variación en promedio.

Y en la búsqueda de pruebas secundarias para sostener una u otra teoría fueron propuestas otras posibilidades de particular interés que son, entre otras, las siguientes:
a) Medición de la variación de color de las galaxias observadas con respecto a la distancia;
b) Medición de la variación de forma y de la frecuencia del tipo de galaxias observadas con la distancia;
c) Medición de la variación de forma y de la frecuencia del tipo de galaxias con la distancia;
d) Medición de la variación en relación de estrellas jóvenes con respecto a estrellas viejas a distancias diversas y cada vez más lejanas;
e) Medición exacta del desplazamiento del “rojo - luminosidad aparente” sobre todo en objetos galácticos muy diferentes.

En caso de que las observaciones apoyaran la tesis del Estado Estacionario, el siguiente paso para los teóricos debía consistir en encontrar una firme conexión entre las ideas de la Creación Continua y el resto de la Física. Si las pruebas experimentales decidían en favor de la evolución, el siguiente paso debería ser la selección de un modelo evolucionista adecuado.

Sin embargo a mediados de la década de los sesenta pese a los esfuerzos de parte de los cosmologistas que defienden las ideas del Universo Estacionario, la Creación Continua de Materia y el Principio Cosmológico Perfecto, las Cosmologías Relativistas Evolucionistas van ganando más y más terreno y esa línea no se detiene hasta quedar oficialmente prácticamente sola una explicación científica que es la Teoría del B.B. (aunque no debe afirmarse categóricamente que nunca más se va a tener en cuenta algunos planteamientos de la escuela rival pues en la cosmología moderna todavía hay muchas sorpresas por delante, como se detalla en los capítulos siguientes.

Mientras la fuerte disputa cosmológica tiene lugar, en otras áreas de la ciencia física se desarrollan ideas complementarias, sugerentes y fascinantes que en otro momento (concretamente a partir de las décadas de los setenta y ochenta) vienen a sumarse a la teoría del B.B. para poder ir explicando nuevas adiciones a la teoría elemental cuando ésta no resiste el peso del razonamiento “metafísico - físico - matemático” inicial que la origina.

Implicaciones del Gran Debate.- Frente a la necesidad de tener una teoría que permita acomodar la inquietud del pensamiento a raíz de los modernos postulados cosmológicos, el astrónomo norteamericano George A Coleman, discípulo de Gamow comenta: “Impresiona al observador imparcial el hecho de que rara vez un astrónomo o cualquiera de los científicos que manejan los datos u observaciones que conciernen a las teorías que defiende, encuentre pruebas en favor de la teoría contraria. Cualquiera sea el campo que un científico esté investigando, sus descubrimientos corroboran siempre la teoría que el defiende públicamente. Parece como que diversos investigadores hubieran recibido órdenes de descubrir solamente las pruebas que confirman sus teorías respectivas. Y uno se pregunta entonces: si no hay una gran cantidad de fenómenos que no son descubiertos debido a esta situación.

A mediados de los sesenta, el mismo Coleman al referirse a los dos grandes conjuntos de teorías aceptadas oficialmente por la ciencia contemporánea, manifiesta que sobre el estado actual de ambas teorías:...ninguna de ellas está probada porque la batalla en favor de una u otra se libra en un plano en que los partidarios de una teoría que prefieren “parece” entonces verdadera, comparada con la contraria, y por ello los admiradores de cada una interpretan los datos astronómicos como pruebas en favor de la teoría que ellos apoyan, por lo que el rechazo definitivo de cualquiera de las teorías y la aceptación total de la otra tomará tiempo, a menos que surjan descubrimientos inesperados. ...la aceptación de cualquiera de ellas despertará considerable oposición, porque las dos teorías son una parte muy importante de la concepción moderna del Universo. Habrá más problemas aquí que en la aceptación o el rechazo de las pruebas experimentales y matemáticas porque detrás de cada teoría hay una filosofía subyacente que suministra las respuestas a las cuestiones fundamentales del hombre y su Universo y las respuestas serán aceptadas o no, según se aproximen o no a la concepción del hombre acerca de como debe ser el Universo.“

Si Bondi y sus colaboradores no dudan en acusar de “metafísicos” a los cosmólogos relativistas evolucionistas, Coleman no se queda a la zaga y dice que: “la teoría de la Creación Continua - pese a su sustrato empirista - nace de la creencia puramente filosófica de que el Universo es
inextinguible, sólo porque al ser humano no le agrada la idea que el Universo se extinguirá. Y aunque es extraño que las leyes de la naturaleza dependan de la preferencia de los humanos, es precisamente esta actitud egocéntrica la que impide el progreso de la ciencia en el pasado”. De lo anterior se desprende, para Coleman, que:” Si por una parte la teoría de la Creación Continua es relativamente nueva, resulta que, obligar a los cosmólogos a estudiar el origen y la estructura del Universo sobre la base de las leyes de la física y la matemática, entrelazadas ésta con consideraciones filosóficas, las ramificaciones de la teoría van mucho más allá de la cosmología.”

Así como puede afirmarse que en la historia de la ciencia lo que es mera especulación en una época se transforma en una teoría científica después y luego en conocimiento científico corriente en la posterior, la cosmología no carece de ideas especulativas y no se debe suponer, por lo tanto, que necesariamente una de las dos teorías en pugna es la verdadera. Pero aparte de este carácter especulativo, los científicos tienden a concederle todavía a las dos teorías en boga; un valor axiológico, esto es , que va más allá que la verdad científica, que permite a Coleman - categóricamente - afirmar que: Sin duda, cualquier teoría correcta sobre el origen compartirá sus características con una de ellas. Por ejemplo, deberá establecerse si el Universo tuvo un principio o no y si el Universo evoluciona de alguna manera o no. La posibilidad de teorías distintas no es limitada, sin embargo, éstas deberán ser compatibles con los hechos conocidos, ya que cuanto más grande es el conocimiento científico, tanto menor es la posibilidad de nuevas teorías.


Por otra parte existe una escuela de pensamiento que sostiene que nunca se podrá determinar cómo nació el Universo al afirmar que los detalles del proceso han quedado ocultos tras la cortina del tiempo, que es como una pantalla de oscuridad entre el origen (si hubo un origen) y los intentos presentes y futuros por descorrerla. Este punto de vista pesimista desalienta cualquier investigación científica y proclama la futilidad incluso de la mera formulación de la pregunta. Tal actitud indica falta de fe en los poderes del hombre, por débiles que estos sean en el presente, y pretenden desconocer que el propósito fundamental del ser humano es superarse y trascender, porque a través de todas las edades es ésta la fuerza que lo guía y lo lleva a mejorarse en el aspecto material con su comprensión y control de las leyes del Universo físico.

Tampoco se puede suponer que el hombre estará limitado en su conocimiento de cualquier parte de las leyes de su Universo físico en cualquier momento del pasado. Por lo contrario parece mucho más probable que se llegue a tener completo conocimiento de las leyes que dieron origen al Universo. Creer otra cosa es negar al hombre la posibilidad de conocer su Universo aunque la acumulación de conocimiento completo acerca del Universo llegará a largo tiempo, si es que antes ese mismo hombre no ha destruido, absurdamente, el observatorio espacial que hoy ocupa.

Negar la posibilidad de conocimiento último es negar la misma existencia humana, porque el deseo de saber y la habilidad para aprender son parte fundamental del hombre y de su existencia y de todo lo que lo rodea o para precisarlo en términos de la física moderna, porque “la singularidad Hombre” es estrictamente definitoria de “la singularidad Universo”, como lo diría Einstein, al referirse al concepto moderno de “Holismo” con el cual el Universo y la naturaleza vivientes son vistos como totalidades interactuantes, como estructuras que son más que la mera suma de sus partes. Justamente Einstein al reformular este concepto en el “Principio de Mach” indicó y probó teóricamente que el Todo Universal influye en el acontecimiento local o terrestre, pero a su vez éste modifica el Todo.

Esta particularidad de los cosmólogos de hacer referencia a principios universales con amplia soltura ha sido duramente criticada por los sectores científicos que las han reputado de prácticas “metafísicas”, “astrológicas”, teológicas “acientíficas”, entre otros calificativos y en ese particular es pertinente conocer como razona un filósofo y teólogo cristiano para entender mejor qué metodología se aplica en el caso de la ciencia y cual metodología es propia del campo de la metafísica.

Por ejemplo, el jesuita francés Jean Jevaux, al comparar los métodos de la ciencia y de la metafísica y razona así: “La ciencia se aplica al ser sensible en cuanto sensible, es decir, en cuanto caracterizado sin duda por el entendimiento, pero gracias a las cualidades observadas por los sentidos, particularmente gracias a las formas espaciales, a los colores. Por ello piensa:

a) Dichas cualidades, en la medida de lo posible, serán reducidas al espacio homogéneo, y precisadas por la medición. El influjo de la unidad de la conciencia de existir se manifestará por la constitución de teorías universales y coherentes, a partir de un reducido número de elementos esquematizados.”

b) La metafísica, al contrario cualifica el objeto por medio de la aportación propia del espíritu y así: “En la medida de lo posible, elimina progresivamente, por un movimiento de vaivén entre la cualidad sensible, expresada conceptualmente, y la intuición espiritual del acto que la piensa, las características heterogéneas a ese acto espiritual. Como las cualidades del acto no espacial, absoluto, se traducen en sus productos objetivos, en los conceptos, es posible constituir una metafísica que esté primordialmente atenta a los objetos pensados y formule su estatuto ontológico comparando así los contenidos de conciencia: tal fue sobretodo el método del pensamiento antiguo antes del cartesianismo, pues para ese método, el sujeto era un objeto entre otros. Pero ahora, el pensamiento moderno se ha preocupado sobre todo del sujeto cognoscente”

c) En consecuencia, todo el pensamiento metafísico precisa de un soporte sensible (siquiera de la palabra sonora o imaginada). Y casi siempre, de un vago esquema imaginativo porque el pensamiento metafísico es reflexión sobre un acto sensitivo - racional. De allí que la metafísica tiene como regla de oro el “primer principio”, es decir, la necesidad expresada en el plano objetivo, para el espíritu que piensa, de ser siempre lo que es, de ser coherente consigo mismo en la simplicidad de su acto, mientras piensa un objeto.

d) “Esta vida del espíritu, este despliegue de todas sus virtualidades ante el análisis, induce a reconocer el valor del principio trascendente de casualidad el que, en resumidas cuentas, no es más que un aspecto del principio de identidad: nuestro espíritu no puede, sin incoherencia destructiva, ni pensarse a sí mismo, ni pensar el objeto, como no sea modo de formas limitadas de existencia participantes del Ser Absoluto. “El descubrimiento de este aspecto del principio de identidad ha puesto de relieve el origen del estatuto absoluto, pensado en términos de eternidad, que el espíritu se da a sí mismo bajo ciertos aspectos pese a la contingencia de su existencia individual.”

De la exposición anterior se concluye que el metafísico se atiene a las “leyes universales” que a juicio de los científicos están “fuera “ del objeto de estudio, porque se sitúan “más allá” de lo comprobable físicamente. El metafísico acepta esta forma de operar y de explicarse el mundo por parte del científico y parte de la premisa que la ciencia es “per se” agnóstica; pero luego el metafísico afirma que dado que el espíritu se dirige “instintivamente más allá”, debe concluir - necesariamente que ese plano opera la presencia y la acción de un ser supremo: Dios, inteligencia creadora, Arquitecto Supremo, Primer Motor o como desee designársele.

Para Jevaux la mentalidad científica se basa en la curiosidad; pretende instintivamente que toda las realidades del Cosmos son susceptibles de ser juzgadas por el pensamiento y se niega a dejar algún fenómeno sin una explicación, buscando - además - establecer una relación causal entre cada uno de ellos y otro fenómeno del mismo orden.

Pero el metafísico parte del principio que toda relación que el científico calificaría no de “casual”, si es de orden “causal” pues está ligada por un elemento común que califica de inteligencia: inteligencia espiritual, soberana, creadora y ordenadora. Por ello es que hay cierta gratuidad en calificar como metafísicos los planteamientos científicos “cuánticos” y los “relativistas”; pero es obvio que causan esa sensación ya que las computadoras cerebrales no están programadas para entender ¿aún? los profundos cambios introducidos en los dominios de la Ciencia en virtud de las Teorías Relativista y Cuántica.

Un Desenlace Accidental.- Mientras la batalla cosmológica se libra entre partidarios del B.B. y partidarios de la Teoría rival; los primeros ponen todas sus baterías en encontrar una evidencia del remanente del B.B. que están seguros existe en el Universo como radiación de fondo, esto es como una "reliquia" de ese pasado.

Efectivamente - por accidente - como ocurre muchas veces en la historia, dos ingenieros eléctricos de la empresa Bell Telephone, de los Estados Unidos de América: Arnold Penzias y Robert Wilson, utilizando un radiotelescopio rudimentario en 1965 detectan una interferencia molesta que resulta ser la ansiada prueba. En virtud de que ellos no buscan deliberadamente la radiación cósmica de fondo (en la banda de 21 cm. En donde encuentra) suponen-erróneamente que el radiotelescopio presenta “interferencias” causadas por el excremento de palomas. La relación que miden había sdo predicha teóricamente por varios astrónomos en los años treinta y luego nuevamente calculada durante todo el tiempo transcurrido entre la predicción y comprobación experimental accidental.
Lo que localizan en esta zaga cuasi-cómica es nada menos que la radiación de “espectro de fondo negro” en la banda de 27 cms. debida a una temperatura uniforme de 30 grados Kelvin, se comprueba que es la radiación remanente de la Gran Explosión. La Radiación Cósmica de Microondas de Fondo (CMBR en inglés), es el resultado de observar los fotones que se desprendieron en la era de desacople al inicio del Universo, lo que supuestamente ocurrió cuando el Universo tenía apenas entre 3/3000 a 1/1000 de su tamaño actual .Las regiones que son ligeramente más densas que otras atraen gravitacionalmente los fotones un poco más fuertemente y al hacerlo pierden energía, lo que se detecta como temperatura más baja; así las regiones menos densas tienen este efecto en menor proporción y las diferencias que se detecta en la distribución de esta materia esencial, constituyen las “ondas en el espacio” llamadas también “semillas”, u “inhomogenidades” en las cuáles se desarrollarían luego las estrellas y las galaxias.

La comprobación efectuada en 1965 cambia drásticamente el panorama de la elaboración de modelos, por dos razones:
a) Cuando la Cosmología se ocupaba de la formación de los planetas, la formación del Sistema Solar y aún de nuestra galaxia y de otros “Universos - Isla” solo debía preocuparse de aspectos de mecánica celeste y en lo astrofísico, de la formación y transformación de los elementos, “al interior de las estrellas”.
b) Cuando se involucró, nada menos que a descifrar el origen del Universo el panorama de complicó y la cosmología deberá recurrir a la física cuántica. Esto la coloca en otra área del conocimiento y las implicaciones son de naturaleza muy diferente porque se producirá un ligamen entre lo macrocósmico y lo subatómico de forma tal que a partir de ahora la Cosmología no puede explicarse - ni funcionar - si no es por esta relación complementaria.


Variaciones al Modelo Estacionario.- El debate, además de fuerte, sin cuartel, plagado de toda clase de desavenencias y enfrentamientos, que trascienden lo estrictamente científico, para personalizarse, dejó,sin embargo un gran bagaje de modelos y de variaciones-como es usual en el avance de la ciencia. Dado que El modelo standard B.B. asume que la formación de galaxias se produjo mediante un mecanismo de condensación aproximadamente hace unos 10x10 años; sin embargo, a juicio del astrónomo soviético Ambartsumian y los cosmólogos el ruso Novikow y el israelí Ne'eman en una publicación de 1970 ,proponen que la energía medible en el Universo (que se asume es el resultado de la radiación galáctica) se debe a que el Universo experimentó una detención de su expansión debida a un mecanismo de retención de la apertura de los núcleos; posteriormente, los núcleos galácticos se han ido abriendo al exterior mediante la ampliación del radio llamado “de Scharwzschild”.

Ahora bien, en el caso de la expansión de cada galaxia más allá de cada radio, la cinemática de la materia se opone directamente a la posibilidad del colapso gravitatorio, pero sin que ello implique que se trataría de una simple reversión del tiempo del colapso observado externamente. Esto significa que al colapsar un objeto sobre sí mismo, un observador externo puede medir la energía luminosa que se proyecta hacia afuera; pero si el proceso se revierte, la luz no es lanzada hacia el exterior, sino hacia adentro. Por lo tanto es posible observar la expansión del objeto, toda vez que la radiación es lanzada hacia afuera de la superficie y los paquetes luminosos producidos desde adentro, le permiten al observador apreciar el proceso de expansión galáctica desde el inicio; no obstante, que el objeto -que se va revelando a su observación- parece emerger de un pasado infinito.

Esta producción de materia y energía que emana del radio de Scharwzschild ensanchado, implica la existencia de una determinada cantidad de materia y de un número finito de fotones actualmente en camino hacia el observador (obviamente desde el inicio del conteo del tiempo a nuestra escala). Justamente esta situación ha sido abordada por el astrofísico belga Hermann Glauk para explicar el comportamiento de los quasars, lo que significa tener que admitir que a nivel local se viola el “Principio de la Conservación de la Materia”, lo que es un tabú para las concepciones de la Física Clásica.

En otra variante del modelo estacionario, dos cosmólogos, el inglés Fred Hoyle y el hindú Jayant Narlikar, en fecha posterior al suceso de 1965, introducen la idea de la existencia de un campo de energía negativa que funcionaría de esta manera: en el vacío se producen oscilaciones al azar, impredecibles, tanto de ondas electromagnéticas, como de ondas gravitacionales; pero sin que exista energía como parte del sistema, aunque en algunos momentos (largos o cortos) y en algunos lugares (nivel macro o micro), puede aparecer energía que ha sido tomada en préstamo en otros lugares y tiempos. En consecuencia, en los tiempos y espacios en que se produce el “préstamo energético”, la energía propia es negativa; sin embargo, en la relación de tomar y recibir energía, se da un balance cuyo resultado neto es cero. Esta energía tiene estas características-a su juicio-:

a) ese continuo flujo de préstamo-devolución es el que dirige las fluctuaciones cuánticas, que son más vigorosas en los espacios pequeños que en los grandes. Como resultado final de esas fluctuaciones, aparecen partículas virtuales momentáneas, en pares (fluctuaciones electromagnéticas que producen fotones virtuales y fluctuaciones gravitacionales que producen gravitones virtuales). En los lugares del espacio en donde el campo de fluctuación es momentáneamente intenso, se producen un electrón virtual y un positrón virtual que, al caer la fluctuación, desaparecen.
b) por tanto ,el mecanismo de evolución galáctica, que es de gran importancia para desentrañar el problema de la edad y origen del Universo, debe debatirse entre dos teorías que rivalizan por obtener la comprobación observacional:
Teoría A: Las galaxias se forman a partir de materia de baja densidad que se condensa alrededor de inhomogeneidades de origen cosmológico, cuyo núcleo se reduce gradualmente y se vuelve más y más denso, hasta comenzar a lanzar ondas de energía gravitacional hacia fuera, junto con eyección de materia y energía.
Teoría B: Las galaxias y la actividad de sus núcleos, es el resultado directo de la condensación a partir de estados iniciales sumamente densos.

La observación, nuevamente, será la que venga a dilucidar el problema, porque en términos teóricos el cosmólogo norteamericano Geoffrey Burbidge demuestra en 1970 sobre la base de revisión de 492 publicaciones sobre el tema que: “no se ha demostrado aún con argumentos sólidos suficientes, ni se ha comprobado fehacientemente, que la radiación detectada sea el remanente de la explosión primigenia...”..

Aunque en la actualidad gracias al uso de la herramienta informática Internet es posible encontrar en la red gran cantidad de información sobre la materia cosmologica, antes de los años ochenta era necesario recurrir a libros o bien a revistas .Justo siempre en defensa del Concepto "Creación Continua", y aunque sea trabajando en la retaguardia de la cosmología oficial, los astrónomos británicos Fred Hoyle y John Mac Vitie dejan sentada su posición en un artículo de divulgación publicado en “Scientific American” en 1992 ,que se muestra en un anexo al final de esta obra.

2.- El MUNDO DE LA FÍSICA CUÁNTICA.-

Mientras los astrónomos que por estas épocas tienen una formación circunscrita a la física clásica y apenas dominan- con cierta dificultad -las concepciones provenientes de la física relativista que la está revolucionando , participan del gran debate sobre el posible origen o la existencia desde siempre del Universo, hay otra revolución en gestación. De esta vez en el campo de la microfísica, que exige un conocimiento muy especializado que no poseen esos astrónomos y además presenta -como dificultad adicional- el hecho de que esa parte de la física es sujeto de grandes debates de orden metafísico.

Para ubicarnos en su propio contexto es necesario un regreso a finales del siglo XIX . En 1897, el físico alemán Max Plank se encuentra dedicado con gran éxito a la aplicación de los principios fundamentales de la termodinámica en el ámbito de la termoquímica y la electroquímica; posteriormente concentra sus estudios sobre la radiación del calor y siguiendo un proceso lógico desde los inicios de su investigación elabora la llamada “Teoría de los Quanta”, sosteniendo que “la energía de oscilación electromagnética que emana de un manantial calorífico no es continua, sino que está dividida en porciones elementales, esto es en “quantos” (término alemán ,proveniente del latín que significa cantidad, parte).

De acuerdo con la nueva propuesta debida a Plank solo aceptando esta hipótesis se puede comprender la distribución de energías en el espectro, porque la energía radiante no se puede medir “in extenso”, dado que al medírsela se la va a encontrar cuantificada, es decir, formando cantidades discretas, no continuas, cuyo valor se expresa por la relación expresada como un producto de la frecuencia (que se va a medir) , multiplicada por una constante universal -quanto- simbolizado con la letra H ,cuyo valor calcula en 6,5510-27 ergios-segundo". De aquí deriva el vocablo cuántico, que se aplicará a la física del microcosmos y que luego va a entrar en franca colisión con ideas y explicaciones provenientes de la física clásica .Por extensión la física clásica se va a conocer como determinista (porque pueden medirse sus fenómenos con precisión) y la cuántica como no determinista (en razón de sus fenómenos no son medibles sino por medio de reiterados experimentos que sumados permiten un cálculo estadístico de resultados) .Por esta última circunstancia también a veces de denomina a la física cuántica como mecánica cuántica .

A Plank se debe también el cálculo del denominado “Muro de Plank” ,concepto que propone en 1913, para tipificar tres parámetros (Longitud, Masa y Tiempo) dentro de los cuales puede operar la física clásica ,y por tanto efectuar con exactitud la medición de fenómenos fisicos . En consecuencia todo lo que sea menor a esas magnitudes no es medible con los parámetros de la física clásica y deben hacerse cálculos adicionales para su adaptación o cuantizacion. De acuerdo a esta concepción- que ha sido comprobada experimentalmente hasta ahora, los parámetros cuantizados, los ubica Planck ,mediante cálculos teóricos en estas magnitudes: Longitud= 210-33 cm ; Masa=210-5gramos; Tiempo=10-43 segundos .

Estas serán –por tanto- las condiciones extremas en las que puede operar la física, dado que en condiciones menores que las establecidas por el muro de lo que es medible , las leyes conocidas se “quiebran”,y no aplican, para entrar en una zona de total incertidumbre del conocimiento ,esto es, en una zona de especulación científica y por tanto dominio reservado a lo metafísico (que puede moverse dentro de ciertos parámetros de racionabilidad intuitiva, siguiendo las leyes de la lógica filosófica) o bien caer en una franca especulación fruto de posiciones salidas de la charlatanería o del ocultismo a veces disfrazados de ciencia .

En lo que corresponde al conocimiento del Universo muy primitivo, que es lo que nos interesa particularmente, estos parámetros son un muro real: la forma de sobrepasarlo - sin caer en especulaciones es “cuantizar” las fuerzas que operan a estos niveles, y tal esfuerzo teórico-práctico se iniciará en las décadas siguientes, cuando a la par o rivalizando con los trabajos de Einstein, otros científicos, en el área de la física cuántica ( también denominada física atómica o física de partículas ), tales como el francés Louis de Broglie ( (1902 - 1984) el inglés P.A.M. Dirac (1892 - 1941) el austríaco Erwin Schrödinger (1867 - 1961) , el alemán Werner Heisenberg (1901- 976) o el danés Niels Bohr (1895 – 1962 )prácticamente terminarán “desmaterializado la materia” con sus cálculos matemáticos para demostrar que lo que parecía una masa sólida, no es más que el equivalente de una altísima concentración de energía y, en escasos años la formulación matemática einsteiniana : [E = Mc2] logra ser convalidada no sólo por la bomba termonuclear en 1945 ,sino por métodos menos drásticos de investigación en laboratorios.

Estos últimos demuestran, en forma concluyente, que los llamados constituyentes elementales de la materia se comportan en efecto según sean las circunstancias bien, como partículas de masa o bien como ondas inmateriales. El empuje de la físicos cuánticos algunos de cuyos principales investigadores teórico-prácticos se centran en la planificación de bombas atómicas de fisión, fusión y fisio - fusión (con base en los conceptos aprendidos en descifrar la evolución de algunas estrellas), pasada la Segunda Guerra Mundial comienzan a hacer tambalear los conceptos clásicos de la física dualista asentada en los fundamentos de Descartes y en las leyes absolutas de Newton. Las teorías cuánticas se irán abriendo paso pero por aparte de las teorías relativistas; y al terminar la polémica entre los cosmólogos relativistas y los defensores del modelo estacionario, queda abierta la puerta para el ingreso - y unión - de los planteamientos cuánticos a la teoría relativista del B.B.

Lejos de los aceleradores de partículas y de las disquisiciones entre astrónomos , Arthur Koestler, es un escritor y periodista de divulgación de la ciencia ,pionero en su campo, húngaro de origen judío , que contribuye fuertemente a la creación de muchas especulaciones de orden metafísico en relación con la física cuántica, la cual aun se mantiene aprisionada en esos marcos. Koestler afirmaría en su artículo " The Darkness” publicado en una pequeña obra de divulgación periodística en 1956 en Inglaterra, que : "...el electrón como proclamó Louis de Broglie en 1952, es simultáneamente un corpúsculo y una onda y este dualismo, fundamental en la física moderna recibe el nombre de “Principio de Complementariedad”, en el que, según palabras de Heisenberg: -estos dos marcos de referencia se excluyen recíprocamente, y sólo la yuxtaposición de estos marcos incompatibles pueden suministrarnos un panorama exhaustivo del aspecto de los fenómenos”. Y luego con una atrevida frase que sitúa su pensamiento entre la física y la metafísica afirmaría : “lo que denominamos complementariedad es la forma moderna de expresar materia viva y muerte”.

En efecto, el nacimiento de la Teoría Cuántica es una verdadera revolución en el seno del pensamiento. La Teoría Cuántica trata de conciliar los aspectos corpusculares y ondulatorios que poseen todos los objetos, dualidad que se hace especialmente muy sensible a la escala de las partículas elementales.Albert Einstein con el aspecto corpuscular de la luz, en 1905, Niels Bohr con su teoría de órbitas discontinuas cuantificadas de los electrones atómicos, en 1913 y Louis de Broglie al postular el aspecto ondulatorio de la materia, en 1924 exponen las ideas fundamentales de la teoría; pero los desarrollos y la interpretación actual de la misma se deben sobre todo a que en las épocas en que se gesta se tipifica como “misticismo”, “metafísica”, y otros calificativos alejados de la ciencia, a los esfuerzos explicativos debidos a los trabajos de Schrodinger en la ecuación que lleva su nombre; a Heisenberg por sus interpretaciones de la mecánica cuántica y postulación del Principio de Incertidumbre, a Bohr por sus conceptos de la Complementariedad entre onda y corpúsculo; y a P.A.M. Dirac por su aproximación relativista de la Teoría Cuántica.

Estas teorías permiten explicar un gran número de observaciones experimentales en el campo de las partículas elementales. Pero su interpretación actual introduce en física un nuevo concepto: el del “probabilismo estadístico” que se opone al antiguo “determinismo” o “indeterminismo”. Muchos teóricos (entre ellos Einstein a su cabeza ) no aceptarían nunca esta interpretación probabilística por no considerarla satisfactoria, pensando que una interpretación que, pese a conservar el formalismo matemático, permitiese explicar la realidad valiéndose de una descripción determinista de los fenómenos, sustituiría tarde o temprano a la interpretación propuesta por los teóricos cuánticos. Sin embargo, no ocurre así, como lo demuestra la predilección científica atomista por el concepto de “función de onda”, que proviene de la Escuela de Copenhague que sigue los postulados de Heissenberg.

La Interpretación Determinista.- El origen del problema en el cual se encuentran las teorías físicas actuales remonta al “Congreso de Física Solvay” reunido en Bruselas en 1927. En esta ocasión, la interpretación no determinista (es decir apegada a la física clásica) del danés Niels Bohr, era a juicio de los físicos deterministas correcta en primera aproximación, pero dudosa por la forma en que explicaba la parte “radial” de la onda y que, ahora es parte de la llamada “interpretación de Copenhagen”, y su criterio predomina sobre el punto de vista más determinista defendido por Albert Einstein. Lo que Einstein defendía era la posibilidad de que, aunque una conexión entre la física de los “quanta” y el concepto de probabilidad tenía que ser considerada, existían otros caminos más fundamentales y más físicos dando una visión adecuada del problema cuántico en un marco de unificación en el cual, no solo la gravitación y el electromagnetismo fuesen integrados (unificados), pero también la nueva física cuántica pudiera ser explicada de manera entendible, esto es manteniendo la causalidad física, el determinismo. Con ello Einstein buscaba alejar la prisión debida a la aplicación de los conceptos de "aletoriedad" estadística a las explicaciones físicas de los fenómenos medibles.


El Principio de la Indeterminación.- Es interesante observar que muchos físicos han visto en el paralelo entre ambos tipos de complementariedad: mente/cuerpo y corpúsculo/onda, algo más que una analogía superficial. Sobre estas afirmaciones que suenan extrañas y que ponen a la ciencia ortodoxa en guardia, expresa Koestler: “El sentido común, nos dice que para producir una onda debe haber algo que ondule por ejemplo la vibrante cuerda de un piano, el agua ondulante o el aire en movimiento, pero la noción de ondas de materia excluye por definición al conductor o al productor de la onda”. De modo que afrontamos la tarea de imaginar la vibración de la cuerda sin recurrir a ello, o sea, una tarea para lo que no estamos programados mentalmente, y tales dificultades para nuestra mente racional es lo que el astrónomo inglés James Jeans tenía en mente al escribir en 1937 que “los físicos se apartan del punto de vista materialista casi unánimemente, porque el Universo comienza a tener más el aspecto de un gran pensamiento que el de una gran maquinaria”. Como veremos mas adelante, ya llegando al Tercer Milenio estas ideas especulativas provenientes del campo del misticismo comienzan a convertirse en teorías cientificas reputadas, basadas en la Teoria de la Información extrapolando de planteos de Mac Luhann y llevadas al vasto Universo de lo material, la mente y el espíritu.

Por esta época también, las concepciones clásicas acerca de la materia solidez de la materia casi se ha evaporado de los laboratorios físicos y gracias a los aceleradores de partículas la materia familiar a nuestros sentidos comienza a ser captada en focos de energía concentrada que se componen y recomponen en nuevas formas que destruyen los conceptos clásicos de espacio, tiempo y causalidad, para los cuales están programadas las computadoras de nuesros cerebros. Nuestras concepciones familiares acerca de lo que es materia o energia demuestran ser totalmente inapropiadas para aplicarlas a los hechos producidos a escala subatómica (como se observa en los aceleradores de partículas) o supragaláctica (como lo comienzan a preveer las teorizaciones acerca del inicio del Universo ). La nueva racionalidad que confronta la antigua es aparentemente sencilla, al menos para Heisenberg, cuando afirma : “Los átomos no son cosas... cuando descendemos al nivel atómico, el mundo objetivo del tiempo y el espacio dejan de existir y tampoco la estricta casualidad y el rígido determinismo son aplicables a ese nivel”.

En efecto, ese “Principio de Indeterminación” va a pasar ahora a ser tan fundamental en la física moderna como las “Leyes del Movimiento” de Newton lo han venido siendo a la mecánica clásica .Y ese principio va tratar de explicar que que el Universo, en cualquier momento dado, se encuentra casi sin decidir. Y es precisamente ese estado indeterminado el que impide o dificulta tomar partido por conocimientos fijos o por reglas absolutas y entonces todo aparece como “relativo”. A partir de los extraños postulados nacidos de la Física Cuántica ,comienza a ser un lugar común decir que la visión mecanicista de un mundo estrictamente determinado comienza a hacerse insostenible ( aún cuando amplios sectores del público culto aún se aferran a él) y es porque el modelo de las relaciones conocidas y familiares de un Universo como un mecanismo de relojería, comienza a derrumbarse. Con el advenimiento de la “teoría cuántica” y de los postulados provenientes de la Física de la Relatividad, concepto de materia comienza a perder toda solidez, de forma que a juicio de Arthur Koestler en una cita de franco pesimismo que data de un mes antes de su suicidio en 1983 afirmaría de forma tajante : “el materialismo ya no tiene derecho a proclamarse una filosofía científica.”

¿Cuáles son entonces las alternativas?. En el período transcurrido desde la revolución einsteniana que produce la última fractura del pensamiento se han realizado innumerables descubrimientos. Los radiotelescopios escrutan el cielo, se escudriñan los acontecimientos subatómicos en cámaras de burbujas pero aún no se ha podido elaborar un modelo satisfactorio y una filosofía coherente que sean comparables a la ofrecida por la clásica física newtoniana, para explicar la materia y junto con ella el Universo.

A la vez se tambalea el pensamiento científico que parecía tener bases muy sólidas cuando a la par de los avances en la exploración del macrocosmos, aparecen nuevas formas de expresarse respecto a la materia y la energía a escala del microcosmos, y el Principio de Complementariedad y el Principio de Indeterminación comienzan a replantear el conocimiento, de forma tal que van a impactar a la astronomía y a la cosmología , muy particularmente al concepto del “Universo Muy Inicial” (de Very Initial Universe) en inglés , aunque no se produzce aún un modelo de esta etapa del Universo dado que el “Muro de Plank” impide una formulación realmente comprobable de cualquier teorización por más seria que ésta trate de ser.

El Lenguaje Cuántico.- A finales del siglo pasado, aún cuando ya hay anticipos de lo que va a ser la revolución actual, en física todo transcurre con tranquilidad: por un lado estaban las sustancias materiales (integradas por moléculas ) y estas por átomos inmutables; y por otra parte los campos y las radiaciones (luz, calor, electromagnetismo), como modelos lógicos y esquemas que representaban la evolución de las sustancias materiales. Por una parte la materia estaba constituida por partículas (corpusculares y discretas) y localizadas en una región específica del espacio; mientras que los campos y radiaciones (ondulatorios y continuos) se extendían en el espacio y eran portadores de energía. Sin embargo, el manto axiomático y la sistematización clásicas oficializadas comienzan a sufrir embates cada vez más fuertes.

El proceso de desajuste-ajuste sigue esta secuencia:
En 1897 Plank describe que la materia intercambia energía por medio de bloques unitarios (cuantos de energía);

Einstein (1905), demuestra que la energía solo existe en bloques discretos (fotones) y se concluye que la separación de conceptos “discreto - continuo” ya no es aplicable, por lo que se debe descartar el modelo dicotómico (es decir separado) y adoptar un modelo dualista en el que la materia - campo - energía se comportan a veces como corpúsculos, a veces como ondas.

Este modelo debido a Bohr (1921) fue conocido como “Principio de Correspondencia”. El “Principio de Correspondencia” ligaba conceptos de la física clásica con conceptos de la física cuántica, lo que no se corredsponde con la realidad observada.

En 1925 Bohr le da a la física cuántica autonomía conceptual y le imprime coherencia lógica, aunque no deja de ser controvertida, por su carencia de axiomatización. denominando Principio de Complementariedad a lo antes conocido como Principio de Correspondencia.

Conforme se avanza en la investigación de los fenómenos cuánticos surgen más dudas, lo que hace que se postule el “Principio” de la Incertidumbre (por Heisemberg, 1925), al señalar que al hacer una determinación no, es posible definir la materia y la energía enmarcadas en las coordenadas usuales de la física clásica: tiempo, espacio, velocidad.
Este concepto - que tiene implicaciones no solo físicas, sino metafísicas, provoca grandes discusiones acerca de la verdadera naturaleza de las sustancias y se plantean estas disyuntivas respecto a la “realidad corpuscular” y la “realidad ondulatoria”: ambos modelos son verdaderos, o ambos son falsos, o uno de los dos es el verdadero.

En 1933 y en busca de una Teoria del Campo Unificado, Schorodinger, por ejemplo ,defendió el modelo ondulatorio (pero solo desde el punto de vista matemático) no así desde el punto de vista físico, bajo su esquema conocido como “Vector de Estado en el Espacio Hilbertiano”, que se refiere a la “función de onda” pero desde un punto de vista abstracto, no real.

Para esas mismas fechas , Bohr, por su parte se erige en el defensor del modelo corpuscular señalando que los corpúsculos son entes físicos reales y las ondas son solo artificios de carácter matemático que permiten el cálculo de una probabilidad para situar una partícula en un lugar determinado. Esta probabilidad, en su modelo, no está privada de significado físico; pero este no es un objeto físico por sí, sino tan solo una propiedad de los objetos físicos.

Einstein apoya esta interpretación de Bohr cuando señala: “Si bien hay una onda asociada al corpúsculo, a éste le corresponde la existencia física y a la onda solo la distribución probalística”.

A partir de 1934 ,aproximadamente, el filosofo de la ciencia Kart Popper ,austriaco ( 1902-1994) juega un papel esencial en el campo de las explicaciones científicas en el momento en que las teorias de la dualidad de la materia crean gran caos en el conocimiento científico.

Popper más conocido por sus clases de economía y por los ataque que sufriera de parte de círculos marxistas, pertenece a la filosofía neo-positivista del llamado “ Círculo de Viena”
Compartiendo honores con Von Mises y Von Hayek ( el último amigo personal del autor en su época de juventud) ,aunque llevó a cabo una importante crítica de algunos de sus postulados; pues acusó de excesivamente dogmática la postura de dividir el conocimiento entre proposiciones científicas, que serían las únicas propiamente significativas, y metafísicas, que no serían significativas.

Para Popper, bastaría con delimitar rigurosamente el terreno propio de la ciencia, sin que fuera necesario negar la eficacia de otros discursos en ámbitos distintos al de la ciencia. También dirigió sus críticas hacia el verificacionismo que mantenían los miembros del Círculo, y defendió que la ciencia operaba por falsación, y no por inducción. Esta es, en rigor, imposible, pues jamás se podrían verificar todos los casos sobre los que regiría la ley científica. La base del control empírico de la ciencia es la posibilidad de falsar las hipótesis, en un proceso abierto que conduciría tendencialmente a la verdad científica.

Popper ,para quien la verdad no se descubría, se inventaba, desarrolló este principio en su famosa obra “ La Lógica de la investigación científica (1934), donde estableció también un criterio para deslindar claramente la ciencia de los demás discursos. Asi, para que una hipótesis sea científica es necesario que se desprendan de ella enunciados observables y, por tanto, falsables, de modo que si éstos no se verifican, la hipótesis pueda ser refutada.

Esta concepción abierta de la ciencia se corresponde con el antiesencialismo que mantuvo en obras posteriores dedicadas a la crítica del historicismo ( doctrina que cree posible determinar racionalmente el curso futuro de la historia). Por las implicaciones de sus enunciados en ciencia e historia de la ciencia y su cercanía con otros postulados cabe señalar que es el autor de “ La Sociedad abierta y sus enemigos (1945) y “ La miseria del historicismo” (1957) ambas portadoras de una rigurosa crítica hacia cualquier forma de dogmatismo y una defensa de la democracia , como único sistema abierto capaz de albergar investigación seria y no ideologizada de antemano.

Con respecto a las características y particularidades del mundo cuántico, Popper ha señalado que las partículas son objetos de la experiencia, a los que se asocian “campos de probabilidad” pero no como parte de las partículas, sino de los aparatos de medición (incluido al experimentador); esto es que la probabilidad es una medida de la “propensión objetiva de un sistema físico para comportarse de un modo determinado”. Asimismo este filósofo afirma que lo importante son las teorías, no las imágenes (o modelos que se constituyen con ellas); de manera que la superioridad del concepto corpuscular o del concepto ondulatorio pertenece no a las imágenes, sino a la capacidad de cada teoría para probar su bondad.

Ahora bien, pero si las teorías son tan solo previsiones incomprensibles desde el punto de vista de la significación física más auténtica, esto implica que tienen más importancia los resultados estadísticos que prueban o reprueban teorías, que tratar de encontrar salidas artificiales mediante imágenes o modelos intuitivos, que si bien satisfacen necesidades intelectuales, no necesariamente cumplen requisitos de la lógica formal, que ha caracterizado la construcción científica... Y es que resulta que así como en lógica matemática hay bastante precisión acerca de lo que se entiende por interpretación, no sucede así en el campo de la física, por la carencia de su axiomatización."

El tema no ha desaparecido-ni mucho menos-del tapete de la discusión. Bástenos citar dos criterios opuestos:
a) Para el filósofo de la ciencia el italiano Andrea Agazzi: "El problema de la falsedad del modelo corpuscular, o del modelo ondulatorio se ha mistificado por cuanto desde el inicio de la polémica se ha caído en el error de ir más allá de las interpretaciones (o modelos) idealizadas lo que tiene gran valor heurístico; para presentarlos (sin que pueda ser así), como los modelos lógicos contrapuestos o complementarios; lo que tiene como consecuencia la imposibilidad de hacer comprensible el universo subatómico".
b) Para los filósofos de la ciencia norteamericanos , Mark Margenau y Louis Cohen: "El problema reside en dos posibilidades axiomáticas: bien que ninguno de los dos modelos son adecuados, o más aún, que no hay necesidad de ningún modelo".

Simetrías.- Antes de Einstein los principios de simetría eran meras guías a las que cualquier teoría física clásica factible tenía que ajustarse. Por ejemplo, la simetría de rotación afirmaba que las leyes físicas deben tener la misma forma en cualquier dirección pero a partir de Einstein vino un cambio cuya secuencia es esta:
1) A partir de 1905: Einstein , el primer purista; consideró primero un principio de simetría fundamental y derivó una nueva versión, más precisa, de la mecánica. Su teoría especial de la relatividad resultó del argumento de que ningún experimento físico podía determinar cuál de los dos observadores estaba en reposo y cuál en movimiento continuo. Su teoría general de la relatividad -su teoría de la gravedad- surgió aún más espectacularmente de la aplicación de la simetría. Sin esta, el proceso de modificación de la teoría de la gravitación newtoniana nunca habría conducido al resultado de Einstein.
2) A partir de los años 20: El surgimiento del enfoque pragmático tuvo su origen en la obra de físicos como Werner Heisenberg, Murray Gell-Mann y otros. Mientras ellos creyeron en la utilidad de la simetría, no emplearon las simetrías fundamentales para deducir nuevas teorías. En cambio, estudiaron las propiedades de las partículas elementales a fin de intuir una estructura simétrica aproximada que las uniera. Heisenberg argumentó en favor de una simetría “aproximada” que uniera protones y neutrones.
La simetría era solo aproximada porque los protones y los neutrones no son idénticos. Incluso Gell-Mann colocó uno junto a otro modelos más grandes de partículas menos idénticas. Cuando encontró que nueve partículas conocidas se ajustaban a un modelo diseñado para 10, predijo la existencia de una nueva partícula. A la larga, estos modelos de simetría condujeron a Gell-Mann a comprender que todas estas partículas están compuestas por entidades más fundamentales: los quarks.
3) A partir de los años 50: Vino el resurgimiento de la estética pura cuando C.N. Yang y Robert-Mills utilizaron una simetría exacta para generalizar el electromagnetismo. En ese momento su teoría no describía nada visto en la naturaleza.
4) A partir de los años 60: Los físicos comenzaron a entender que las teorías de Yang Mills podrían describir perfectamente todas las interacciones entre las partículas fundamentales, Una vez más, la búsqueda de la belleza había conducido a una descripción fiel de la naturaleza. Sin embargo, en ese momento los amantes de la simetría se enfrentaron con el “problema del diseño último”, es decir, cómo conciliar su búsqueda de la simplicidad con la diversidad aparente de la naturaleza (no todas las partículas elementales son idénticas). La respuesta implicaba un rompimiento de la simetría. Incluso si las leyes matemáticas de la naturaleza son exactamente simétricas, el mundo real puede romper tales simetrías. Las simetrías exactas pueden conectar las fuerzas esenciales y las partículas, a pesar de sus diferencias aparentes.
5) A partir de los años 70: Ese concepto anterior conduce a un frenesí de actividad que, se dirige a la unificación completa de todas las fuerzas fundamentales (Steven Weinberg, Abdus Salam y Sheldon Glashow trabajando desde los sesenta, obtendrán el Premio Nobel de física (en 1979) por haber dado el primer paso en este proceso.

Y adelantanos a la época bajo examen agreguemos que:
6) A partir de los años 80: Se iniciará la búsqueda de la “teoría de la Gran Unificación” (GUT), que se analizará más adelante.
7) A partir de los años 80- 90 : Comienza la búsqueda sistematizada de las teorías de Súper Simetría y estas a su vez, darán origen a nuevos planteos más osados, entre ellas las Teorias de Cuerdas ,que darán origen a las ideas de Multiuniversos y luego a las Teorías de Branas o Teoría M , que representarán nuevas concepciones teóricas en esta línea.
8) Ya durante el Tercer Milenio asistimos a planteos teóricos que buscan, junto con la quantizacion de la gravedad, y diversas formas de modificación de las teorías gravitatorias, la modificación de las constantes universales, e igualmente la identificación de la Constante Universal para determinar si es debida o no a la presencia de Materia y Energía Negras, no cuantificadas .
9) Al terminar la primera década de los años 2000, la busquda de la simetría se ubica en dos planos:
a) Experimental: con la operación del Supercelerador en la frontera entre Francia-Suiza que busca la ruptura de simetría que se supone haría ocurrido al inicio del Universo generando el Boson de Higgs, partícula altamente hipotética, considerada el “Santo Grial de la Cosmologia”, y bautizada por algunos cosmólogos como “ Partícula de Dios” ,pues se encontraría al inicio inmediato del nacimiento del Universo (ara lo cual-en consecuencia-el acelerador utilizado debe utilizar la misma energía supuestament existnte al inicio de la Creacion).
b) Teórica: Dependiendo de lo que se encuentre experimentalmente,ya los físicos vticinan el nacimiento de una nueva concepción de la física ,que se denomina la Nueva física.
c) Mientras ello llega a concresiones los cosmólogos recurren a procesos de simulación de condiciones extremas en computadoras veloces y potentes. Los resultados alimentan el trabajo e teorización y el experimental.

De este proceso se deriva una conclusión : "Conforme las simetrías crecen para abarcar más fenómenos, y al mismo tiempo se ocultan más a la vista, conducen a predicciones menos verificables. Se espera que la teoría última perdure en virtud de ciertas rarezas matemáticas. Pero las teorías elegantes solo son parte de la física siempre que contengan consecuencias observables".

La búsqueda de simetrías se encuentra inmersa -a su vez- en un debate filosófico que se refiere a las metodologías empleadas las experimentaciones. Las explicaciones para los fenómenos del mundo subatómico están emparentadas, desde el inicio, a las interpretaciones de la Escuela de Copenhague, la que, a su vez se encuentra emparentada con la elección metodológica de lo que se ha denominado el “operacionismo”, pero llevado a niveles extremos, en que los conceptos que se usan para explicar los fenómenos están tomados de las operaciones y de los procedimientos utilizados para “capturar” los fenómenos. Pero se confunden de tal manera todos los elementos intervinientes que: las operaciones, los procedimientos, los fenómenos, las descripciones y los conceptos tratados son vistos como elementos sinónimos, sin desligarlos de sus propios contextos.

A tal extremo se ha llegado en el "operacionismo" que Heisenberg afirma al respecto: que las “expresiones formales” con las que se describen los fenómenos son los “entes físicos” mismos; y pese a que vislumbra el problema lingüístico de fondo no encuentra la solución, al igual que los defensores de dicha escuela. Las salidas al problema - como en todo - pueden ser vislumbradas desde posiciones antagónicas o desde una moderada. Por ejemplo, las soluciones planteadas según Agazzi pueden ser estas:
Posición A: Partir del supuesto que al plantear preguntas al microcosmos es del todo inexorable encontrar respuestas mediante macro instrumentos clásicos que darán datos clásicos. Expresado de otra manera: si no se deseara utilizar las palabras “onda” y “corpúsculo” siempre es inevitable que los experimentos se hagan con instrumentos que tratasen los fenómenos como “ondas” y “corpúsculos” -
Posición Extrema Z: Partir del supuesto que al plantear preguntas al microcosmos se está tratando con hechos no clásicos y cimentar - desde allí - conceptualizaciones diferentes y nuevas, que aún utilizando instrumental clásico, arrojen resultados que deben interpretarse fuera de ese contexto limitante, lo que obliga a imaginar nuevos contextos.
Posición Intermedia: Desde la antigüedad se plantea con Aristóteles que la única forma de que el intelecto humano comprenda una cosa es mediante la búsqueda de apoyo en imágenes intuitivas; criterio que es reforzado por Kant al señalar que para conocer no solamente se requiere de la intuición, sino que las “mismas formas puras del intelecto gozan de la posibilidad de ser pensadas solo a través de un cierto esquematismo de la intuición pura del tiempo”.

Así las cosas la búsqueda debe centrarse en modelos capaces de conceptualizar el mundo subatómico y el lenguaje matemático - cada vez más abstracto - es el medio adecuado para obtener el logro que de otra manera no se obtiene por las vías extremas A y B. Esta tercera posición ya había sido intuida por Heinsemberg.

Sin embargo, en la búsqueda de una axiomatización matemática el problema no tiene fácil salida porque hay una gran discusión lógico - filosófica y físico - matemática acerca de que es la realidad, que son los modelos físicos que tratan de explicar (o modelar) la realidad; así como que son los "constructos matemáticos" (si entes - reales) o simples fórmulas elaboradas por los seres humanos para tratar de expresar la realidad. En todo caso se requiere reconocer que no hay "un solo mundo", sino "muchos mundos matemáticos" y una realidad física puede ser presentada desde diversas interpretaciones matemáticas, algunas de las cuales la física utiliza, otras no; y algunas de las cuales aún no han sido descubiertas por lo que la riqueza conceptual (¿virtual o real?) de las matemáticas puede ayudar a sistematizar el mundo de la física, tan propenso a la carencia de axiomatización.

Por tal razón a partir de los años setenta comienza a cobrar fuerza la idea de describir un fenómeno físico en lenguaje matemático (primero) y luego darle una interpretación física (segundo), en donde la matemática proporciona no solo algoritmos, sino también métodos de cálculo, modelos para la comprensión y un lenguaje universal para la explicación de los modelos físicos; y por supuesto que si ello es una ventaja para el científico es - por lo pronto - un formidable obstáculo para el lego.

Sin entrar en la consideración formulada por el lógico - matemático Kurt Godel quien postulaba la existencia real de los entes matemáticos, es conveniente señalar que toda teoría, partiendo de unos hechos conocidos intenta encontrar una explicación postulando una estructura física que pueda explicarlos desde un punto de vista causal y denomina “modelo” a esa estructura.

Pero debe tenerse en cuenta que:
a) "El modelo es la estructura postulada", mientras que la teoría es el conjunto de proposiciones con las cuales la estructura se describe provisionalmente, en consecuencia: a) la teoría es una entidad lingüista - matemática; pero el modelo no. Ahora bien, como se ha señalado con anterioridad, uno de los mayores peligros que pueden acechar a la razón humana consiste en adquirir la costumbre de extrapolar y generalizar sin darse cuenta de ello. El investigador debe combatir esta costumbre por medio de una severa vigilancia con el fin de detectar esta tendencia a la extrapolación.
b) Una teoría puede estar basada en una hipótesis que por distintas razones pueda ser considerada poco plausible. En este caso, la teoría puede extenderse más apropiadamente hasta explorar todas las consecuencias de tan arriesgada hipótesis por alejadas que se encuentren del punto de partida. Este es no solo el modo de proceder más correcto, sino también el más recomendable.
c) El juicio inicial del grado de verdad contenido en la hipótesis base carece completamente de importancia; lo que interesa es ver si sus consecuencias forman un esquema consecuente por sí mismo y que se halle de acuerdo con las observaciones reales, aunque no sea acorde con las extrapolaciones de las observaciones comúnmente observadas.
Con todo, esta comprobación de las consecuencias remotas o indirectas suele ser menos preciado. El examen lógico de todos los resultados de una hipótesis no solo es legítimo en cualquier situación, sino que constituye la esencia de la ciencia.

Especulaciones Cósmicas.- La situación teórica creada, como consecuencia de comenzar a especularse sobre las consecuencias de unir las teorías de la Física Relativista y de la Física Cuántica, puede ser descrita como uno de esos períodos de “anarquía creativa” que suelen reiterarse en la historia de la ciencia, cuando los viejos conceptos se tornan obsoletos y aún no se vislumbra una nueva síntesis. Un interregno semejante en la cosmología duró casi una centuria y media, desde la publicación del libro” De Revolutionibus” de Copérnico, hasta la de los “Principios de Newton” en 1684; sin embargo debido a la aceleración de la historia - que incluye a la historia de las ideas - , la fase actual de anarquía creativa probablemente sea mucho más breve, y cuando llegue la nueva síntesis, acaso el Hombre se maraville de su previa ceguera.

Incursiones de la Física Cuántica en la Cosmología : Los avances en este campo han comenzado a formular todas las modificaciones al modelo del B. B. en su versión de Universo Muy Inicial (Very Early Universe) e inicial (Early) y han originado - posteriormente - las Cosmologías Inflacionistas que se irán a desarrollar en la década de los 80.

Los aportes iniciales más significativos son los siguientes:
1.-Década de los 30, Teorías P.A.M. Dirac. Investigación de la primera versión de la mecánica cuántica desarrollada por Heisemberg con la teoría de la Relatividad planteada por Einstein. Descripción matemática de la Teoría Cuántica.
2.-Década de los 40, Desarrollo de la teoría Q.E.D. (en inglés Quantic Electro Dinamic) de Schwinger / Feyman /Tomonaga. Trabajo para explicar la interacción electromagnética, lo que constituye el prototipo de las teorías cuánticas de campo y es punto de partida para construir nuevas teorías que intentan explicar otras interacciones.
3.-Década de los 50 , Teoría de campo de aforo invariante de Mills / Yang. Trabajo pionero para lograr la unificación electrodébil (QED).
4.-Década de los 50, Teoría de campo electrodébil de Bludman / Glashow / Salam / Ward / Higgs/ Weinberg. Trabajo para la creación de una teoría electrodébil unificada. Inicio de un proceso de creación de teorías de aforo no abelianas (no importa el orden de las interacciones).
5.-Década de los 60 , Teoría de quarks; Gell - Man / Zweig. Plantea que los protones, neutrones y demás partículas constan de tripletas de subpartículas unas con carga 1/3, 1 y otras con cargas 2/3 del electrón.
6.-Décadas de los 60-70, Trabajo para elaborar la Teoría de la Cromodinámica cuántica (Q. C.D. en inglés) de Greemburg / Nambu / Han / Gell-Man / Fritzch / Ting / Richter. Creación de la teoría electrofuerte unificada (QEP).
7.- Desarrollos posterior a esta década aparecen cubiertos en los capítulos siguientes


Prácticamente desde los años treinta la física teórica parece encerrada en una cámara de burbujas donde se cruzan las hipótesis más estrambóticas, al punto que se ha acordado que el modelo del Universo solo puede ser abstracto y matemático, descartando las tentativas de representación visual (geometría) pues el hombre sólo es capaz de representar y visualizar en el espacio tridimensional, moviéndose por un solo eje temporal que va de causa a efecto, en tanto que un auténtico modelo de acontecimientos requiere más dimensiones, porque causa y efectos se entrelazan en nudos gordianos.

Para estas fechas comienzan a hacerse predicciones realmente asombrosas recurriendo a extrapolaciones de la leyes relativistas y a su combinación con postulados cuánticos. Sobre estas explicaciones contrarias a la lógica clásica , por ejemplo, según teoriza el físico cuántico norteamericano John A. Wheeler, la geometría del espacio tridimensional fluctúa violentamente en pequeñas distancias en donde el espacio de la geometrodinámica sería comparable a una alfombra de espuma tendida sobre el paisaje con leves ondulaciones y en el que las continuas mutaciones microscópicas de la alfombra de espuma, al surgir nuevas burbujas y desaparecer las viejas, simbolizan las fluctuaciones cuánticas de la geometría. Y el cosmólogo inglés Stephen A. Hawking lanzará después la idea de que en el Universo Primitivo (Very Early Universe) estas fluctuaciones serían "agujeros negros primordiales" colocados a la distancia de 10-33 cm. uno del otro. "

Esto no debe extrañar porque el propio Einstein en la formulación de la llamada Paradoja Einstein Podolsky Rosen (EPR) deja abierta la puerta a lo que podría reputarse de "metafísica" cuando éste afirma que si dos electrones (A y B) son inducidos a separarse en direcciones opuestas y en distancias inmensamente grandes, las interferencias que se produzcan sobre alguno de ellos (por ejemplo A) influirá al mismo tiempo sobre el otro (en este caso B), por muy lejos que se hallen entre sí, y aunque sea imposible comunicarse, pues , de hacerlo sería a velocidades que exceden la de la luz (concepto conocido bajo el término velocidad superluminal), pero que en las formulaciones de Einstein no están permitidas por ser aquél un valor absoluto.

El concepto de Wheeler acerca de que el espacio-tiempo es un turbulento océano de espuma burbujeante intenta representar un concepto cercano a la ciencia - ficción reforzado por conceptos respetables debidos a teorizaciones de la física moderna,al punto que Wheeler señala: “El escenario en el que se mueve el espacio del Universo no es; por cierto, el espacio mismo. Nadie puede ser el escenario de sí mismo; necesita de un teatro más grande donde moverse. El teatro donde el espacio realiza sus mutaciones no es siquiera el espacio - tiempo de Einstein, pues el espacio - tiempo es la historia del espacio que cambia con el tiempo. Ese teatro debe ser un objeto más amplio: el superespacio y éste no está dotado de tres o cuatro dimensiones; sino de un número infinito de dimensiones, pues cada punto de superespacio representa un mundo tridimensional en su totalidad”.

El concepto de superespacio, o hiperespacio (también se encuentra en inglés bajo la definición “Metaverse”), junto con los conceptos de Universos Paralelos y de tiempo reversible o multidimensional , ahora adquieren respetabilidad para la discusión académica, al grado que nos comenta Koestler ,cuyo conocimiento científico ,volcado en la labor de escritor y periodista, fue evidentemente notable porque podía conjugar teorías difíciles con planteos místicos y sin embargo mantener posiciones centradas, aunque su propia vida fuera una verdadera pesadilla, al punto que planifica su suicidio con pavorosa frialdad. En uno de sus articulos Koestler nos dice: “Cuanto más extraños son los datos experimentales concretos más surrealistas son las teorías elaboradas para explicarlos. Así el profesor Richard Feyman de la Universidad Tecnológica de California interpreta las huellas de los positrones en la cámara de burbujas, como una evidencia de que éstas partículas hacían breves retrocesos en el tiempo, y en lugar de ser recibido con públicas carcajadas recibe el Premio Nobel de Física en 1965.”

El superespacio de Wheeler tiene rasgos notables; uno de ellos es la conectividad tal y como anticipara el matemático danés Ferdinand Möbius con el famoso “anillo” que permite representar con una sola dimensión la coexistencia de dos dimensiones espaciales. Esto significa que las regiones que distan entre sí en nuestro familiar espacio tridimensional, pueden ser temporalmente puestas en contacto directo mediante túneles o “agujeros de gusano” (Whormholes en inglés) que son calculados matemáticamente entre otros, por el físico cuántico - relativista Thorne S Arp, quien supone que el Universo está cubierto de estos agujeros, que aparecen en fluctuaciones inmensamente rápidas, resultando figuras en cambio constante: algo así como un caleidoscopio cósmico agitado por una mano invisible.

Y el astrónomo Jamal N. Islam de la Universidad de Cambridge postula, con base en las teorías del físico teórico inglés Sthephen Hawking, dos posibilidades reales de extinción del Universo con base en la emergencia de agujeros negros masivos y de otros ultramicroscópicos, cuya acción le provocarán inevitablemente el colapso (“Big Crunch”) en unos 110 millardos de años (propuesta formulada por Tolman en 1934 ), para reiniciar el proceso por medio de otro “B.B.”

Esto lleva, a concluir que existen ciertas analogías entre la ciencia moderna que se está gestando en esas fechas y las creencias de la para - ciencia, o dicho en otra forma que, al destronar la física einsteniana y la física cuántica la clásica concepción del espacio y del tiempo de que “ los átomos son cosas”, y al mostrar como la materia se convierte en radiación y ésta en energía, aprovechando las sinuosidades caleidoscópicas del espacio-tiempo los conceptos de “absurdo” o de “racional” aplicados a las cosas pasan a ser relativos.Sin embargo, cabe señalar que las máquinas del tiempo-, ficciones científicas anteriores a los planteamientos de Einstein- y de los físicos cuánticos , si bien se formulan matemáticamente como artefactos aptos para ser construidos -invariablemente- al entrar en operación (en teoría) son destruidos por violentas fluctuaciones cuánticas, lo que resulta asombroso, ya que de aquí podría deducirse que la naturaleza se protegería - de esta manera - de la posibilidad de que una causa anteceda a su origen.


Propiedades de las Partículas.- Si nos alejamos de las aseveraciones científicas que caracterizan esta época, para penetrar el mundo de las partículas y subparticulas atómicas desde al ángulo estrictamente científico ,el resultado si bien evidencia la precisión en las mediciones, mostrará un lenguaje que no es fácil comprender si se carece de formación en física cuántica, y nos pone de frente a una realidad que ha cambiado enormemente desde los inicios del siglo XX , del que aparte de los especialistas,hay pocas personas interesadas en conocer, aunque sus ideas, sus hallazgos, sus experimentos, sus conclusiones , todo ello tenga que ver ni nada mas, ni nada menos con lo mas importante de nuestras vidas: ¿ Cómo nació el Universo en que vivimos?. Según se desprende se desprende de estos ejemplos sencillos que son apenas descripciones y que no llevan formulas aun mas difíciles de comprender para los neófitos :
a) La masa es una característica de la materia intercambiable con la energía, cuya unidad de medida (a nivel de partículas) se expresa en electrovoltios (la energía necesaria para movilizar un electrón a través de algún dispositivo eléctrico). Las partículas son inestables y aparentan poseer una característica de rotación sobre su eje (“spin”), rotando a velocidades que son múltiplos definidos, a partir de una base que se calcula estableciendo el momento angular de la partícula en rotación, como si fuese equivalente a la constante de Plank (fórmula 4 M M R-2/ST=H).
b) El Spin (o engin) de cada partícula está cuantificado (predeterminado); así el electrón gira a una velocidad de rotación de 10-22 revoluciones por segundo y se le asignó - arbitrariamente - el número cero, para que sirva de unidad, así al referirse a las partículas no se requiere su nombre , basta decir cual es su spin (0,1/2, 1, 2, etc.) porque cada partícula tiene una velocidad invariable en el tiempo.
c) Dependiendo del spin de cada partícula se les denomina “fermiones” (en homenaje al físico italiano Enrico Fermi), si su número es semi - entero (1/2, 3/2, 5/2, etc.) El protón, el electrón y muchas partículas muy masivas, y el neutrino (carente de masa) son fermiones. En cambio se denomina “bosones” (en homenaje al físico hindú S.M. Bose), a las partículas con spin entero (0, 1, 2, 3, etc.)
d) Cuando se desintegran fermiones o bosones las nuevas subpartículas obtenidas muestran características definidas: si tienen exceso de protones (respecto a los antiprotones) se les denomina “mesones” (del griego “intermediario”); si no tienen exceso de protones, se les denomina “bariones” (del griego “pesado”).
e) Las partículas (que son la mayoría) que se encuentran dentro del átomo le dan estabilidad por medio de fuerzas de interacción electromagnética llamada fuerte. A tales partículas se les denomina “hadrones” (del griego “fuerte”); a las escasas partículas que no participan se les denomina “leptones” (del griego “débil”) y son responsables de las fuerzas de interacción electromagnética débil. Los leptones se comportan en parejas y se les clasifica de 1ª, 2ª o 3ª generación.
e) La interacción entre partículas se lleva a cabo respetando procesos definidos conocidos como “leyes de conservación”. Entre estos se encuentran: el spin, conservación de la masa o la energía o la carga eléctrica. La carga eléctrica, a su vez obedece a reglas muy particulares que nada tienen que ver con el spin o la masa.
f) A la particularidad de la relación carga eléctrica con la masa o con el spin se la llama “simetría interna”; y tal simetría interna puede revestir tres características: es de naturaleza fundamental y universal (nada viola en la Naturaleza esas particularidades); o puede ser menos categórica, (no está prohibida pero si producen cambios son sumamente lentos); o bien se refiere a su período de vida (es inusualmente largo).
g) A las características que exhiben tales particularidades y otras que vienen a ser modificaciones del comportamiento “normal” se les asignan nombres sui - géneris: “extrañeza”, “encanto” , fondo”, “cima”, “belleza”, “verdad”. Estas particularidades (conocidas como cuánticas) representan un comportamiento peculiar inherente a cada partícula. El protón, por ejemplo se conoce por estas características que son su propio "carnet de identificación": carga eléctrica + 1, extrañeza 0, encanto 0, fondo 0, cima 0; se desintegra en un microsegundo produciendo un electrón, un neutrino, un antineutrino; y estas subpartículas de materia o de antimateria (su imagen vista en un espejo) se definen, a su vez por sus propias características cuánticas (esto es tienen también su propio "carnet de identificación").
h) Al producirse cientos de partículas elementales se planteó como problema si estas eran infinitas, hasta que se estableció la teoría de los quarks (gracias al trabajo del físico norteamericano Murray Gell - Mann) que dice que en realidad la materia está constituida por unas unidades elementales: quarks, que al combinarse entre si originan configuraciones particulares (electrones, protones, neutrinos, mesones, etc.).
i) Los últimos refinamientos de la teoría expresan que toda la materia (o la energía), es la forma de expresión de una mezcla variada de quarks (18 en total) y de antiquarks (también 18 en total), que se presentan - cada uno - en familias de tres; y a cada familia se le asigna un distintivo o código.
j) Por ejemplo el protón es la configuración característica de la combinación de: dos quarks v (que giran en un sentido) y de un quark d (que gira en sentido inverso), y por ello su spin es = 1/2 + 1/2 - 1/2 = 1/2 y su carga sería 2/3 + 2/3 - 1/3 = 1. Así la combinación de estos quarks es similar a los números cuánticos que difieren al protón (spin y carga eléctrica 1). En una teoría más reciente (denominada "cromodinámica") las características están definidas por colores.

Modelos Cosmológicos.- Pero así es como es necesario entender el comportamiento físico de las partículas, también lo es acercarse a la teorización que se aplica tanto al Universo en su conjunto como la que se refiere a particularidades especificas de un proceso comprendido en la evolución del Universo, para entender la génesis de un proceso que si bien se inicia con mucha sencillez y simplicidad va a llegar luego a complicarse aun mas en las décadas que siguen. Por tanto parece conveniente introducir a la altura de este análisis cuales son las ideas sobre la génesis y desarrollo del Universo que se han acumulado a finales de la década de los 70 . Cabe advertir que para no repetir ese proceso en otro capítulo posterior, aquí debemos incluir incluso algunos modelos cuya génesis se explica más adelante. Para facilitar al lector su ubicación hemos agrupado los modelos propuestos por sus características definitorias y la fecha de su postulación. Estos son :


A.1. Modelos Calientes “Standard”:
Primeros modelos elaborados antes y durante la época del “Gran Debate”, entre los partidarios del Big Bang (B.B.) y las Cosmologías del Estado Estacionario o de la Creación Continua.
1915 Universo de Einstein. Principio Cosmológico Perfecto (Sin expansión) .Estático .Finito 1917 Universo de Einstein-Sitter. Sin rotación. Transición. Estático.
1917 Universo de Harkin. Alta densidad y alta temperatura. Evolutivo.
1917 Universo de Sitter. Sin materia (Sólo espacio-tiempo). Estático.
1922 Universo de Friedmann. Constante +; o 0-. Espacio curvatura positiva (finito).
1922 Universo de Lemaitre. Expansivo. Explosión de Huevo Cósmico Primordial.
1929 Universo de Hubble. Recesión de galaxias. Expansivo.
1930, Universo de Eddington. Baja densidad (inestable). Expansivo
1931 Universo de Eddington-Lemaitre. Baja densidad inestable inicial. Se expande luego.
1931 Universo de Suzuki. Formación de elementos y abundancia relativa de unos. Expansivo.
1932 Universo de Tolman. Cíclico. Evolutivo.
1946 Universo de Gamow. Teoría del “Hylem” primordial. Isotópico inicial.
1947 Teoría de Jordan (relativista). Curvatura esférica espacial. Relatividad proyectiva
1952 Teoría de Basten .Cálculo tensorial no relativista. Crítica al Universo de Eddington.
1955 Zelmanov, Raychaudhuri. (Oscilatorio). Anisotropía y Rotaciones locales originadas en
1956 Heckmann / Schücking. Expansión -Contracción. Anisotropía y Rotaciones locales en un Universo estacionario.
1960/1970, Wheeler / Feyman. Rejuvenecimiento por entropía en la fase contráctil. Infinito Contráctil.

A.2. Modelos Calientes del Universo Muy Inicial:
Estos modelos se plantean a raíz de las diversas interpretaciones que surgen durante el Gran Debate. Todos estos modelos describen particularidades específicas del inicio del proceso del B. B. con diferencias de método de cálculo y de valores.
1948, Universo de Alpher, Bethe y Gamow (ABC); 1953, Universo de Alpher / Follin / Herman. Explicación de reacciones nucleares en el Universo inicial. Evolutivo.
1958, Universo de Feymann / Gell Mann. Comportamiento de neutrinos en la etapa de desacople. Evolutivo.
1962, Explicación de Dicke y otros. Remanente de 3° K de la explosión. Autocontenido.
1968, Universo de Hawking / Ellis. Sin problema de la “singularidad”. Autocontenido.
1970, Universo Hawking / Penrose. Sin problema de la “singularidad”. Autocontenido.
1972, Universo de Parker. Creación de partículas a la densidad de Plank. Autocontenido
1970, Universo de Zel'dovich / Novikow. Anisotropía inicial (sin problema de la “singularidad”).
1970, Teoría de Bachald / Frauschi. Creación de partículas a la densidad de Plank.(*)
1974, Universo de Bachall. Comportamiento de neutrinos en la etapa de desacople.(*)
1970, Universo de Hagerdorn. Estado de la materia en condiciones extremas.(*)
1971, Universo de Harrison. Creación de partículas a la densidad de Plank.(*)
1973, Universo de Zel'dovich / Starobinsky. Creación de partículas a la densidad de Plank.(*)

A.3. Modelos Calientes del Universo Inicial:
Pocos de estos modelos son completos; la mayoría enfatiza en aspectos específicos de la evolución del Universo.
1941, Spitzer / Gamow / Field. Problemas del plasma.
1949, Mayer / Teller / Pierls / Swigwi / Wroe. Comportamiento de nucleones como neutrones.
1950, Alpher / Herman. Densidad nucleónica.
1950, Hayaski. Equilibrio neutro-protón.
1953, Wagoner / Fowler / Hoyle. Número de leptones.
1956, Hayashi / Nishida. Alta densidad nucleica.
1958, Landau / Lisfshitz. Proporción de partículas (entropía).
1958, Pauli / Peebles. Fuerzas radioactivas.
1959, Fermi / Turkevich.
1961, Brans / Dicke / Greenstein. Síntesis de Helio/ Radiación remanente de fondo.
1964, Hoyle / Tayler. Abundancia de Helio.
1965, Smirnov.
1966, Hawking / Tayler / Thorne / Carswell. Los efectos de la anisotropía en la producción de elementos.
1967, Christensen / otros / Tayler / Wagoner. Tiempo libre para “decay” de neutrones.
1967, Doroshkevich / Zel'dovich / Movikow. Ausencia de homogeneidad a gran escala.
1967, Misner / Steward. Comportamiento de neutrinos según una aproximación de las teorías hidráulicas.
1967, Novihok / Zeldovich. Densidad nucleónica.
1967, Silk / Michie / Peebles / Field / Sato / Stewart / Weinberg. Enfasis en la era de radiación y desacople.
1968, Daurcourt / Wallis. Densidad nucleónica.
1968, Harrison. Densidad nucleónica.
1969, Field. Densidad nucleónica.
1969, Partridge. Comportamiento de partículas en etapa de desacople.
1969, Shatzman. Densidad nucleónica.
197, Steidman. Comportamiento de partículas en etapa de desacople.
1970, De Graaf. Comportamiento de partículas en etapa de desacople.
1970, Schuking / Spiegel / Weimberg. Viscosidad de las partículas.
1971, Black / Reeves / Wagoner. Cantidad de deuterio interestelar.
1971, Kündt. Comportamiento de partículas en etapa de desacople.
1971, Longair. Densidad nucleónica.
1971, Peebles. Valor de densidad de materia según parámetro de Hubble.
1971, Satu / Masuda / Takeda. Densidad nucleónica.
1971, Silk / Shapiro / Gisler / Harrison / Rees. Irregularidades de temperatura y abundancia de Helio.
1971, Weimberg. Comportamiento de partículas en etapa de desacople.
1972, Thadeus. Comportamiento de partículas en etapa de desacople.

A.4. Modelos Precursores del B. B.:
Estos planteamientos son de carácter intuitivo, siguiendo la lógica científica basada en teorizacion-observacion.
1760, Isaac Newton. De acuerdo con la Segunda Ley de la Gravedad cada estrella es atraída por las otras, de modo que parecía ilógico que no se movieran; de allí que dedujo que: “Un número finito de estrellas debían ser atraídas hacia un punto y juntarse; pero un número infinito no tendría tal comportamiento, por la carencia de un punto central hacia el cual fuesen atraídas y por tal razón no se movían.”.
1781, Imnanuel Kant. En la obra “Crítica de la Razón Pura” señala que: “Hay argumentos validos de igual valor para postular que el Universo tuvo un principio, que para postular que ha existido desde siempre”.
1856, Louis Boltzmann. De acuerdo con la Segunda Ley de la Termodinámica el total de desorden (entropía) aumenta con el tiempo; por lo tanto: “Se infiere que un Universo eterno debió haber llegado al máximo de entropía y todo debería estar a la misma temperatura; si así no sucede, por lo tanto el Universo es reciente.”

B. Modelos de Formación de Galaxias en Caliente:
Estos modelos no entran a considerar el problema del inicio del universo, sino exclusivamente el nacimiento y la evolución galáctica.
Bierman, 1950; Batchelor, 1950; Bierman/ Schülter, 1951; Sciama, 1953; Ebert, 1956; Bonnor, 1956; Mac Crea, 1958; Ozernoi/Chibisov, 1968, 1969 (Rev); Tomita y otros, 1970; Kawabata, 1969; Oort, 1970, 1970 (Rev); Chervin, 1970, 1972 (Rev); Brecher / Blumenthal, 1970; Kikara / Miyoshi, 1970; Ozernoi / Chibisov, 1971; Sato / Masuda / Takeda, 1971; Matsuda y otros, 1971; Peebles, 1971; Sato, 1971; Jones / Peebles, 1972; Silk / Ames, 1972; Stecher / Perget, 1972; Jones, 1973; Rees / Reinhardt, 1972; Harrison, 1973. La mayoría de estos trabajos se relacionan con movimientos de turbulencia en fluidos bajo el dominio de la radiación y se parte del principio que la turbulencia es homogénea e isotópica (aspecto que hasta 1974 no está bien estudiado)

C. Cosmogonías Modernas Completas:
En el lenguaje astronómico se consideran cosmogonías porque van más allá de los aspectos estrictamente científicos; o porque explica un proceso completo, sin solución de continuidad.
1969, Omnés. Se denomina Cosmogonía de Omnés porque es una explicación global que une materialmente todos los pasos del proceso evolutivo hasta la formación de galaxias. Su énfasis es estrictamente físico-matemático. Se considera muy útil como explicación; aunque los mecanismos propuestos para pasar de una fase a otra son muy complicados
1972, Charon. Se denomina “Teoría Unitaria” porque contempla todo el proceso de creación, desde el inicio, incluye la evolución y plantea un fin (énfasis filosófico/ científico). Sus características son: a) Conserva las 4 dimensiones espaciales; b) Es riemaniana. Es una mezcla de Cosmología / Cosmogonía que parte de 7 postulados diferentes o Principios: 1) Limitación del conocimiento; 2) Relatividad; 3) Simplicidad lógica de las leyes; 4) Conservación del impulso-energía; 5) Variación de acción estacionaria; 6) Cuantificación de la acción; 7) Cuantificación espacial; 8) Cosmológico; 9) Equipartición de la energía - materia - radiación

D. Modelos Cuánticos:
La unión de teorías de la física cuántica con teorías relativistas originan los modelos que buscan explicar el universo muy inicial; pero dando más énfasis a los aspectos cuánticos.
1900 a 1988, de Kaluza / Klein / Weiss / Zumino / Yang / Lee / Wucroning / Fitch / Witten. Trabajos para lograr la unificación de fuerzas G.U.T. (en inglés Grand Unification Theory). Esto origina los planteamientos de Simetría, Supersimetría, Supergravedad, Supercuerdas como nuevas nociones que, llevadas al campo de la Cosmología la han modificado substancialmente.
1978 en adelante, Andouze / Brut / Nanapoulos / Davies / Ya / Cronin / Linde / Zel'dovich/ Harrison / Gell-Man/ Sajarow / Yoshimura / Dicke / Rees / Longair. Teorizaciones para unir los planteamientos de la Física de Partículas con la Cosmología del “Very Early Universe”.
1979 en adelante, Guth / Albretch-Steinhard / Linde y otros. Teorías de Inflación y rupturas de simetría. Planteamientos pioneros desde el campo de la física de partículas que alimentan la cosmología a partir de los años 80 y crean primero la teoría, luego el modelo Inflacionista y después el Universo Inflacionista.
1980 a 1990, Hawking / Davies. Teoría del Todo (en inglés Theory of Everything), o TOE. Búsqueda de una Teoría del Todo o Superfuerza en reemplazo de los modelos de la unificación de fuerzas fundada en la idea de cuantificar la gravedad.

E. Cosmologías Inflacionistas:
Parten inicialmente del B. B.. Constituyen una síntesis de los planteos relativistas y los hallazgos de la física cuántica con un mecanismo que trata de explicar el “paso” de un Universo caótico a uno uniforme. La primera propuesta la hace Allan Guth en 1979. A partir de 1989, buscan escindirse del concepto B. B..
1919, Modelo de Kaluza. Teoriza un Universo con once dimensiones (Uncadimensional).
1926, Modelo de Kaluza/Klein. Inicio Teoría de cuerdas.
1972; Modelo de Tryon. Universo nace de fluctuación del vacío en una región de espacio-tiempo cerrada de baja temperatura. Incluye proceso de inflación. Universo con energía cero.
1978, Teorías de Witten y otros. Teoría de Supercuerdas.
1979, Modelo de Guth. Inflacionista / Ruptura de la simetría de los campos de Higgs (falso vacío)
1980, Modelo de Linden ; Inflacionista / Ruptura de la simetría de los campos de Higgs de forma no forzada (vacío verdadero).
1980, Modelo de Albretch - Steinhardt;. Inflacionista / Ruptura de la simetría de los campos de Higgs de forma no forzada (vacío verdadero).
1980, Universo de Wheeler; Hiperespacio / Universos paralelos
1981, Universo de Hawking. Creación mediante una función de onda mecánica cuántica Pluralidad de Mundos. Principio Antrópico /Superfuerza. Reducción de la entropía por evaporación de huecos negros primordiales. Creación mediante una función de onda mecánica cuántica. Busca de la cuantificación gravitacional.
1985, Modelo de Vilenkin. Universo nace de una fluctuación de la nada debido a la aparición de un par electrón - positrón que luego se aniquilan; o sea es la creación de un electrón de la nada que viaja por un instante de tiempo hacia adelante, luego hacia atrás y se encuentra con su propia creación. El proceso es reversible y así termina el Universo.
1985, Universo C.E.R.N.; Rubbia / Nanapoulos.

F. Cosmologías del Plasma:
Estas Cosmologías a partir de la segunda mitad de los años ochenta comienzan a tener más credibilidad por parte de los cosmólogos. Parten de la idea del B. B. y tienden a explicar que la materia y la antimateria se forman a baja temperatura y densidad por un proceso de colapso en una región dada, en que la presión desarrollada por la aniquilación convierte el colapso en un proceso de expansión. A partir de 1992 la consideración positiva hacia estas Cosmologías cambia por la nueva prueba encontrada a favor del modelo standard B. B.; pero luego a partir de 1996 se las vuelve a tomar en consideración.
1962, Alfven /Klein; 1965, Alfven; 1966, Klein; 1969, Alfven / Elvius; 1970, Defoeuw; 1992, Lerner. Aceptan el planteo inicial del Very Early Universe y el Early Universe; luego postulan: 1) Agregación de materia no por gravedad sino por corriente eléctrica (Ondas de Bikeland) actuando en plasma caliente; 2) Resto del proceso sigue modelo standard B. B.; 3) No aceptan expansión por confusión de conocimiento del espectro que confunde los datos cosmológicos con los estadísticos.

G. Cosmologías opuestas al B. B.:
Aunque para algunos efectos el modelo de la “Cosmogonía de Omnes” pero no en su totalidad y las Cosmologías del Plasma pueden aparecer como opuestas al B. B., ambas lo aceptaron como base inicial al ser postuladas. Más recientemente aparecen desvinculadas del B. B.. Las restantes Cosmologías que se reseña definitivamente no parten de esta base. Los modelos y teorías más destacados pueden ser tomados en consideración para buscar opciones al modelo B. B. durante la segunda mitad de los años 90:
1920, Universo Mixmaster de Kesner. Universo elipsoidal rota en tres ejes (2 perpendiculares expansivos y 1 en proceso de contracción).
1922, Universo Mix Master de Misner. Universo elipsoidal similar al modelo de Kesner, pero los tres ejes cambian (a veces en expansión, otras en contracción) Gobernado por funciones algorítmicas es muy complicado, pues las ecuaciones no son lineales, sino altamente caóticas.
1923, Universo de Layzer. Enfasis en aplicación local del Principio Cosmológico. Mantiene conceptos newtonianos.
1934, Teoría de Tolman. Parte de la idea de eliminar la singularidad y crea un universo cíclico que “salta” a la existencia-inexistencia.
1935, Universo de E. W. Milne. Basado en la cinemática de Newton. Expansivo.
1937, Modelo de PAN Dirac. Gravitación no es constante, sino variable y G sería mayor al principio del Universo que ahora.
Décadas 40/70, Cosmologías de la Fatiga de la Luz. Parten del principio intrínseco de desarrollar un nuevo concepto explicativo bajo el fundamento de que la luz se fatiga y enlentece en su viaje por el Universo y por lo tanto la expansión no existe.
1947, Idea de Jordan (comunicada a Gamow y éste a Einstein en 1943). Una estrella puede crearse de la “nada” pues en el punto cero su energía gravitacional negativa es numéricamente igual a su masa-energía positiva en reposo.
1948, Universo de Bondi / Gold. Estado Estacionario sin principio ni fin. Creación Continua de materia.
1948, Universo de Hoyle. Creación continua de materia.
1949, Universo de Göedel. Rotacional- No expansivo. Tiempo progresivo y regresivo. Cíclico.
1950, Teoría de Arp. Planteada por el astrónomo Arp se fundamenta en las anomalías en la medición del “corrimiento al rojo” de las galaxias no como resultado del efecto Doppler, sino de superposiciones galácticas diversas.
1952, Universo de Sciama. Parte de la idea de una teoría vectorial de la Inercia. No expansivo. Enfasis en la condensación galáctica.
1958, Universo de Mac Crea. Condensación gravitacional.
1960 a 1975, Cosmología de Omnés. Se fundamenta en el desarrollo de una teoría que explica el comportamiento galáctico. No parte de la explosión tipo B. B..
1960, Universo de Hoyle/Narlikar (Se considera una nueva versión de la Teoría del Estado Estacionario y la Creación Continua). Rechaza la expansión. Admite que el Universo se encoge, porque las masas de las partículas elementales están aumentando con el paso del tiempo, lo que incide en el enrojecimiento de la luz que se toma - por error - como una expansión del espacio.
1960, Universo de Opik. Oscilatorio; relativista; finito.
1961, Teoría de Brans / Dicke. Parte de la idea de P.A.N. Dirac, pero el cambio de la constante G se debe a otros factores y se ofrece como prueba la correlación de un sistema binario estrella-quásar para su medición.
1966, Modelos Empíricos NASA / Institutos de Teorizacion Universitaria de EUA. A partir de esta fecha es notable la tendencia a tener - cada vez - menor consideración por un modelo teórico y hacer planteamientos con base en una estrategia empirisista, que partir de datos comprobables por la experimentación.
1980, Cosmología del Plasma. Originalmente planteado por O. Klein; luego difundido por H. Alven. Formulado para explicar la condensación galáctica independientemente de si el nacimiento fue por B. B.;pero recientemente se presenta desligada del B. B. Parte del principio que las corrientes de Birkeland (que sirven de barreras electrostáticas entre zonas del Universo) moldearon el Universo primitivo (no la gravedad). Rechaza la expansión porque el efecto Dopler se confunde con el efecto Wolf. Explica la Paradoja de Olbers aduciendo que no todas las estrellas brillan o se capta su luminosidad en el espectro visible.
1981, Modelo de Hawking / Penrose / Ellis / Tarter. Parten de la idea de un inicio sin el problema de la singularidad. La demostración requiere la cuantización de la gravedad, así como la virtual existencia de una partícula fundamental única: el gravitino.
1988, Universo de Moffatt. Contráctil. Cíclico. Basado en la Teoría de la asimetría gravitacional. Más complicado que la Relatividad de Einstein.
1992, Universo de Israel. Universo cíclico iniciado con un cosmos ínfimo que luego se va convirtiendo progresivamente en universos más grandes.
1995, Universo Lafex (Laboratorio de Cosmología y Física Experimental / Brasil). Universo plano. El Big Bang es apenas un momento en la evolución (no el primer instante) Se fundamenta en la teoría de la gravitación combinada con el estudio de fotones.

H. Multiuniversos :
1982, Everret / Deutsh. Los estados cuánticos cuyas funciones de onda se congelan pueden presentarse no como probabilidades, sino como realidades en otros Universos. Vivimos en uno de esos universos del MULTIUNIVERSO.
1986, Guth. Estamos interconectados a un Multiuniverso en un espacio convergente de temperatura igual; luego cada Universo tiene sus propias características debido a sus propias leyes físicas.
1988, Linde. Estamos interconectados a un Multiuniverso en un espacio común.

I.-Nuevas Cosmologías:
A partir de los años 90 y hasta la actualidad se van postular otros modelos cosmológicos que serán descritos en los capítulos que siguen.

Al respecto señala el físico belga Jacques Chauveheid en una comunicación personal de 1982 :
“ Hay mucha especulación matemática y física en materia de formulación de modelos cosmologicos. Por ejemplo:
a) Requerimos saber más del famoso problema de la energía, a propósito del cual las teorías modernas están mudas, lo que no es de extrañar porque la definición de energía de la materia eléctricamente neutra es ligada a la teoría de la gravitación de Einstein (1915, Relatividad General).
b) Sin unificación buena con la relatividad general, las otras teorías físicas como la física cuántica, quedarían incompletas, por no decir otra cosa. En consecuencia actual de la falta de unificación satisfactoria de las teorías físicas, no se ha podido desarrollar modelos teóricos permitiendo el descubrimiento de nuevas fuentes energéticas, como a través de la fusión caliente o de otros procedimientos y el mundo actual sigue quemando hidrocarburos no renovables en motores a explosión.
c) Mi opinión es que Einstein tenía razón y que hay que integrar su teorías de la gravitación de la materia eléctricamente neutra (Einstein, 1915) con el electromagnetismo clásico (J.C. Maxwell, 1864) y, en una segunda etapa, estudiar la conexión de tal teoría con la física cuántica, simplemente incluyendo un campo escalario complejo (número imaginario - campo cuántico) de E. Schrödinger (ver ecuación de Schrödinger - 1962), guardando los mismos “couplings” (acoplamientos) entre materia y campos del vacío.
d) Esta integración no puede incluir el campo cuántico espinorial de Dirac. Este campo espinorial de Dirac es muy problemático porque mezcla soluciones de energía negativa (indeseables) con soluciones de energía positiva. También, los espinores son problemáticos en una ampliación de la relatividad general, porque no constituyen una representación del grupo de transformación de tal tipo de teoría; su inclusión conlleva entonces a complicaciones matemáticas que, no son físicas y han bloqueado todo progreso en el asunto.”

La propuesta de Chauveheid para un acoplamiento electromagnético cuadrático, basada sobre la Filosofía de la teoría de Einstein - Maxwell, cumple - según el mismo lo expresa - con este problema sencillo, con campos en forma explícita, como es el caso en la teoría de Einstein - Maxwell , una antigua tentativa incompleta de unir la teoría electromagnética de Maxwell a la relatividad general de Einstein.

Desd este punto de vista, su propuesta difiere de la mayoría de las tentativas de unificación de Einstein, y de otras que dan prioridad absoluta a la geometría. Su uso de la estructura de la torsión del espacio, dentro de partículas elementales, es solo debido a razones puramente físicas para introducir un acoplamiento electromagnético cuadrático con la materia masiva.
Las razones científicas en que se fundamenta son:
1.-Encontrar, en las ecuaciones de movimiento, los efectos relativistas del momento magnético de una partícula.
2.-Encontrar con un campo escalario (no espinorial!) los términos básicos del Hamiltoniano de Dirac en el caso del átomo de hidrógeno, tales como la energía de spin-órbita y los otros términos físicos conocidos experimentalmente.
Incluir las interacciones débiles y fuertes en esta nueva mecánica cuántica (ampliada).

Chauveheid explica que :

1.-“Puede parecer sorprendente que mi programa parece ser el único (a parte de las ideas de P. Dirac y del tal llamado programa de Einstein mal interpretado en la literatura) que cumple con el principio de correspondencia de N. Bohr, que hace obligatorio el desarrollo de la física clásica antes de cualquier propuesta cuántica (véase al respecto numerosas referencias de W. Heisenberg así como de los físicos cuánticos rusos ...)”.

2.-En lo que concierne a la cosmología, la masa gravitacional activa, la que da la fuente de gravitación, no es afectada. Pero el hecho que el electromagnetismo libre, dentro y fuera de la materia, no parezca tener inercia, daría una explicación de la “masa faltante”. En otras palabras, el principio de equivalencia entre masa y energía parece defectuoso. Ya se sabe que este “tabú” de la física no funciona para los fotones, que son también fuente de gravitación pero son conocidos como no teniendo inercia. La pregunta cabe porque una posibilidad tan sencilla, desde la vuelta dada a la física en 1927, físicos famosos han despreciado la física llamada clásica (ignorando el principio de correspondencia de Bohr) y solo la conocen por partes. De allí que los tratados de física clásica, aunque matemáticamente correctos, contienen errores físicos.

3.- Finalmente, la teoría no está caracterizada por la famosa invariancia de “gauge”, otro “tabu-dogma” del poder actual, por razones físicas obvias (mi posición esta en acuerdo con las ecuaciones de Schrödinger y Dirac que no respetan ese tabú injustificado).

En otros capítulos que revisan el estado de los modelos cosmológicos actuales (a partir de los años 2000 al 2007 ) asistiremos a una eclosión francamente anárquica, de planteos que muestra la exhuberancia de pensamiento teórico por la que atraviesa la cosmología, pero que deberá ser constreñida a lo que se encuentre por medio de la experimentación y la observación que han ganado gran campo en estas últimas décadas.

3.- LA CREACIÓN DE IDEAS CULTURALES

La cosmología como ciencia-punto que algunos discuten si es factible considerarla tal y no una mera colección de ideas extrapoladas de diversas disciplinas sacadas de la astronomía , es como cualesquier disciplina humana un producto del pensamiento y por ello sujeto a la cultura, por más que los cosmólogos traten de negarlo. Como la cultura, es a su vez una consecuencia que por una parte precondiciona el quehacer humano y por la otra se presenta como si fuese su resultado, conviene revisar que papel se le asigna en estas épocas a ese fenómeno que nos distingue de otras especies.

Como la cultura determina el tamaño, la densidad y las tasas de reproducción humana, estos fenómenos experimentan a su vez, y en gran manera, la influencia de la cultura al ir encuadrando progresivamente en sus circunstancias de ambientación; y esto sucede siempre, ora crezca la población o disminuya, o se estabilice o emigre. Dado que la variabilidad genética que solemos expresar ahora en términos de frecuencia genética se determina en gran parte por las características ecológicas de la población humana, igualmente puede explicarse por las diferencias culturales.
A esta conclusión se irá arribando en la década de los 70 por parte de la antropología que estudia las variaciones genéticas, para terminar haciendo una conclusión revolucionaria : esas variaciones son la resultante de la variabilidad cultural y no lo contrario como se suponía comúnmente. Por tanto: hay varios factores que condicionan el entorno que produce elucubraciones de distinta índole, incluyendo, por supuesto a los planteos cosmológicos. Estos factores , que no podemos obviar son analizados en el claustro de nuestras universidades por académicos fuertemente influenciados por la sociología marxista que enseñan, con ciertas variaciones de forma , la existencia de este fondo :

1.- El entorno - físico biosférico es nuestra realidad externa colectiva, y establece mediante el comportamiento biohistórico, individual y social nuestra realidad interna en contrapartida individual al entorno como unidad cosmológica. La realidad permite posibilidades suficientes para el desarrollo y la evolución, y si se dan limitaciones sobre nuestras existencias, estas dependen más bien de la actitud social del ser humano.
2.- Para el entorno físico biológico, se hacen posibles en nuestra biohistoria y en nuestra historia cultural, la continua evolución hacia nuevos niveles de vida, calidad de vida y consciencia del entorno y del si mismo o por el contrario; hacia un retroceso, reducción, regresión y decadencia que puede llevarnos hasta la desaparición como especie.
3.- El potencial de la vida y su evolución ha estado presente en este entorno vital y generoso, que fue capaz de dar lugar a todos los intentos exitosos de vida generacional y biodiversa y al desarrollo de lo que denominamos como conocimiento e inteligencia. Procesos como parte de la acción de la vida para neutralizar la entropía.
4.-Las leyes de la existencia en nuestro entorno no son tan simples como las que fueron explicadas por el social - darwinismo, tampoco son las otras, dogmáticas, planteadas por el viejo testamento judío; con jerarquías, premios y castigos.
5.- En su desarrollo evolutivo, el ser humano ha sido dotado de una excelente herramienta para sus estrategias de supervivencia: la capacidad del conocimiento. Esta capacidad inteligente de raciocinio, deducción inducción, análisis y síntesis, ha sido y es sin embargo entrenada y utilizada como herramienta subalterna, dependiente, sometida o esclavizada a las conformaciones jerárquicas o al abuso del "privilegio" de carácter social - económico.
6.- Este proceso de sometimiento, iniciado por el dogmatismo de las ideas religiosas y consolidado por ajustes políticos han dado lugar a una adecuación y acomodación a las rutinas y al entrenamiento normativo-mecánico de cada ser humano. Esta es una acción delimitante que ha reducido la capacidad de consciencia de cada cual, en su obligatoria integración a la sociedad "desarrollada" de hoy.

Consecuencias derivadas.- Esta visión fuertemente influida por la visión de la teoría de la acumulación de corte marxista , prácticamente no tiene, para esas épocas ninguna otra escuela que analice con tanta rigurosidad la consecuencia social de la acumulación y por ello se enseña a las generaciones de esa época que :
a) En razón de la existencia de las condicionantes mencionadas, se fueron conformando sociedades estructuradas bajo la regulación y el control material de los recursos, en manos de aquellos, que en su compulsión y traumas de acumulación, menos entendían del sentido, el valor y las perspectivas reales que el recurso natural tenia para la existencia, el desarrollo equilibrado y la evolución del ser humano y las de otras especies.
b) La estructuración social jerárquica e injusta fue posible porque nuestro mundo mental fue entrenado para la cronología mecánica, la realidad externa reducida y la vida explicada como intervalos de tiempo mecánicos y espacios reducidos específicos bajo los parámetros de lo aprendido en masa.
c) Fuimos entrenados para obedecer a lo establecido por un medio reductor y no a lo por conocer integralmente e infinitamente en la cosmología natural. Este proceso no permite renovar sino, continuamente vuelve a legitimar la existencia de bases normativas, en una especie de coraza muerta que funciona por la fuerza mediante todo el sistema establecido y el aparato del estado a su servicio.
d) Por ello, sociedades y paradigmas van juntos y caracterizan el desarrollo social o individual patológico y artificial. Van conformando una serie de periodos normales donde el crecimiento, la crisis o la degradación de los individuos y sus estructuras sociales se hacen inevitables en sus circuitos de caja negra. Por lo anterior se hizo y se hace posible la constitución y el desarrollo de la "economía de la competencia"; motivadora del auge y caída de los paradigmas en dirección inversa a la verdadera evolución del ser humano.

Estructrura Social Resultante.- Formamos estados, ciudades y conglomerados físico energéticos de artificio (sistemas artificiales) sobre nuestro nicho natural. Todos esos conglomerados físicos son una "expresión cultural" del ser humano para organizarse en grupos o manadas. La llamamos "cultura" por el simple hecho de manifestarnos en forma organizada, metódica, pero también repetitiva y maquinalmente en torno a esos fines básicos y normativos.
Al desear vernos por encima de las otras especies, vernos mas "evolucionados", acostumbramos a mostrar los progresos de nuestra infraestructura de artificios y a explicar nuestra realidad en forma más fragmentada; hablamos entonces de acuerdo a teorías sociológicas, psicológicas, técnicas o económicas como explicaciones de nuestro carácter racional y civilizado.

La consecuencia.- Pero la vida no puede ser simplemente explicada mediante el desarrollo técnico, material o acumulativo del ser humano. El aspecto fundamental de la causa de vivir debe de estar en el intento continuo por evolucionar, en la constante experiencia de entender nuevas condiciones trascendentales, en la constante consonancia o armonía con el Cosmos frente al Caos (o el de la energía de la vida frente a la entropía). Incluso bajo las actuales definiciones sobre desarrollo, vemos, que evolucionar no es desarrollar, con frecuencia es todo lo contrario; significa depauperar.
Por lo anterior se puede señalar tres principios, como referencia a un ordenamiento de relación entre el desarrollo natural y el cultural:
a) El aspecto biohistórico de los pueblos fue y es más importante que los de carácter cultural- político. (Evolución frente a simple formación cultural.)
Aspectos étnicos, raciales y de hábitat geográfico, han sido hasta hoy muy influyentes en la conformación de los sistemas sociales. Cada institución social dominante, en una especie de imperialismo, impone su etnocentrismo sobre el resto, en un orden jerárquico peor que el animal: El ciudadano romano se consideraba el único descendiente civilizado, "con méritos divinos". La religión judía consideraba y considera los judíos como los únicos herederos del planeta. El anglosajón, durante su asentamiento sobre América y hoy también un conglomerado económico de carácter etnocéntrico dirigido por USA, legitima su derecho a juzgar y castigar, como cabeza hegemónica del sistema occidental, al resto del mundo.
b) Toda nuestra acción y reacción en el medio en el que vivimos y desarrollamos nuestra diaria existencia esta motivada por la estrategia natural o cultural por sobrevivir y después no mucho más. Pero al mismo tiempo existe una potencial posibilidad de evolucionar, proceso más complejo, más consciente que normalmente tiene otros parámetros muy diferentes al fenómeno de acumular materialmente.
c) Todas las estructuras sociales de hoy, cuando hablamos del denominado "homo sapiens" son estructuras de enorme peso físico, bajo el sentido de continua acumulación material e instrumentada al crecimiento extensivo de lo material.
Las estructuras sociales que más acumulan, polarizando y desequilibrando todo nicho natural, en su gigantismo se ven así mismas y normalmente como sistemas avanzados o desarrollados. Allí se acostumbra definir los parámetros normativos para el resto de otras estructuras menos "desarrolladas". Términos como industrialización, democracia, libertad, Gobierno, Estado, trabajo, orden, propiedad y progreso son utilizados, al margen de sus contenidos esenciales, como el núcleo de la justificación de esas estructuras que en realidad son compulsivas y finalmente se hacen de carácter hegemónico.
d) El proceso de conformación jerárquica, de todas las estructuras sociales que hasta hoy han conformado la historia de la humanidad en sus expresiones de civilización, demuestra una similitud fundamental, cada cual ha tenido su nacimiento, auge, decadencia y caída en busca del mismo objetivo: la acumulación material. Un proceso que no parece haber despertado la suficiente curiosidad por saber a que se deben esos "repetido fracasos históricos" de sostenibilidad y de carácter psicológico social.
e) La respuesta más probable está, en que todo sistema tiende a ahogarse en su propia e innecesaria acumulación. Las especies vivas más vitales y resistentes son las que han sabido acrecentar sus vivencias en medios difíciles pero solidarios y no lo contrario. Esto podría dar una explicación más clara al teorema doctrinario de Cristo: "Será más fácil que un camello pase por el ojo de una aguja que el rico llegue al reino de los cielos".
f) La cosmología de lo conseguido dentro de lo que llamamos vida, puede ser observada como un proceso de evolución mediante el esfuerzo continuo, ya que, es más fácil dejarse llevar por la inercia, decaer y corromperse acumulando peso muerto, (proceso de entropía) que enfrentar el continuo desafío de elevar la vivencia continua, "como una luz": esa que implica una dinámica constante de esfuerzo voluntario y consciente, nacido como fuente original del individuo pensante en busca de algo más, no expresado en moneda, ni bienes materiales.
g) Tampoco podrá existir contradicción, si decimos que las enormes placentas artificiales de concreto armado, hierro, cemento, asfalto, petróleo, gases, electricidad y energía atómica, funcionando bajo normas, leyes y reglamentación, en sus condiciones de protección artificial del sistema social moderno, devuelven al humano a su estado fetal: Encerrado en su placenta artificial el " humano" se somete a un lento pero definitivo retroceso, es una cosa viva encerrada en sus mecanismos.
h) Pero, es sobre todo la especulación en torno a los recursos junto el uso de la violencia directa, indirecta, estructural y organizada, convertida en estado normal de acción, el que degrada al ser humano que encerrado en los diferentes habitáculos de su sistema cerrado, pasa a ser algo parecido al animal de un zoológico, o el ente domestico de una granja automatizada. Un ser domesticado y alimentado en un completo mundo artificio.
i) El ente de las metrópolis de cualquier país se aliena a su mundo determinista, mecánico, normativo, reducido, utilitario, y bajo el sistema económico y a sus mecanismos alienantes, limita su mundo mental al dedicarse a su vida de artificios.
j) Se ha observado anteriormente que toda sociedad gobernada por alguien, justifica y legitima su existencia mediante la necesidad de cautelar los derechos y las obligaciones de sus miembros. Esto significa que sus miembros, no están maduros o no tienen aun desarrollado su sentido común y por ello necesitan de un poder, externo compulsivo y ajeno a la decisión individual y de libre albedrío para el cual somos educados.
k) Pero esta justificación de legitimidad no seria aceptada ni en una manada de monos, sin embargo, es así como las llamadas civilizaciones humanas han conformado hasta hoy diferentes estructuras sociales gobernadas y dirigidas a explotar los recursos naturales, que, para peor, en su conversión a materiales inertes o de conserva, son evaluados por encima de las existencias individuales (como facultad de consciencia, vida, y de dar vida) y por encima de la condición biológica en su constante necesidad de evolución.

Cualquier lector atento puede-fácilmente- darse cuenta de que esta sociología entra de lleno en la llamada Teología de la Liberación que se enfrenta a la Teología Oficial de la Iglesia. No nos interesa seguir los meandros del enfrentamiento, tampoco las soluciones alcanzadas, pero definitivamente que la postura y el lenguaje son tan academicistas que no logran permear a quien supuestamente están dirigidas: las masas. Como resultante tenemos que a la larga todo este discurso queda en nada , aunque muchos de los planteamientos son válidos , aunque no lo sea el lenguaje utilizado. Buena parte del diagnostico-aunque sesgado por una ideología- es válido y los problemas enunciados en estas épocas subsisten . pese a que en los documentos eclesiales de Puebla y Medellín Pablo VI había admonizado a los detentores del poder con una fuerte frase que recuerdo : “ Quitaos los anillos de las manos, antes de que os corten los dedos”. Ese mismo reclamo lo harían los teólogos de la Liberación a los altos jerarcas de la iglesias. Y como se afirma que el hombre es el único animal que suele tropezarse dos veces en la misma piedra la situación diagnosticada en los párrafos precedentes sigue exactamente igual.

Explicación de las Variantes Culturales.- Durante mucho tiempo dentro de las definiciones debidas a las ciencias sociales acerca de que es lo que explica la cultura y dentro de ella las ideas que origina tanto en el campo de las ideas científicas, como religiosas ha privado la idea de que los aspectos biológicos son los grandes determinantes de las actuaciones y acciones de orden cultural. Esto es ,que la cultura estaría –en un todo, determinada por la herencia- sin embargo, para la década de los 70, comienza a tomar forma una nueva concepción que obliga a pensar en términos diferentes.
Es la cultura la que determina el comportamiento genético. La investigación genética aplicada a las poblaciones modernas busca explicar las diferencias de frecuencia observadas en los genes en función de factores capaces de modificarlas. (mutación, selección natural, afluencia y aberración de genes). Se trata de dar cuerpo a una teoría amplia capaz de dar razón de todas las frecuencias geneticas ( por supuesto que las cantidades precisas en que concurren estos factores que controlan las frecuencias no puedan saberse en los casos concretos referidos a un gene en particular),pero si es fácilmente discernible que todos los genes cambian, aberran, afluyen y tienen capacidad de asociación con sus diversos genotipos dentro de un medio natural determinado.

De aquí que las diferencias en la frecuencia de cualquier gene puedan explicarse por medio de estos factores generales. De este modo, el problema se convierte en hallar con certeza la forma como la cultura puede influir sobre estos factores generales para determinar en gran parte las variantes genéticas de la especie humana. Esta revolución en el pensamiento antropológico la explica de manera muy suscinta el antropólogo de la Universidad de Michigan Frank B. Levingstone , acudiendo a razones que hemos agrupado en diez categorías definitorias:
1.- La propia evolución de la cultura ha sido juzgada como consecuencia de la biología peculiar constitutiva del Homo Sapiens. Así, por ejemplo, la explicación ordinaria del desarrollo de culturas primitivas en el superior paleolítico y del arte de ese mismo período, señala el "infatigable instinto creador" del Homo Sapiens como su causa. Este criterio -que pone al hombre como causa de la cultura y, por ende, precursor de la misma-, ha llevado al desconocimiento de casi todas las poblaciones fósiles y bien definidas que se han podido descubrir de los homínidos, por la consideración de que semejantes brutos jamás habrían podido tener el cerebro y la capacidad intelectual para la creación de una cultura. Más recientemente, la posición que está ganando adeptos es justamente la contraria: hoy en día se considera que la cultura y las herramientas son las responsables del desarrollo evolutivo del hombre.
2.- Durante el Paleolítico Superior se le atribuye a la cultura primitiva el haber sido causa de la aparición del "Homo Sapiens"; y no al "Homo Sapiens" la producción de las primeras culturas. Este enfoque se compagina mejor con nuestros conceptos más nuevos acerca del curso de la evolución biológica humana y del papel que juega la selección natural en este curso. La constitución genética del hombre, trátese de su cerebro, de sus músculos o de su sangre, es un producto de la selección natural; y esta selección natural, a su vez, es una consecuencia de su medio ambiente y costumbres, todo lo cual viene a ser lo que se denomina ecología cultural. De aquí que los genes humanos sean el resultado de la cultura. Al igual que el resto de los animales, el hombre es lo que él hace y puesto que durante los últimos millares de años se ha ocupado en hacer cosas culturales e intelectuales, ahora se encuentra capacitado para hacerlas con destreza.
3.- Se ha argumentado que el desarrollo de un sistema de vida basado en la caza, aun realizada esta en un nivel muy rudimentario, impuso por fuerza una nueva serie de requerimientos en las poblaciones humanas arcaicas. Dio origen a una alteración muy marcada de los estimulantes selectivos y fue responsable de hecho, de transformaciones muy profundas en la biología humana y en la cultura. Muchos estudiosos de la materia consideran esta adaptación como un factor crítico en el surgimiento de las instituciones humanas fundamentales. algunos de estos cambios que tipifican el género humano de vivir (Homo) son los siguientes: a) ampliación muy notoria de la sede o campamento, y sistema defensivo de los límites territoriales con objeto de prevenir rapacerías de los comestibles; b) organización colectiva de grupos humanos afiliados a interdependientes con un número variable, aunque relativamente corto, de componentes; c) expansión de los grupos familiares con relaciones perdurables entre los machos y las hembras, prohibición del incesto, reglas exogámicas para el apareamiento y subgrupos formados por parentesco político; d) división del trabajo en función del sexo; e) comportamiento altruista capaz de compartir alimento, de ayuda y cooperación recíproca; finalmente, f) existencia de comunidades con base en la comunicación verbal.
4.- Durante el último medio siglo, poco más o menos, la solución que predominó para resolver el problema del origen de la cultura fue lo que pudiera llamarse la teoría del "punto crítico". Esta denominación de Alfred Kroeber, el decano de la antropología en los Estados Unidos, contiene la idea -ya adelantada por Theilhard de Chardin- de que la capacidad para la adquisición de la cultura consistió en un "salto único y completo", realizado de una vez por todas, en la evolución filogenética de los primates. En un momento determinado de la historia de los homínidos -es decir, del curso de humanización de una especie de ellos- se verificó una alteración orgánica portentosa pero que, a pesar de todo, no podía considerarse de mayor importancia desde un punto de vista genético o anatómico. Dicha alteración, localizable muy probablemente en la estructura cortical, daba la facultad a un animal, cuyos progenitores no la habían tenido, de "entablar comunicación, aprender y enseñar, abstraer un significado general de la serie innumerable de percepciones y sensaciones concretas".
5.- Existían tres razones capitales sobre las que se apoyaba esta creencia generalmente compartida. La primera es relativa a ese enorme vacío tan notable entre las capacidades mentales del hombre y sus parientes vivos más próximos: los grandes monos. El hombre puede hablar, puede abstraer el significado de muchas cosas concretas y separadas, puede fabricar herramientas de servicio; ningún otro animal contemporáneo ha llegado a aproximarse siquiera a semejantes logros.
6.- La segunda de las razones aludidas consiste en el hecho de que el lenguaje, la captación de las ideas y la formulación de los conceptos da la impresión de ser, desde un punto de vista meramente lógico, algo que existe o no existe, sin admitir posibilidades intermedias. Se es capaz de hablar o no se es capaz, se posee la habilidad para construir herramientas o no se posee, se puede concebir lo sobrenatural o no se puede. Las semirreligiones son tan inconcebibles como los semilenguajes o las semihabilidades. El procedimiento esencial que las hace posibles, es decir, la modificación de la realidad al concebirla arbitrariamente dentro de una estructura que le da un significado simbólico, es una actividad que no puede lograrse solo en un grado relativo. El tránsito desde una simple actividad refleja a través de reacciones específicas y de interrelaciones complejas de signos hasta el pensamiento abstracto, se realiza por etapas específicamente distintas y no solo por una que pudieran existir estadios intermedios entre la percepción de la relación natural que existe entre los nubarrones y la lluvia y la otra relación arbitraria que la mente forja ligando los nubarrones al sentimiento de desesperanza.
7.- La tercera de las razones nacía del otro problema. más delicado, al que nos referimos habitualmente con la expresión: "la racionalidad es común a todos los hombres". Esta proposición está vinculada con la otra -a la que ningún antropólogo reconocido podría oponerse-, que afirma la existencia de diferenciaciones importantes en el proceso que siguen para pensar los hombres de todas las razas de la tierra. Si se admite que la cultura surgió en plena floración en un instante determinado antes de que se diferenciaran entre sí las razas humanas, entonces, la posición de la racionalidad universal puede justificarse.
8.- Por consiguiente, más bien parece que en el australopiteco podemos encontrar cierto tipo de "hombre" evidentemente capaz de forjar algunos elementos de cultura: la habilidad para fabricar herramientas simples, para cazar esporádicamente y, tal vez, hasta para comunicarse de alguna manera más avanzada que la de los monos actuales, pero sin llegar aún al verdadero lenguaje. Esta serie de habilidades con su límite bien preciso que vemos en el australopiteco arrojan bastante sombra sobre la teoría del punto crítico. Lo que en un principio se suponía totalmente improbable y aun imposible desde un punto de vista racional ahora constituye un hecho probado empíricamente: la capacidad del hombre para hacerse a una cultura fue naciendo gradual pero continua, paso a paso y por un período bastante prolongado de tiempo...como el hombre mismo.
9.-Pero existen otras cosas que vienen a complicar la situación todavía más. En el supuesto de que el australopiteco haya poseído una forma elemental de cultura (que se ha denominado "proto-cultura") a la que pudo llegar teniendo un cerebro cuyo volumen era un tercio del hombre moderno, llegamos a la conclusión de que casi todo el crecimiento de la membrana cortical del hombre ha seguido a la "aparición" de la cultura en vez de haberla precedido. La teoría del punto crítico sostenía que el hombre estaba ya más o menos completo, desde un punto de vista neurológico por lo menos, en el momento en que comenzó el desarrollo cultural y que esto tuvo que ser así por fuerza, ya que la capacidad biológica para adquirir la cultura era algo que se daba íntegramente o no se daba en absoluto.
10.- Una vez que se llegaba a dicha capacidad se contaba con ella plenamente y a continuación sólo existía una mera incrementación a base de nuevas costumbres adquiridas o del progreso de las ya existentes. La evolución orgánica alcanzó un nivel determinado y una vez allí, en el cruce del "Rubicón Cerebral", se vio reemplazada por la evolución cultural, un proceso que fue en sí mismo autónomo y sin estar sujeto a cambios ulteriores del sistema nerviosos ni para subsistir ni para estimular dichos cambios. El hecho de que las cosas no parezcan haber sucedido así, sino que, en realidad, el desarrollo cultural se haya iniciado desde mucho antes de terminar el desarrollo orgánico, resulta de primordial importancia dentro de nuestra concepción de la naturaleza del hombre. El hombre se transforma no solamente en el forjador de la cultura sino también, en un sentido específicamente biológico, en un producto de ella.

Puede concluirse que como resultado de estas circunstancias ,durante las fases postreras de la evolución del animal humano, sus instintos selectivos fueron modificándose por la presión derivada de las fases iniciales del desarrollo cultural humano; no únicamente por los factores del medio ambiente natural.
En consecuencia:
a) el hábito de servirse de herramientas, por ejemplo, da por resultado un aumento de la destreza manual a la vez que del entendimiento práctico.
b) en un conglomerado de australopitecos podríamos suponer que los individuos mejor provistos de las cualidades mencionadas estaban en condiciones de tener un instinto selectivo superior al del resto de sus congéneres menos bien dotados.
c) La caza habitual de pequeños animales empleando armas primitivas supone, entre otras cosas, una gran paciencia y perseverancia.
d) El individuo que poseyera estas virtudes austeras en un grado más alto podía valerse mejor que otro de índole voluble.

"Todas estas habilidades tan diversas, técnicas, aptitudes, o como quiera llamárseles, están sujetas a su vez al desarrollo indudable del sistema nervioso. Así tenemos que la implantación del hábito de fabricar herramientas para la cacería debió ejercer un influjo reajustador del instinto selectivo y vino a propiciar el rápido crecimiento de los lóbulos cerebrales frontales, efecto al que también contribuyeron, a no dudar, los adelantos en la organización social, en la comunicación recíproca y en las normas morales y por ende de las prácticas religiosas cuya instauración bien puede pensarse que ocurrió durante este período de interpolación de transformaciones culturales y biológicas".

Cultura y Religión.- Al igual que la nueva concepción antropológico-genética de que la cultura hace al ser humano y por tanto no hay un fijismo genético que predetermina el comportamiento, las ideas, los valores y las creencias ,una consecuencia inevitable de la desacralización de la creencia de que el Universo es un acto de creación de Dios, tal y como lo enseñan las religiones, así como del abandono de la imaginería ingenua en que se fundamentan los mitos creacionistas y cosmogónicos, se ve acompañado también por el nacimiento de una nueva actitud de parte de los estudiosos de las ciencias sociales y las ciencias del comportamiento para tratar con criterio científico las manifestaciones culturales y por tanto las creencias religiosas.

El estudio científico de la religión pretende explicar las similitudes y las diferencias que se observan en las ideas y en el comportamiento religiosos. A raíz de la venida de los europeos al continente asiático y al continente americano, pudieron circular noticias de que habían encontrado "religiones primitivas y exóticas" que parecían ser muy diversas entre sí y el fanatismo llevó a destruir documentos y costumbres si bien diferentes, no por ello "exóticas". Sin embargo, un examen ulterior permitió ver que en la esfera religiosa, al igual que en las demás esferas de la vida humana, los hombres tenían mucho en común.

El análisis objetivo condujo muy pronto a la conclusión de que todas las razas y pueblos vivientes se parecen suficientemente en sus rasgos biológicos heredados, al grado de que no hace falta recurrir a diferencias raciales si se quieren explicar diferencias culturales. Las similitudes que se encuentran en las religiones humanas reflejan parcialmente, por supuesto, la uniformidad esencial de la naturaleza humana. No obstante, la comprensión de la variantes religiosas pareció depender en un principio del examen de factores extrínsecos al organismos humano; es decir, de circunstancias análogas y diversas de la vida humana capaces de influir en sus creencias y prácticas religiosas y aunque los estudiosos académicos han modificado notablemente durante el siglo pasado su juicio acerca de los problemas religiosos verdaderamente dignos de investigación, las ideas anteriormente expuestas mantienen su vigencia.

El análisis de la religión emprendido en el siglo XIX se preocupaba profundamente acerca del origen y de la evolución de las religiones. Como se consideraba la religión como una manera de interpretar el Universo y de adaptarse en él, se trataba de configurar imaginativamente los factores causales de las similitudes observables en todas las religiones. Todas estaban imbuidas de sobrenaturalismo ideológico y activo: todas creían en la existencia de almas, de seres espirituales y de una vida posterior ultraterrestre.

Muy a menudo, la concepción religiosa incluía creencias en entes sobrenaturales maléficos o benignos, en prácticas de magia y en ceremonias cuya finalidad era propiciar o impedir el influjo de los espíritus en situaciones críticas.

En lo que se refiere al origen de la religión y de su posterior evolución hasta culminar en el monoteísmo se propusieron varias teorías que han sido mencionadas en el capítulo anterior, pero durante la década de los 60 y 70, se comienzan a descartar estas teorías y otras más antiguas que versaban sobre el origen de la religión y su evolución hasta el monoteísmo al punto dejó de atraer a los estudiosos. Se ha dejado de conceder a las teorías que explicaban la religión, otro valor que el de especulaciones razonables, pues se piensa comúnmente que los datos positivos necesarios para una comprobación están fuera de alcance de la ciencia". Sin embargo y a pesar de haber sido descartadas, estas teorías produjeron otros frutos.

Por tales razones el antropólogo norteamericano Edward Morbeck, catedrático de la Universidad de Rice nos ubica en las nuevas coordinadas en que se considera a las religiones en los claustros académicos y luego de que veinte especialistas intercambiaron criterios y se reunieron en las Universidades de Chicago y Berkeley para tratar el tema, sus principales conclusiones fueron estas:
1) Coincidieron en ver la religión como un medio de interpretar el Universo y de ajustarse a él, criterio que se mantiene aún. También se la juzgó como un factor para promover la solidaridad social y la continuidad mediante creencias y actos donde todos participaban; asimismo, como un sostén de los códigos morales y de otros valores de la sociedad. No dejaron tampoco de encarecer la ayuda sicológica que los individuos experimentan en la religión. Los estudiosos de la época moderna se suscribieron a las consideraciones antedichas y les dieron su actual acabado y elaboración.
2) Desde un punto de vista estrictamente científico, los nuevos enfoques de las ciencias sociales coinciden en considerar las creencias sobrenaturales como hechuras humanas, expresiones de sus esperanzas o de su temor. Concebidas así la ansiedad y la ilusión humanas, es posible entenderlas. Los seres sobrenaturales y los sistemas teológicos en su totalidad pasan a ser expresiones mentales que el hombre da a las cosas del Universo, capaces de moldear su vida de modo importante. En cuanto manifestación de la experiencia social, las teologías nacen preparadas por su propio hábitat, por los recursos económicos para vivir, por la estructuración de las capas sociales y por la cultura integral.
3) Los estudiosos de la religión no se preocupan ahora por dilucidar si las creencias religiosas tienen validez científica. Es evidente que las elaboraciones mentales no requieren de una existencia "real" en el mundo exterior para tener efectos importantes. El objetivo principal de este nuevo giro ha sido comprender mejor las funciones que tiene la religión en la vida humana, la relación que guarda con los demás elementos culturales y su curso de crecimiento y de transformación. Con esta mira, han pasado al margen de la teología para estudiar los fenómenos religiosos positivos: la identidad de los participantes, sus relaciones sociales, qué hacen y cuándo lo hacen.
4) En concreto, los investigadores han tratado de deducir cuáles son los efectos inintencionales de los actos religiosos y que, ordinariamente, no están al alcance consciente de los participantes. Para los participantes, por ejemplo, la finalidad del rito puede ser simplemente rendir culto a un dios en virtud de que se le atribuye que tiene poder sobre los hombres y que exige propiciación. Pero, inconscientemente, se logran otros efectos como son la articulación de la sociedad mediante actos colectivos y creencias comunes, la estimulación de una vida social armónica por la guarda de preceptos morales que se juzgan mandamientos del dios, la seguridad sicológica que arraiga en los individuos al saber que cuentan con la ayuda divina.
5) Ahora se examina la religión dentro del contexto integral de la cultura, no como un elemento que puede extraerse de su matriz cultural para observarse aisladamente. Contrastando con los teólogos que se concentran en el dogma, los estudiosos de las ciencias sociales consideran la religión como un sistema de interacción social capaz de ejercer gran influencia sobre el destino humano. En consecuencia, se ha dedicado mucha atención al análisis de los actos religiosos. Se optó por este proceder pensando que el influjo de la religión puede comprenderse en gran parte cuando se observan cosas como la identidad de los participantes en las ceremonias y las relaciones entre los grupos sociales y entre los individuos que intervienen en ellas, el significado de los ritos y las situaciones en que se celebran.
6) El examen de estos fenómenos ha dado inteligibilidad a muchos otros entre los que podemos enumerar la brujería, los ritos de transición a otro género de vida, los relativos a la agricultura, a los azares económicos y, finalmente, los que sirven para manifestar conflicto de intereses. Se han puesto los comienzos para efectuar un estudio comparativo de muchos rasgos fisonómicos de la religión y, por lo que podemos vaticinar, la próxima década se lograrán muchos avances en este sentido. Reviste un interés especial entre las nuevas tendencias la afición revivida por analizar la naturaleza de los cambios religiosos. Sí, como los académicos suponen, los credos y las prácticas nacen por derivación de otras circunstancias de la vida, es dable esperar que los notables cambios culturales registrados en el mundo en estos últimos tiempos influyan grandemente en la religión. Esto podemos suponerlo por retrospección a otras modificaciones de las teorías religiosas, ya que en estos momentos se advierten cambios profundos en las religiones occidentales.

Nos es permitido señalar que las nuevas teorías que buscan explicar la religión descartan por completo el sobrenaturalismo. Parece razonable afirmar que, en un futuro próximo, se formularán académicamente teorías nuevas sobre la evolución religiosa. Mas, antes que podamos ver esto, queda mucho por hacer en la determinación de puntos de referencia. Deberán estructurarse primero tipologías de la religión, de la filosofía, de la sociedad, de la tecnología y de los modos de producción y acumulación económicas que permitan deducir válidamente los modos -y expresar en forma inteligible- las relaciones vigentes entre cada una de estas categorías con cada una de las restantes y en el conjunto global de todas ellas.


4.- COSMOLOGIA Y FE

La génesis de todo el universo ha sido un tema neurálgico en la evolución y desarrollo del aparato cognoscitivo del hombre. Desde los albores mismos de la humanidad con sus mitos primigenios que hoy día se nos semejan infantiles, porque los conocemos y analizamos desprovistos de la emoción que les diera forma , hasta la astrofísica y cosmología contemporáneas , el ser humano, como hemos visto en capítulos anteriores, se ha esforzado en encontrar una respuesta al origen del mundo.
De la misma manera en que durante el siglo XVI, el polaco Copérnico, desencadena desde el seno de la misma Iglesia una gran polemica, cuando expone los fundamentos para una nueva concepción del mundo en su obra” Commentariolus” otro religioso, el fisco-matemático y sacerdote belga Georges Lemaitre, sienta las bases de la cosmología moderna, no quedando exento tampoco de críticas y acusaciones.

En 1911, Lemaitre comienza sus estudios de Ingeniería de Minas y descubre que estos no satisfacían del todo su pasión por la ciencia, y debe interrumpir su carrera a causa de la I Guerra Mundial, lo que le causa gran impacto emocional y racional. Al terminar el conflicto comienza a estudiar física y matemáticas en la Universidad de Lovaina, concluyendo en 1920 y de inmediato inicia sus estudios sacerdotales en el Seminario de Malinas (los concluye en 1923) . Para los años 20 Lemaitre, da a conocer a sus pocas amistades algunos planteamientos cosmologicos que por fin publicaria en 1931 en que planteaba la teoría de que el Universo tuvo un comienzo a partir de un estado en el que la materia se encontraba altamente concentrada en lo que llagaría el “átomo primitivo”, o “ el huevo cósmico” que se habría expandido luego rápidamente. Su formulación tropezó no sólo con las críticas de los defensores de tesis diferentes, sino con una abierta hostilidad por parte de científicos incluido el propio Einstein ,con quien -como ya hemos escrito-Lemaitre tenía correspondencia ,actualmente develada en dos Universidades, una en Israel y otra en EUA.

Desde el Renacimiento, las acusaciones contra las novedades científicas eran formuladas por teólogos y clérigos basados en las contradicciones en que parecían encontrarse las Sagradas Escrituras y lo que los científicos postulaban. En el caso de Lemaitre se encontraba atrapado la verdad desde el punto de vista de teológico que postulaba que el ser humano vive en virtud del acto creador de Dios y tiende a la salvación y la postulación con teorizacion matemática y demostración mediante ecuaciones complejas de que el Universo existe desde un momento dado y no desde siempre , como tiende a formular la ciencia materialista y dándole además a
esa visión rasgos de veracidad científica. Lemaitre debio enfrentarse al “síndrome Galileo” (el temor de que la religión pueda interferir en la autonomía de las ciencias) .

El mismo Einstein, proveniente de una familia judía de fuerte raigambre religioso, tenía un pensamiento prácticamente panteísta, por lo que le costó trabajo aceptar las ideas de Lemaitre, máxime que en sus primeros cálculos que estaban correctamente formulados las ecuaciones se empeñaban en darle un Universo con un inicio, pero como aun no había sido descubierta la expansión universal por Hubble en 1929, ello hizo que Einstein modificara sus ecuaciones para abolir los primeros resultados . De este hecho se arrepentiría luego llamándolo -justamente-su mas grande pifia ( The Great Blunder…) Y por ello es entendible que le resultaba incómodo admitir un universo que tiene un comienzo y una historia, puesto que ello equivalía, ni mas ni menos que aceptar la idea bíblica de la creación. Un relato pormenorizado de este conflicto de Einstein se relata en la obra del mismo nombre: “ The Great Blunder, del astrónomo judío-norteamericano Donald Goldsmith

La singular circunstancia de ver a un sacerdote católico inmerso en cuestiones científicas parecía sugerir a no pocos científicos de la época una intromisión de los eclesiásticos en un terreno ajeno. Y si ese sacerdote sustentaba, para colmo, que el universo tenía un comienzo, la presunta intromisión parecía confirmarse: se trataba de un religioso que pretendía explicar la creación divina con argumentos científicos. Pero Lemaitre nunca intentó hacer ciencia en beneficio de la religión. En una entrevista concedida a The New York Times declaró: “Yo me interesaba por la verdad desde el punto de vista de la salvación y desde el punto de vista de la certeza científica. Me parecía que los dos caminos conducen a la verdad, y decidí seguir ambos. Nada en mi vida profesional, ni en lo que he encontrado en la ciencia y en la religión,
me ha inducido jamás a cambiar de opinión”.

En unas declaraciones formuladas en 1936 Lemaitre dijo : “El científico cristiano… tiene los mismos medios que su colega no creyente. También tiene la misma libertad de espíritu, al menos si la idea que se hace de las verdades religiosas está a la altura de su formación científica… Nunca se podrá reducir el Ser Supremo a una hipótesis científica… En cierto sentido, el científico prescinde de su fe en su trabajo, no porque esa fe pudiera entorpecer su investigación, sino porque no se relaciona directamente con su actividad científica”. ( )

Posteriormente, Einstein asistió a una conferencia impartida por Lemaitre y al término de esta, se puso de pie y exclamó: “Es esta la más bella y satisfactoria explicación de la creación que haya oído nunca”. En esos mismos términos se expresó el cosmólogo holandés Willen De Sitter, creador de una hipótesis alternativa que explicaba de modo diferente al universo. “No puede haber duda alguna -manifestó- de que la teoría de Lemaitre es esencialmente verdadera y debe ser aceptada como un importante paso hacia una mejor comprensión de la naturaleza”. En 1960 Lemaitre, es nombrado Presidente de la Academia Pontificia de Ciencias, para honrar el ser precursor de la cosmología moderna, al concebir la idea de un comienzo para el universo en términos no bíblicos, sino estrictamente científicos.

Choques Ciencia-Fe.- Es posible postular que los choques entre la ciencia y la fe en el área de la elaboración de modelos cosmológicos es generado por una cosmovisión unilateral e insuficiente, producto de la falta de fidelidad a los estatutos epistemológicos, tanto de los postulados de la fe cristiana católica como de la investigación científica. Se configuran de este modo dos polos: un cosmos inconsistente por parte de una fe mal entendida, y un cosmos autosuficiente por parte del cientificismo . El estudio sobre el origen y evolución del universo siempre ha planteado complejas cuestiones, interpelando tanto al saber científico como al teológico.

Junto al problema de la evolución de las especies, éste ha sido frecuentemente un generador de conflictos entre científicos y creyentes. Incluso hoy en día, no son pocos los pensadores que no ven sino dicotomías mutuamente excluyentes a la hora de reflexionar sobre las grandes cuestiones, como si la ciencia y la fe se comprometieran e invalidaran mutuamente. Pero, entre tantas confrontaciones y ataques mutuos, ¿se defienden en verdad principios irrenunciables? ¿Se apunta al blanco correcto al invalidar la posición contraria? ¿O en el fondo todo se reduce al choque entre imágenes distorsionadas e irreconocibles?

Por su propia naturaleza, la cosmología lleva inevitablemente a plantear el problema del origen. Este campo fue un terreno especialmente propicio para evidenciar las dificultades tanto de la ciencia como de la fe para pensarse a sí mismas, y en su relación con la otra. Las confrontaciones entre dos manifestaciones profundamente humanas, pero no por ello irreconciliables, son generadas por cosmovisiones unilaterales e insuficiente, fruto de la falta de fidelidad a los estatutos epistemológicos tanto de la doctrina católica como de la investigación científica. Cuando esto se produce lo que se obtiene es la postulación de un cosmos inconsistente por parte de una fe mal entendida, y un cosmos autosuficiente por parte de una postura cientificista. Así lo entendió claramente Albert Einstein en su frase famosa: “ La ciencia sin la religión es coja, la religión sin la ciencia es ciega..”

Ciencia y Fe excluyentes o no..? Cuando se plantean las posiciones de ambas disciplinas como excluyentes una de la otra lo que se obtiene ,si se parte desde la posición cientificista es que se despoja al mundo de cierta entidad propia, pues su razón de ser está casi exclusivamente al servicio de su simbolización extramundana. Y cuando se parte de una posición teológica excluyente de los planteos de la ciencia, los signos de la creación remiten únicamente a lo divino, relativizando lo mundano, muchas veces al punto de ignorarlo.

En la antigüedad los planteos de Plotino en Grecia constituyen un caso significativo de sobre-simbolización cuya visión particular parte de su propia ontología. Su actitud de desplazar al cosmos a un plano secundario, hasta negarle consistencia propia, surge de la concepción metafísica misma de la materia y su relación con el Absoluto. La materia era para este filosofo “una sombra … puras apariencias”, “el no-ser”,porque …. el ser verdadero existe en el mundo inteligible . El mundo, entonces, es una degradación de lo divino, y la meta del hombre es despreciarlo para volver a unirse con el Uno. El cosmos es sólo una función significante de lo trascendente, y de ninguna manera un bien en sí mismo, dotado de consistencia e inteligibilidad.

Justo lo contario ocurre del lado de la teología, como apunta el teólogo Romano Guardini, cuando: “….una importante corriente de la Edad Media veía la realidad divina como lo propiamente verdadero, corriéndose así el peligro de una desvalorización de lo temporal. Lo finito aparecía como un reflejo inapropiado de lo absoluto, y el tiempo como mero preludio de la eternidad. Se experimentaba a tal punto el carácter simbólico de la creación, que no se le concedía una realidad autónoma. Había una percepción tan inmediata de lo religioso como lo único verdadero, que lo finito perdió su significación” . Justamente es un filosofo medieval, San Buenaventura quien representó tal vez el ejemplo más acabado de esta línea de pensamiento: sostenía la imposibilidad de una filosofía autónoma, porque el universo y el hombre están totalmente referidos a Dios. Así ,el camino intelectual se presenta como un recorrido místico de retorno a Dios, que culmina en la consumación en su visión y es a los ángeles a los que compete mover los cuerpos celestes, y por ello, les es atribuida la administración del universo. La consecuencia, en ese planteamiento, es no hay leyes inmanentes en la naturaleza que puedan ser descubiertas o explicadas, y menos aún dominadas.
En el camino opuesto, están otros pensadores:

Resucitacion del Maniqueísmo.- Cerrar por completo la posibilidad del conocimiento científico y atenernos en exclusiva a la interpretación literal de las Sagradas Escrituras es una resucitacion de una doctrina aparentemente sepultada: el Maniqueísmo ( doctrina fundada por Mani o Manes (216-276) en Persia (actual Irak) . La doctrina fundamental del maniqueísmo consistía en su visión dualista del universo, dividido en dos principios metafísicamente opuestos.
a) Todo lo material es creación del principio malvado, incluso la corporeidad del ser humano. En cambio, su alma es espiritual, un fragmento de la Luz Divina prisionera en el mundo.
b) El camino de su redención se produce a través de la elevación intelectual hacia las realidades espirituales, y el rechazo de todo conocimiento terrenal .
Si bien el maniqueísmo desaparece como religión propiamente dicha en la temprana Edad Media, sus planteamientos iniciales se fusionan con las abigarradas y difícilmente descifrables raíces del gnosticismo ( sea este pagano, pre-cristiano, judío o cristiano tardío que aparece entre los siglos I y II de nuestra era ) y que tuvo sus representaciones más claras durante las herejías “fuertes” ,entre ellas la de los movimientos cátaros y albigeneses , o de las “ herejías débiles” como serian la teosofía y el ocultismo, que en parte son fuente de inspiración para algunos teólogos de reputación actual como el caso del teólogo Karl Barth,18886-1968,considerado el teólogo contemporáneo mas influyente del protestantismo ,quien redefine las teorías calvinistas en una nueva concepción que llama de “Salvacion en Libertad” ,por la que no hay predeterminación alguna, sino que-por gracia de Dios que se humaniza- solo hay posibilidades de un Universo exclusivamente creado para redimirnos.

Inteligibilidad del Mundo.- El maniqueísmo es la representación de la absoluta imposibilidad de cualquier diálogo con las ciencias. El maniqueísmo rechaza de plano toda posible inteligibilidad del mundo, y por ende de sus leyes, pues éste es ontológicamente malo y caótico. Contrariamente al caso de la sobre-simbolización del mundo, aquí coexisten dos realidades cerradas en sí mismas que no se refieren simbólicamente entre sí. Lo creado se hace inconsistente no porque se exagere su instancia mediadora, sino porque en sí mismo no es ni puede ser cosmos. Si con el cosmos inconsistente es posible reflexionar sobre los peligros de quitar al cosmos toda significación, escamemos el polo contrario: el otorgamiento de una significación absoluta al cosmos.

Con los mismos comienzos de la filosofía, se esbozaron las primeras visiones de un cosmos Los primeros atomistas griegos del siglo IV y V A. C. ( Leucipo, Democrito , Epicuro) consideraban al universo como una sustancia increada y eterna, generadora de fenómenos puramente materiales. Éste se reduce a átomos eternos, indivisibles, infinitos en número, que interaccionan en el espacio vacío. El universo se formó por una interacción y combinación fortuita entre átomos en caída, y carece por completo de finalidad. Gran parte de la filosofía griega transitará por estas grandes ideas directrices.

El mundo desde tal perspectiva es un absoluto, cerrado sobre sí mismo, estático, inmutable e incorruptible, sin comienzo ni fin, infinito, y por lo tanto con propiedades casi divinas. De estos planteamientos participan, cada uno dentro de sus circunstancias y por citar dos flujos de pensamiento únicamente : el panteísmo de Baruch Spinoza (1632-1677) , y el materialismo mecanicista de la Ilustración Francesa, que retoma la concepción griega del mundo increado y eterno, para oponerse a la Revelación cristiana de un Dios Creador.

La Ilustración francesa ha producido directamente o facilitado la irrupción ,entre otras, de estas al menos cinco concepciones de Universo:

1.-Incomunicación-mente-cuerpo-Universo. La idea concebida por Malebranche (1638-1715) hace una síntesis entre planteos de Descartes y San Agustín ,degradando la consistencia de lo creado y sus leyes mediante la derogación del concepto de causa segunda o creada.
a) Si bien sus tesis jamás fueron directamente condenadas por la Iglesia, sus proposiciones sobre la relación del Creador con la creatura y su filosofía cosmológica no puede afirmarse que pueden compatibilizarse con la doctrina de la Iglesia. Este pensador afirmaba que no puede haber comunicación entre las mentes y los cuerpos. No es el hombre quien interactúa con los objetos, sino que con ocasión de su voluntad de mover un objeto dado, Dios mismo mueve el cuerpo extenso del hombre, y a través de éste a la cosa.
b) Esta era una visión de un mundo total y absolutamente despojado de consistencia. No habían causas segundas, sólo la Causa Eficiente divina. Las diversas realidades mundanas son por tanto títeres movidos por el “ Dios Titiritero”. El universo se convierte en un mero escenario de su acción excluyente.
c) El verticalismo del mundo es abrumador, y la ciencia es una tarea imposible de concretarse ,toda vez que no existiría, entonces, ningún mecanismo de causa-efecto inmanente al cosmos .


2.- La naturaleza como combinación de materias dispersas.- Paul Henri d’Holbach ,conocido también como Baron d’Holbach (1723-1789) afirmaba que el concepto de creación de la nada no tenía significado:
a) “Nada se hace de la nada, verdad ésta que nadie puede hacer vacilar ...así que cuando alguien nos pregunte de dónde viene la materia, le diremos que ha existido siempre..” Para este pensador , “Los hombres se equivocarán siempre cuando abandonen la experiencia en favor de sistemas originados en la imaginación”http://personal.telefonica.terra.es/web/mir/ferran/holbach.htm - _ftn1 y por tanto, La experiencia es la única fuente de conocimiento de la naturaleza en la cual se halla inserto el hombre y de la que no puede salir, ni siquiera mediante el pensamiento.
b) “La naturaleza no es más que la combinación de materias. Éstas se pueden combinar de infinitas maneras, con sus distintas propiedades y sus diversos movimientos, pero todos ellos necesarios y sólo estas combinaciones, propiedades y movimientos son para nosotros la esencia de los seres, mediante las cuales surgen las clasificaciones en órdenes, rangos y sistemas”.
c) “De este modo, la naturaleza, en el sentido más extenso, es el gran todo que resulta del ensamblaje de las diferentes materias, de sus diferentes combinaciones, de los diversos movimientos que vemos en el universo”http://personal.telefonica.terra.es/web/mir/ferran/holbach.htm - _ftn3. De esta forma el monismo se convierte en materialista: la única substancia es la materia a la que se asignan propiedades físicas, posibilidad de combinarse y, sobre todo, movimiento. Mediante dicha asignación se sortea el problema cartesiano del movimiento: ya no se trata de una creación divina, constante universal, sino que el movimiento es una particularidad de la materia. “El movimiento es un modo de ser que resulta necesariamente de la materia; ésta se mueve por su propia energía; sus movimientos se deben a las fuerzas que le son inherentes”http://personal.telefonica.terra.es/web/mir/ferran/holbach.htm - _ftn4.
d) Respecto de la materia: “está compuesta de ‘moléculas imperceptibles’ y su rasgo definitorio es que afecta a nuestros sentidos. “La materia en general es todo lo que afecta nuestros sentidos de alguna manera”http://personal.telefonica.terra.es/web/mir/ferran/holbach.htm - _ftn5.
e) Así, si el universo es materia y la materia es lo que afecta nuestros sentidos, el conocimiento humano podría llegar a ser total y completo; y ello no es así porque “la naturaleza, como se ha dicho, es el conjunto de todos los seres y de todos los movimientos de los que tenemos conocimiento, así como de otros muchos de los que nada podemos saber, puesto que son inaccesibles a nuestros sentidos”http://personal.telefonica.terra.es/web/mir/ferran/holbach.htm - _ftn6
f) El conocimiento se facilita por el hecho de que existen leyes del movimiento comunes a todos los seres de la naturaleza, la primera y más fundamental es la autoconservación: “todos los seres que conocemos tienden a conservarse cada cual a su manera”http://personal.telefonica.terra.es/web/mir/ferran/holbach.htm - _ftn7. Ello tendrá consecuencias inmediatas en su concepción del hombre, que como ser natural, no se escapa de la ley de autoconservación que actúa como una fuerza de gravitación sobre sí mismo: “El hombre , tanto físico como moral, ser viviente, sensible, pensante y actuante, no tiende en cada instante de su vida más que a procurarse lo que le gusta o lo que está conforme con su ser, y se esfuerza por apartar de sí todo lo que le puede dañar”http://personal.telefonica.terra.es/web/mir/ferran/holbach.htm - _ftn8.
g) El hombre queda reducido a un ser natural pero con su propia especificidad, fruto de la especial combinación de materia que constituye su esencia y que le otorga propiedades inigualables. Como en Spinoza, los errores de los hombres son el producto de ideas equivocadas sobre lo que favorece la conservación y el placer.

En consecuencia para d'Holbach ,una vez explicada la naturaleza y el hombre dentro de ella, queda por examinar cuál es la relación del hombre con la naturaleza y, para ello, examina las ideas de orden y desorden.
a) La idea de orden de la naturaleza es central: ya que lo concibe como principio porque aceptar el caos exigiría, o un demiurgo que instaure el orden, o suponer que éste es fruto del azar. Ambas ideas deben ser rechazadas, por ello el orden es consubstancial a la naturaleza y es fruto de la cadena de causas y efectos que produce la necesidad en ella. Lo que llamamos desorden es, en definitiva, aquello de lo que desconocemos su causa.
b) “Lo que llamamos, prodigios, maravillas y efectos sobrenaturales son fenómenos de la naturaleza cuyos principios y modos de actuar ignoramos”http://personal.telefonica.terra.es/web/mir/ferran/holbach.htm - _ftn9 y que por ello buscamos explicaciones fuera de la naturaleza donde sabemos que nada puede existir. Lo sobrenatural se halla más allá de la experiencia, de lo sensible; pero visto desde una perspectiva global, el desorden (lo que nosotros llamamos desorden) queda perfectamente encuadrado en la necesidad del orden de la naturaleza”.
c) “El orden y el desorden no son entonces más que palabras con las que designamos estados en los que se encuentran seres particulares”http://personal.telefonica.terra.es/web/mir/ferran/holbach.htm - _ftn10; “El orden y el desorden de la naturaleza no existen”http://personal.telefonica.terra.es/web/mir/ferran/holbach.htm - _ftn11. Y para establecerlo de forma definitiva, rechaza taxativamente la idea de azar, que había sido aceptada por los atomistas grecorromanos y que precipita al hombre en un determinismo irremediable. “No existe el azar, ni nada fortuito en una naturaleza en la que no hay efecto sin causa suficiente y donde todas las causas actúan según leyes fijas, seguras, que dependen de sus propiedades esenciales así como de las combinaciones y de las modificaciones que constituyen su estado, ya sea permanente o pasajero”http://personal.telefonica.terra.es/web/mir/ferran/holbach.htm - _ftn12.
d) El sistema natural queda así perfectamente establecido y cerrado. A partir de ahora lo que procede es “extraer las consecuencias que todo ello tiene sobre el género humano, tratando de demostrar que la moral y la política derivadas de esta concepción pueden producir sociedades más justas”.

3.-Materialismo ilustrado.- Como resultado de la Revolución Francesa , reaparecen en la historia del pensamiento humano concepciones del mundo estrictamente materialistas como las que habían defendido Demócrito, Epicuro y Lucrecio. Pero los motivos de dicha reaparición no son debidas a una nueva lectura de los clásicos, que sin ningún lugar a dudas se hizo y tuvo su influencia, sino a la confluencia de dos factores problemáticos en el pensamiento del siglo anterior a los que la tesis materialista pretendía dar solución: por una parte el dualismo cartesiano y por otra el empirismo newtoniano.

Descartes, al plantearse la esencia de las cosas, no puede más que aceptar dos substancias: la pensante y la extensa; la pensante es autodemostrable pero, para demostrar la extensa, tiene que recurrir a entidades metafísicas que la garanticen. Newton, al desarrollar la física moderna, establece la idea de causalidad, pero renuncia a cualquier fundamentación metafísica de la misma. Con el concepto de materia (concepto filosófico y no puramente físico) pueden solucionarse ambos problemas, con la ventaja añadida de que, a pesar de tratarse de un concepto metafísico, puede resultar muy intuitivo y simple.

El desarrollo del sistema basado en este concepto conduce a contradicciones y ambigüedades, pero los autores de esta corriente no están tan interesados en construir un sistema cerrado plenamente operativo, como en establecer una serie de principios liberadores del hombre en el contexto de una sociedad que era la negación más radical de la libertad individual. No hay que olvidar que el contexto de la Ilustración francesa es, fundamentalmente, un intento de desarrollar la ciencia del hombre, de aplicar los principios del empirismo (de corte británico) al psiquismo humano.


4.- El Cristianismo natural.- La Ilustración propuso un cristianismo natural sin Revelación, cuyas verdades fueran accesibles a la razón. El deísmo constituyó su concepción de Dios por excelencia, postulando en su cosmología a un Dios Ocioso que agota su acción creadora al principio del tiempo.
a) Habiendo establecido las leyes que deberán desenvolverse por sí mismas, el Creador se desentiende de su creación. Dios es trascendente, pero sin intervención alguna en el mundo, de modo que no actúa providentemente de cara a la historia ni al hombre.
b) El cosmos se gobierna por el dinamismo autosuficiente de sus leyes naturales.
c) Aunque el científico pueda verse llevado legítimamente ante el umbral mismo del misterio, y abrirse humanamente al Absoluto, la reflexión metafísica o religiosa no forma parte per se de los procedimientos científicos.

5.- Abriendo el campo a Engels y Marx.- La Revolución Francesa, con su carga de laicismo y libertad , escoge como libros de cabecera ldel suizo-francés Juan Jacobo Rosseau (1712-1778) en lugar de los de los materialistas ilustrados, mucho más radicales en sus planteamientos. Las influencias futuras de su pensamiento en los que sobresalen dos : El “Contrato Social” y “ El Emilio o de la Educacion” se deslizarán hacia lo que denominamos socialistas utópicos (Saint Simon, Fourier, Cabet, Owen, entre otros) algunos de los cuales intentarán poner en práctica sociedades basadas en principios de estas características y que, junto con otras influencias, confluirán luego, en los pensadores germanos Karl Marx (1818-1883) y Federico Engels (1820-1895) quienes construirán el sistema del materialismo dialéctico de mayores resonancias que ha permeado todo el pensamiento que se elabora desde su aparición y divulgación a mediados del siglo XVIII y se constituye en el valladar de pensamiento que más ha impactado al cristianismo y todo lo que proviene de él.



Implicaciones para la Cosmología.- El impacto de las ideas sucintamente descritas ha producido desde su aparición una extrapolación epistemológica, empleando la metodología de las ciencias positivas y esta transposición de planos permitió que se asumieran posturas tanto teístas como ateas en nombre de la cosmología científica: Por ejemplo ya en pleno siglo XX , en la época bajo examen:
a) La existencia de una singularidad en el modelo de Big Bang daría pie para colocar un acto de creación del Universo ( George Lemaître, 1927 ). Se pensaba que así se lograba una demostración teórica y experimental de la existencia de Dios.
b) En esos mismo años comenzaban a difundirse teorías científicas del comienzo del universo, que se confundían no pocas veces con la creación divina. Tal fue el caso del modelo del británico Edmund Taylor Whittaker (1853-1976) , que opinaba que la cosmología actual, al remontarse al origen absoluto del cosmos, tendería al límite último de éste, y se acercaría al acto de creación de Dios.
c) Desde una postura enteramente contraria, hubieron quienes pretendieron introducir subrepticiamente una petición de principio filosófico en su discurso científico, afirmando que sólo es real, o al menos digno de ser pensado, lo registrable a través del instrumental técnico.
Es precisamente esta actitud la que subyace en la postulación de un cosmos autosuficiente.
Debido a los trabajos de H. Bondi, T. Gold y F. Hoyle en sus teorías del estado estacionario o fijo y de la creación continúa.
d) Luego de la expectación que provoca en 1965 la primera confirmación empirica de la existencia de un proceso de explosión primigenia ( Big Bang) aparecen científicos que realizan una extrapolación filosófica, partiendo de una teoría seria y probable como ésta, y formulan una reflexión científica de soslayo: dado que se descubrió que fue una gran explosión inicial lo que dio origen al universo tal como lo conocemos, entonces la hipótesis de un Dios que lo creó al principio de los tiempos se vuelve totalmente superflua. Mencionemos dos científicos de amplia resonancia mundial opuestos a la relación Dios-Universo:

1.- Carl Sagan.- En su reflexión acerca de Dios Creador ,el astrónomo y exobiologo ruso-norteamericano Carl Sagan ( 1934-1996 ) expresa: : “¿Cómo eran las condiciones en la época del Big Bang? , ¿Qué sucedió antes? ….” Es corriente en muchas culturas responder que Dios creó el universo de la nada. Pero esto no hace más que aplazar la cuestión. Si queremos continuar valientemente con el tema, la pregunta siguiente que debemos formular es evidentemente de dónde viene Dios. Y si decidimos que esta respuesta no tiene contestación ¿por qué no nos ahorramos un paso y decidimos que el origen del universo tampoco tiene respuesta? O si decimos que Dios siempre ha existido, ¿por qué no nos ahorramos un paso y concluimos diciendo que el universo ha existido siempre ?.” Dios creador, en esta concepción queda reducido a una simple aporía lógica.

2.- Stephen W. Hawking .- El cosmólogo británico Hawking (1942- ) optó por proponer un modelo autosustentado, siguiendo la mejor tradición del atomismo griego y del materialismo ilustrado. Su teoría sobre un universo sin inicio singular, curvándose sobre sí mismo en el espacio-tiempo conforme se acerca a esta singularidad, tampoco necesitaría de un Creador.

A manera de comentario-pues volveremos sobre el tema ,solo resta manifestar que tanto Sagan como Hawking , a juicio del teólogo e historiador Guardini: “ incurrieron en la típica confusión de los deístas entre comienzo y origen, al asociar exclusivamente el concepto de Dios Creador con el inicio temporal del universo. Se pone de manifiesto que de frente al problema cosmológico, desde la antigüedad y hasta nuestros días, todo choque entre la ciencia y la fe es causado (y de hecho así ha resultado históricamente) por una cosmovisión parcializada, donde son vulnerados los estatutos epistemológicos tanto de la teología como de la ciencia” .

Que dice la Iglesia..? Examinemos la posición de la Iglesia frente a estos fenómenos y advirtamos que no siempre su posición ha sido invariable, como no lo es el acto humano de ir comprendiendo y rectificando, conforme se adentra en el conocimiento. Así la interpretación católica puede afirmarse que presenta estas características :
a) La creación no debe entenderse como una ordenación desde principio alguno anterior, sea caótico o no. Tampoco es un acontecimiento en un momento dado de una cierta duración para la iniciativa creadora, como si pudiese existir un antes y un después para Dios. No es por cierto una emanación necesaria de la esencia divina, que borraría la diferencia entre Creador y creatura.
b) La creación es esencialmente una relación de dependencia de la creatura respecto a su Creador. Pero esta relación no debe entenderse de modo estático: existe también un aspecto evolutivo de este acto creador, que implica un devenir de un menos a un más en los seres, dimensión histórica que se aplica tanto para el hombre como para la totalidad del universo.
c) La creación es un supremo gesto de libertad. El mundo existe pues Dios lo quiere, y lo quiere de este modo concreto, y no por una necesidad interna de un Dios solitario e indigente. La creación no agrega nada a la infinita dicha de Dios, y está por consiguiente dirigida a hacernos participar de su propia gloria.
d) Es por eso que el acto de creación del mundo no tuvo que ser. Fue, porque así fue querido por Dios. Este mundo no es producto de una cadena de causalidades necesarias, sino del amor divino, categoría que trasciende cualquier explicación natural. El mundo descansa en el acto libre de Dios, y está sustentado por este mismo acto. El hombre y el universo existen porque Dios los llama al ser desde la eternidad.

Compromiso no conveniente.- Toda identificación religiosa con un modelo cosmológico dado siempre resultará inapropiada. Citemos tres ejemplos típicos ,dos en la antigüedad y uno contemporáneo:
a) En la visión griega del cosmos, su concepción teológica cayó cuando se descubrió la expansión del universo, y se refutó así su modelo cosmológico estático y eterno.
b) De modo similar, en el caso Galileo a principios del siglo XVII, teólogos y autoridades eclesiales sostenían que existía una correlación necesaria entre el Geocentrismo y el mensaje esencial de la fe cristiana, posición que hubo que revisar cuando el heliocentrismo se impuso por el peso de su verdad.
c) Cuando Juan Pablo II recibe y felicita en 1968 a Hawking en el Vaticano, el cosmólogo afirma al final de la entrevista en que explica su modelo de Universo : “…el Santo Padre ( Juan Pabblo II) no debe entusiasme con su propuesta toda vez que parece no comprenderla en su totalidad, ya que a falta de un punto inicial no puede demostrarse un punto de origen del universo ni en el espacio ni en el tiempo”.

Desde el punto de vista teológico, Dios podría haber creado un universo autosustentado, o también un universo “ya crecido”, en el estado de evolución que Él hubiese querido. Todas estas posibilidades muestran que las pruebas de la existencia o la ausencia de Dios están fuera de toda verificabilidad experimental. Lo mismo puede decirse de su compatibilidad con una teoría cosmológica cualquiera.

Sea que se admita un inicio tipo “Big Bang” (con expansión ilimitada o limitada), o un modelo sin comienzo ni fin (como el del estado estable o el modelo de Hawking), lo esencial para la fe no es su comienzo sino su origen. Y éste se encuentra en el eje vertical, no en el horizontal. Dios sostiene todo el ser del cosmos, independientemente de que tenga éste un inicio o no. De ello se deduce teológicamente que cualquiera sea el modelo físico, éste debe su existencia al acto creador de Dios y de allí se infiere que la Iglesia no debe comprometerse con ningún modelo en particular, porque estos están expuestos-como toda obra del pensamiento humano a modificaciones que provienen de la forma de operar de la ciencia

0 comentarios:

Publicar un comentario

Visite

Ultimos artículos de VERDAD-BLOG